[DOSSIER] Qualité des données 3/4

Encore des projets à éprouver

Encore des projets à éprouver

Alors que les assureurs travaillent encore à fiabiliser les données de leurs systèmes de gestion et celles concernant leurs clients, ils vont devoir également apprendre à gérer la qualité des flux de données issus d'Internet ou des réseaux sociaux, et adopter une gouvernance transversale.

«La qualité des données, c'est le nerf de la guerre. Avant de les manipuler, il faut qu'elles soient de qualité », souligne Patrick Girard, associé management consulting assurance chez KPMG. Ce constat, les assureurs le font alors qu'ils travaillent sur la mise en oeuvre des différents piliers de Solvabilité 2. Avec le big data (1), cette problématique va encore se renforcer, en s'étendant à toutes les données utilisées par l'entreprise, aussi bien internes qu'externes. Se lancer dans des projets de compliance (de conformité aux normes réglementaires) ou de big data sans avoir travaillé la qualité des données, c'est prendre des risques : « Nos clients, assureurs ou autres, passent alors 80% du temps à préparer les données, en lançant des corrections, base de données après base de données. Ils consacrent seulement 20% à la véritable analyse. Commencer par la qualité de données permet d'inverser ces ratios », explique Arturo Salazar, Regional Business Solution Manager, Information Management chez l'éditeur SAS.

Des données clients fiables

80 %

C'est le temps passé par les entreprises à préparer les données en les corrigeant base après base, et seulement 20 % à leur véritable analyse. (Source : SAS)

Les assureurs ont déjà bien avancé sur les données techniques, mais pas autant sur les données clients. « Chez Axa, nous avons commencé à travailler sur la qualité et la complétude des données dans les années 90, plutôt sur les aspects risques. Cependant, la dimension commerciale prend de l'ampleur, mais les préoccupations sur la qualité des données y sont plus récentes », reconnaît Damien Bourgeois, responsable CRM, CVM (2) et études client chez Axa France. Les données sur les clients vieillissent mal, et les assureurs sont peu équipés pour les capter. « Les outils CRM ne sont pas très utilisés, ni les données collectées par les conseillers très fiables et la liaison avec le système d'information complexe. Par ailleurs, les réseaux d'agents généraux ne sont pas tous mûrs pour partager les données sur leurs prospects et clients », constate Bertrand Lauzeral, associé du cabinet Exton Consulting. Aujourd'hui, ce sont les données externes non structurées, venant notamment des réseaux sociaux, qui attirent le plus l'attention. Pourtant, selon Djamel Souami, directeur de la practice assurance de Micropole, « les assureurs ont autant matière à travailler la qualité de leurs données internes, structurées et non structurée, que de s'attaquer aux données des réseaux sociaux ».

Valider les sources

Ces données qui viennent de l'extérieur éclairent le comportement des consommateurs, mais sont difficiles à gérer. « Il faut travailler sur des données à trous, et parfois accepter des jeux de données incohérents et prévoir des algorithmes pour les corriger », prévient Bertrand Pitavy, directeur métier au cabinet d'actuariat Optimind Winter. Sur les réseaux sociaux, les fausses déclarations sont nombreuses, les gens ont plusieurs identités..., ce qui pose des problèmes de corrélation.

Autre souci : les traitements effectués par les agrégateurs. « Parce que l'on ne connaît pas leurs process, la question de la qualité intrinsèque de leurs données se pose », souligne Yves Le Roux, consultant chez l'éditeur CA Technologies, qui, en tant qu'administrateur de l'AFAI (3) et président du groupe de travail sur la protection de la vie privée de l'Isaca (4), a participé à plusieurs livres sur le big data.

Difficile, enfin, de mesurer le risque qu'engendreraient les recoupements sur la base de ces flux reçus en continu, alors que le cycle de vie de ces données peut être très court. D'ailleurs, dans la construction de scores big data, Stéphane Baranzelli, directeur général d'Experian Marketing Services, conseille à ses clients de ne pas s'appuyer sur des données de plus d'un an, sauf pour les risques et les sinistres où l'historique est important.

Les données doivent être vérifiées et leur cohérence contrôlée. Il faut définir qui en est le propriétaire, l'utilisateur, le responsable.

Céline Rolland, directrice chez Solucom

Une charte et une carte

Les critères classiques de qualité des données ne sont donc plus applicables. Les utilisateurs doivent apprendre à confronter la cohérence des résultats avec leur connaissance du marché, et les affiner avec des requêtes complémentaires. « C'est à eux de vérifier la robustesse des résultats et des modèles dans le temps », affirme Bertrand Pitavy. Les données n'appartiennent à personne dans l'entreprise : il y a des créateurs, des contributeurs, des utilisateurs..., mais pas de propriétaires. Et même si la politique de qualité des données est souvent pilotée par la direction des risques, qui est déjà chargée de Solvabilité 2, il est important d'adopter une gouvernance transversale.

Les assureurs mettent de plus en plus souvent en place des chartes autour de la qualité des données. « Au lieu de ne prendre en compte que les données nécessaires à Solvabilité 2, ils y abordent les problèmes de leur qualité dans sa globalité. La charte spécifie qu'elles doivent être vérifiées, analysées et subir des contrôles de cohérence. Elle définit, pour chaque type de données, qui en est le propriétaire, l'utilisateur, le responsable... », explique Céline Rolland, directrice chez Solucom.

Il faut donc procéder à un inventaire, application par application, afin de référencer toutes les données produites et examiner à quoi elles servent, si elles sont partagées ou non... « Nous avons commencé début 2013, et la mise en place d'un outil big data nous aidera à réaliser cette opération », estime Pascal Courthial, directeur des systèmes d'information de Klesia. Il souligne que cela oblige à casser les silos de l'entreprise, car la donnée est un patrimoine commun. Elle n'est plus la propriété du « métier », mais celle de l'entreprise. C'est cette dernière qui la met à disposition des services et non l'inverse. C'est donc une vraie révolution culturelle !

Un noeud juridique

Recourir à des flux de données extérieures qu'on ne stocke plus, et aux services d'agrégateurs pose donc problème. En effet, comment assurer la traçabilité de ces données dans les procédures d'audit ? Du côté des données à caractère personnel, « le détournement de finalité, c'est-à-dire traiter des données pour un usage autre que celui qui avait été spécifié lors de leur collecte, est le plus grand risque juridique du big data », prévient Fabrice Naftalski, avocat associé, expert en droit informatique, propriété intellectuelle et protection des données chez EY société d'avocats. Si l'on envisage d'autres utilisations, il faut donc en informer la personne concernée.

Cette obligation limite la mutualisation des données. Pour sortir du cadre des données personnelles, il est possible d'anonymiser les informations. Cependant, neutraliser l'identité de la personne ne suffit pas. En effet, les traces laissées par les communications mobiles ou la navigation sur Internet peuvent permettre d'identifier quelqu'un sans avoir son nom. « Il faut donc aussi régler la maille géographique pour qu'elle soit assez large et qu'on ne puisse pas reconnaître la personne. Techniquement cela implique des coûts additionnels », poursuit l'avocat. Tant que tous ces points portant sur la qualité et la conformité des données ne sont pas réglés, il semble donc risquer de lancer de réels projets big data.

1. Expression anglo-saxonne désignant la disponibilité d'un tel volume de données qu'il faut de nouvelles approches pour en extraire des informations pertinentes.

2. Le customer value management valorise les informations issues du système de gestion de la relation client, le customer relationship management.

3. Association française de l'audit et du conseil informatiques.

4. Information Systems Audit and Control Association.

Les Trois diMeNsioNs de LA QUALiTÉ des doNNÉes

CHRISTOPHE EBERLÉ, PRÉSIDENT D'OPTIMIND WINTER « L'actuaire, garant de la qualité des données »

Quel est le rôle des actuaires en matière de qualité des données ?
L'actuaire doit être garant de l'utilisation des données. Il doit attester de leur pertinence, certifier leur qualité, vérifier leur usage au regard des principes de déontologie. Sous Solvabilité 2, mais aussi avec l'arrivée du big data, il n'apparaît plus comme seulement producteur et utilisateur de données, mais aussi comme un certificateur de leur qualité et de leur pertinence.

Pourquoi certains semblent-ils mitigés face au big data ?
Beaucoup ne savent pas comment réagir face à la donnée non structurée. Ils ne savent pas toujours la traiter, et cela peut être anxiogène. D'autant que les flux provenant des réseaux sociaux ne sont pas stockés. La traçabilité des données va donc poser problème. L'actuaire pourrait devenir le correspondant du régulateur sur les questions de conformité dans le recueil et l'usage des données du big data. Tel un commissaire aux données, comme il existe actuellement des commissaires aux comptes.

DENIS BOURDON, directeur opérations IT et IT gouvernance chez Swiss Life « Renforcer les contrôles »

« Nous travaillons la qualité de nos données à plusieurs niveaux. Notamment, juste avant de les charger dans l'entrepôt de données, nous vérifions, par exemple, que les formats des dates, des adresses, etc., sont bien conformes aux standards et aux nomenclatures. Très en amont, dans le système de gestion, nous avons également mis en place un projet d'amélioration globale de notre référentiel client. L'idée est de renforcer le contrôle de la saisie de l'information en implantant de nouvelles règles de gestion dans les applications métier qui obligent à saisir l'information sous une forme prédéfinie. Nous ajoutons des nomenclatures, nous travaillons à l'identification des problèmes de synchronisation entre certaines applications et le référentiel... C'est un projet à moyen terme, qui a un impact sur tous les systèmes de gestion. »

Emploi

KAPIA RGI

Chef de Projet Assurance-Vie H/F

Postuler

KAPIA RGI

Ingénieur Développement PHP5/ZEND (H/F)

Postuler

+ de 10 000 postes
vous attendent

Accéder aux offres d'emploi

APPELS D'OFFRES

Assurance dommages aux biens

Cachan Habitat OPH

16 septembre

94 - Cachan

Acquisition d'un véhicule neuf.

Comité Martiniquais du Tourisme

15 septembre

972 - FORT DE FRANCE

Lac de la Sorme - assistance à l'élaboration d'un programme de travaux d'ingénierie...

Communauté Urbaine Le Creusot-Montceau (CUCM)

15 septembre

71 - CU LE CREUSOT MONTCEAU

Proposé par   Marchés Online

Commentaires

Encore des projets à éprouver

Merci de confirmer que vous n’êtes pas un robot

Votre e-mail ne sera pas publié