mercredi 5 mars 2014

Entretien avec François Bourdoncle (membre de la Commission Lauvergeon et co-chef de filière Big Data de la Nouvelle France Industrielle)


L’enjeu de la structuration de l’écosystème français Big Data par François Bourdoncle

Propos recueillis par Matthias Fille, ICT Advisor chez CCI Paris IdF

François Bourdoncle est le cofondateur et actuel Directeur Technique d'Exalead, aujourd'hui filiale de Dassault Systèmes. Il est membre de la Commission Lauvergeon "Innovation 2030"[1] qui a remis son rapport à François Hollande en octobre dernier : "Un principe et sept ambitions pour l'innovation"[2].   François est également co-pilote (avec Paul Hermelin, PDG de Capgemini) du plan d’action Big Data, qui compte parmi les 34 grands projets de la "Nouvelle France industrielle" du Ministère du Redressement Productif. François nous partage sa vision du Big Data, les risques encourus à vouloir nier cette révolution numérique. Il dresse également les pistes pour favoriser l’émergence d’un écosystème vertueux autour des Big Data en France.

Nous avons dépassé le simple prisme technologique du Big Data. S’attarder sur la primauté technologique est une illusion, c’est désormais un enjeu de business transformation. En effet, il ne faut pas appréhender le Big Data par sa définition opérationnelle ou sous l’ornière technologique, mais par ses impacts et les effets cela va produire. Cela va ainsi exclure la vacuité de certains débats ambiants. Le centre de gravité du débat ne sera plus axé sur la masse de données (à partir de quelle masse de données peut-on considérer qu’on fait du Big Data ?) ou sur les enjeux techniques d’optimisation organisationnelle. Il faut s’attarder sur d’autres phénomènes : enjeux de conception produits, de business transformation, nouveaux modèles d’affaires, d’organisation client et de gamme de produits. Sur la phase de développement des infrastructures et des solutions technologiques sous-jacentes, le terrain est balisé. Les dés sont déjà lancés, que le meilleur gagne ! Donc, la bataille n’est plus sur l’infrastructure, mais bien sur les usages, sur le développement de nouveaux modèles économiques et les déclinaisons verticales. En matière de Big Data, il faut passer du « comment » au « quoi » et au « pour quoi ».
Par exemple, la vraie création de valeur réside dans des boîtes comme Withings ou Criteo, car elles reposent sur  un business model complètement intégré verticalement, qui créent, captent, analysent, valorisent et monétisent de la data. Pour faire de l'innovation intelligente, il faut placer au même endroit les données qu'on fabrique et celles qu'on recueille. On voit par ses exemples que la France a l’opportunité de se frayer un chemin sur l’échiquier mondial des usages.  Là où tout n’est finalement pas encore bien défini. 
Mais l’Hexagone doit composer avec son marché, qui n’a pas la taille d’un marché US, ni la même capacité d’investissement.

Donc, en tant que chefs de file de ce « chantier » avec Paul, nous avons identifié les leviers que les pouvoirs publics peuvent actionner pour favoriser l’émergence d’un écosystème français vertueux du Big Data, exportateur et créateur d’emplois. C’est donc avant tout un objectif économique, académique et industriel. Nous voulons rendre le terrain français fertile pour l’ensemble de cet écosystème en changeant le « PH de l’aquarium ». Sur le mode opératoire, l’ambition de nos travaux n’est pas de bâtir une nouvelle filière industrielle au sens classique du terme, comme c'est le cas par exemple pour le plan "Avion électrique". En effet, le Big Data est en réalité plus un écosystème qu’une filière au sens traditionnel du terme, car elle n’a pas vocation à déboucher sur un produit industriel précis. Les Big Data sont quelque chose de beaucoup plus écosystémique et horizontal, parce que cela irrigue tous les secteurs.

En effet, le Big Data est un enjeu critique pour tous les secteurs de l’industrie et des services, notamment ceux qui n’ont pas été encore fortement impactés par la révolution numérique. Il ne faut pas que nos grands groupes ignorent cette révolution numérique, comme cela a été le cas pour le commerce de proximité, la presse, l’industrie du disque, ou très bientôt la télévision et le cinéma. Car le Big Data va être le moyen par lequel la révolution numérique va s’inviter sur des secteurs qui n’étaient pas irrigués à ce jour. Ainsi, il faut éviter que ne se reproduise cet aveuglement que ces secteurs ont connu. Sur ces secteurs, les acteurs n’ont pas voulu appréhender cette révolution numérique jusqu’à ce que cela devienne irréversible. Donc, il faut éviter ce déni de réalité, qui est une forme de défense extrêmement dangereuse. Il faut éviter le « jusque-là tout va bien ».
Car à vouloir refuser de se challenger sur son propre business model, de nombreux acteurs courent le risque de la désintermédiation par des pure players de la data comme le GAFA[3], IBM ou LinkedIn. Ceux que j’appelle les « barbares modernes[4] »

En effet, le succès de l’innovation orientée grand public de ces 15 dernières années (Internet, moteurs de recherche, téléphonie mobile, réseaux sociaux, etc.) leur confèrent un accès direct au grand public et à ses données. Cette connaissance de la relation clientèle est leur outil pour se positionner dans tous les domaines. Comme le démontre l’actualité récente[5], ces spécialistes de la data regardent les déclinaisons possibles dans d’autres secteurs traditionnels, fortement « challengeables » sur leur business model. Ainsi, le risque pour les grands groupes établis est lié à la menace que ces « barbares » utilisent cet actif pour aller partout où il y a de l'inefficacité dans la relation clients.
Par exemple dans l'assurance, la santé, le crédit, le marché de l’électricité, les opérateurs de télécommunications etc.

Illustration dans le domaine de l’assurance. Avec Android sur votre terminal, Google dispose de votre géolocalisation et accéléromètre. Il connait votre mode de vie, type de conduite, oisiveté, mobilité, préférences, etc. En mixant ces datas et en faisant travailler leur arsenal algorithmique, ils seront en mesure de vous proposer une offre assurantielle, moins chère, granulaire, extrêmement sophistiquée quant à votre profil de risque. Et ils capteront la valeur des bons clients, les CSP+, ceux dont la probabilité de sinistralité est faible.


Ces nouveaux acteurs réinstaureront dès lors une nouvelle forme d’intermédiation. Et qui dit intermédiation, dit également sous-traitance et érosion des marges. Ces pure players du numérique auront la capacité d’imposer un diktat aux Brick and Mortar (acteurs traditionnels) et de les reléguer à un simple rôle d’opérateurs et prestataires techniques interchangeables. Ces derniers se seront fait confisquer la relation client qui représente la grosse partie de la valeur. Car la majeure partie de la valeur n’est plus captée par celui qui détient la technicité de l'objet industriel, mais par celui qui détient la technicité de l'optimisation de l'objet ou de la relation client grâce aux technologies du Big Data. 

Les entreprises françaises doivent absolument réinventer leurs services clients, où à défaut, les exécuter mieux que les autres. D’autant plus qu’il y a une vraie demande de produits personnalisés dans ces domaines. De surcroît, trop d’industries comme le crédit, l’assurance et la finance se sentent protégés car se pensent à la pointe avec leurs outils informatisés. C’est illusoire. L’informatique pur n’y est qu’un outil de production et de productivité, il n’a pas d’impact sur le business model et sur la transformation du business. A cet égard, le capitalisme français a un problème: il est beaucoup trop dans l'entre-soi et la courtoisie. Plutôt que d’encaisser de front cette 3ème révolution numérique, il faut anticiper sa dynamique et ses enjeux de business transformation. Cette ouverture culturelle et l’acceptation de la compréhension de la désintermédiation numérique sont critiques pour changer leur logiciel de pensée.

Donc, l’une des priorités est d’inciter les grandes entreprises françaises, aujourd’hui en retard sur leurs homologues américaines, à lancer des projets à grande échelle d’exploitation des données massives à des fins de business. Pour ce faire, dans le cadre de notre chantier, nous travaillons sur plusieurs pistes avec les grands groupes. Premièrement, annihiler justement ce déni de réalité et évangéliser. Et également valoriser l’innovation ouverte. Pour les grands groupes, il est aujourd’hui absolument vital de collaborer travailler avec des start-up.
Parce que, jusqu'à présent, il faut bien reconnaitre que la tendance est plutôt de les racheter pour les tuer avant qu'elles puissent devenir des concurrentes. Nous devons favoriser l’interaction vertueuse du tandem grands groupes (utilisatrices) et start up du Big Data (techno providers). Idéalement, il faudrait que les grands groupes payent trois fois ! Les financer en early stage (capital-risque), les aider à grandir (logique business) et les racheter seulement au moment opportun. Sans cela, ces acteurs en herbe ont peu de chance de grandir, de démonter la scalabilité de leur projet et de trouver les forces de s’attaquer à l’export pour contrer l’étroitesse et l’aversion « culturelle IT » de notre marché intérieur. Donc l’effet de levier de cette mesure est double et convergent pour ces deux typologies d’acteurs.

Autre réflexion connexe. J’ai l’obsession de changer la perception de l’innovation française. Comme chacun sait, la R&D est généreusement financée par de nombreux véhicules de financement publics (FUI, Crédit d’Impôt Recherche, etc.). Il faut s’en féliciter. Mais au regard des investissements publics consentis, l’effet produit y est trop minimal. La R&D est trop peu impactante lors de la mise sur le marché pour changer « les règles du jeu » et créer de la valeur. Au-delà de la dimension exploratoire des projets de R&D, ces PME et startup ne doivent pas oublier qu’il leur faut un marché. D’où notre réflexion de créer un appel d’air et de tirer cet écosystème par l’aval en créant le marché. Notre volonté est donc de stimuler les projets et POC côté demandeurs. Nous serons ainsi confortés sur : l’existence potentielle d’un marché, l’expérimentation à l’échelle de ces projets par les grands groupes, l’aide aux PME et leur besoin de scalabilité de projets. Les PME ont davantage besoin d’un carnet de commande étoffé plutôt que de subventions (côte offre / amont). Cette logique aura un effet de levier maximal : créer le marché plutôt que l’offre, et réduire le time-to-market de nos startup. Par ailleurs, via le récent lancement de la plate-forme TeraLab[6], les entreprises et chercheurs disposeront d’un environnement de recherche et d’expérimentation (briques technologiques, ressources de calcul grande échelle). Et pour ce faire, il est essentiel que cette structure recense les « bonnes volontés » en matière de mise à disposition de données de la part des entreprises.

Par ailleurs, tout comme le logiciel de pensée, notre volet réglementaire doit évoluer. Sur le premier aspect, il faut permettre aux usages de s’installer, de s’expérimenter. Sur le volet réglementaire, nous pouvons être fiers d'avoir exporté notre modèle de la loi Informatique et Libertés au niveau européen. Mais cette loi a un problème : la finalité initiale de la collecte des données personnelles est gravée dans le marbre, on ne peut pas la faire évoluer lors des utilisations ultérieures. Or les Big Data, ça ne fonctionne pas comme ça, ça bouge. La déferlante va faire craquer cette loi, c'est inévitable. Il faut refondre toute la question du volet législatif en matière de réutilisation des données, afin de faciliter, sans lever toute forme de contrôle, l’usage des données. Il faut ainsi pouvoir expérimenter avant de légiférer et déplacer l’équilibre en faveur de l’innovation. A cet égard, il serait illusoire de croire que de s’interdire le droit d’expérimenter sur l’utilisation innovante des données serait un garde-fou contre les dérives potentielles. 

Ce principe d’audace, d’action et d’expérimentation doit pouvoir rééquilibrer le rapport de force avec notre principe « sacro-saint » de précaution inscrit dans notre constitution. Les usages innovants et disruptifs comportent une part évidente de risque. Donc, avant que la CNIL n’empêche d’expérimenter, nous devons appréhender ces usages, sectoriellement et de manière jurisprudentielle.
Or, actuellement, l’utilisateur des données doit respecter l’usage intentionnel pour lequel les données ont été collectées : la loi doit évoluer dans son principe même. Nous pourrions remplacer le principe d’intentionnalité par celui de réciprocité, de passer d’une logique déclarative à une logique d’adhésion, grâce à la rédaction d’une charte d’adhésion à des valeurs de base,  par secteur, avec sanction si non-respect de la vie privée.

De plus, il faut observer l’évolution des usages et procéder systématiquement à une étude d’impact économique avant de légiférer « défensivement et mécaniquement ». Comme pour le besoin de stabilité fiscale, les entreprises ont besoin de ce gage de sécurité. Sans cela, les entreprises ne pourront pas opérer. Sans ce droit à l’expérimentation, mis en avant par le rapport de la Commission Lauvergeon, il sera très difficile de faire émerger une filière Big Data dans notre pays. C’est de l’action et l’expérimentation que naitront la réflexion et les usages, et non pas l’inverse. Mais comme toute révolution industrielle, l’entrée de notre civilisation dans l’ère du « tout numérique » ne se résume pas à ses risques potentiels, et la crispation légitime sur la protection de la vie privée ne doit pas masquer les fantastiques enjeux économiques et citoyens que représente le traitement intelligent des données massives. 

A ce titre, l’Etat se doit d’être une locomotive d’expérimentation. Comme pour les entreprises, ses enjeux sont tout aussi considérables (gestion des ressources, des infrastructures, de l’énergie, des transports, du marché de l’emploi, des finances publiques, etc).  Il doit aussi montrer l’exemple sur des thèmes comme les data dans la santé avec les données de la CNAM, qui seraient un fabuleux gisement de création de valeur avec de nouvelles applications et une nouvelle façon de concevoir les parcours de soins : passer d’une démarche curative à une logique préventive grâce au suivi et analyse en temps réel. Il en va de même dans l’évaluation et le pilotage des politiques d’action publiques. A l’heure où le niveau de défiance des citoyens vis-à-vis de la classe politique est le plus élevé de l’OCDE, voilà une formidable opportunité de recentrer le citoyen au cœur du débat sociétal et de faire monter d’un cran le niveau d’exigence des citoyens sur l’exécutif central et les collectivités.

En synthèse, je dirai que nous ne sommes donc pas en retard, et nous avons d’autre part de nombreux atouts, comme par exemple des ingénieurs généralistes de haut niveau, formés à l’informatique, aux mathématiques et aux statistiques, et qui sont très largement plébiscités au niveau international, à commencer par la City et Wall Street. Ne serait-il pas plus vertueux de leur permettre de réussir en France en aidant nos entreprises à déployer des projest Big Data à grande échelle, en créant de nouveaux business model, en réinventant la relation client par la donnée? 

Comme je l’ai évoqué, nous avons également la chance d’avoir quelques très belles « success stories »  comme Critéo ou encore Withings qui est l’un des leaders mondiaux de l’Internet des Objets, qui va être l’un des grands pourvoyeurs de données dans le futur. Cet Internet des Objets, justement, qui va complètement révolutionner la manière dont les produits sont conçus et commercialisés, ainsi que la manière dont l’innovation va se nourrir de l’exploitation du suivi des produits en condition opérationnelle. Espérons que les dossiers Big Data prochainement financés dans le cadre du « Concours Mondial de l’Innovation 2030 » puissent accoucher de futures pépites. Mais nous avons actuellement trop peu de champions numériques, ces « modernes ». Donc, j’ai l’ambition aussi de faire entrer les anciens (nos grands groupes) dans l’ère de cette 3ème révolution numérique.



[2] http://www.direccte.gouv.fr/IMG/pdf/LAUVERGEON_1_principe_et_7_ambitions.pdf
[3] GAFA : acronyme pour désigner Google, Amazon, Facebook et Apple
[4] Article interview de Challenges 20-01-2014 « 
[5] Récentes acquisitions de Google dans le domaine de l’assurance et de la maison intelligente connectée ou investissement de 250 million $ sur Uber, compagnie de VTC
[6] Centre de ressources technologiques destiné à des projets de recherche, d’innovation et de prototypage dédiés aux big data, lancé par l’Institut Mines-Télécom et le Groupe des Écoles nationales d’économie et de statistique (GENES)

Big Data et Santé : les enjeux nationaux et illustrations empiriques à l’étranger









Big Data et Santé : les enjeux nationaux et illustrations empiriques à l’étranger

Par Matthias Fille, International Development - ICT Advisor chez CCI Paris IdF

Il existe de nombreuses perspectives de réutilisations innovantes des données publiques de santé. L’analyse de ces Big Data santé repose sur plusieurs bénéficies majeurs : une meilleure prise en charge du patient (passer d’une logique curative à préventive), contenir drastiquement les dépenses nationales (doublement de la population sénior d’ici 2030) et offrir de nouveaux terrains d’analyses et expérimentations à la communauté de recherche scientifique (épidémiologie, maladies chroniques, pharmacovigilance, …)

La CNAM, un vivier numérique inexploité

Notre modèle de santé se doit de faire mieux avec moins. Il doit être vecteur d’amélioration du parcours de soins et doit replacer le citoyen au centre du parcours de soins. Par extension, il doit être challengé de manière vertueuse en s’appuyant à bon escient sur les outils de d’analyse prédictive et de machine learning. En France, les données de santé sont consolidées par la CNAM[1]. Ainsi, ce gisement de data n’est ni plus ni moins que la base de données la plus étoffée au monde toutes catégories confondues. Ainsi, le SNIIRAM[2] retraite et stocke 1,2 milliard de feuilles de soins chaque année (consommation et prescription médicale, pathologie), 500 millions d’actes médicaux et 15 millions de séjours hospitaliers d’un peu plus de 65 millions d’individus. Soit 20 milliards de lignes de prestations depuis 15 ans. Une véritable mine d’or inexploitée, un véritable asset numérique dont dispose l’hexagone. Et ce depuis 15 ans. Soit 450 téraoctets de données.

La CNAM se refuse, à ce jour, de libérer ces informations. Or, elles pourraient servir la recherche pour mieux appréhender les épidémies, qualifier les prescriptions, jauger l’efficacité des médicaments, recouper des informations pour prévenir de drames sanitaires ou comparer les frais médicaux. Tous les analystes s’accordent sur le fait qu’une veille sanitaire calquée sur l’analyse de ces données de la CNAM auraient endigué à coup sûr le mésusage inapproprié d’un médicament comme le Mediator, via le recoupage et la mise en évidence de facteurs de corrélation. On estime à environ 6000 par an le nombre de décès attribuables à des prescriptions injustifiées. Mais l’accès à ces datas sont verrouillés. Ainsi l’efficience de notre système de santé est sacrifiée sur l’autel de l’opacité. Non libérée, car cette information représente le principal levier de négociations avec les assureurs, les laboratoires, les syndicats professionnels et les industriels. De plus lever le voile sur cette opacité démontrerait au grand jour les insuffisances de la CNAM et l'inefficience à réguler et piloter les dépenses de santé et à optimiser le système de santé. 

Pour l’ineptie, il faut savoir que jusqu’à peu, l'Institut de Veille Sanitaire n'avait pas accès au SNIIRAM. Or, l’accès à ces datasets permettrait de cerner tous nos excès et dérives : les prescriptions excessives de médicaments placebo[3] (sans aucun effet pharmacologique) et antibiotiques, les dépassements d’honoraires systématisés, la multiplication des arrêts de travail non justifiés, les fraudes à l’assurance maladie ou le recours trop systématique à la prescription « chimique ». Optimisée, elle permettrait de réaliser de fortes économies sans toucher à la qualité des soins. C’est d’ailleurs le combat entrepris par le collectif Initiative Transparence Santé[4]. Aujourd’hui, le médecin de ville est seul à décider de ses prescriptions. Dès lors que celles-ci sont susceptibles d’être analysées et comparées à la moyenne des prescriptions, le médecin et le système se retrouveraient « challengés » de manière vertueuse.

Vers une médecine personnalisée et préventive

L’intégration du numérique et l’exploitation de la data comme outil analytique permettrait de tendre vers une médecine personnalisée, granulaire, préventive (donc plus efficace) et moins coûteuse. En effet, notre médecine traditionnelle, obéit à des impératifs qui ne prennent que trop peu en compte l’environnement multifactoriel dans lequel évolue le patient au quotidien. Et dérive, de fait, vers des parcours de soins « taylorisés », « protocolés ». Il est dénué de sens que deux personnes souffrant d’une même pathologie reçoivent, selon un protocole de soin standard, un traitement identique. Or la communauté médicale pourrait tirer profit de l’analyse de ces datas. Il pourrait mieux appréhender notre « rythmique de vie » et donc faire face aux risques potentiels via cette nouvelle grille de lecture du parcours de vie. Car c’est en croisant ces data que la posologie, les choix thérapeutiques la prédisposition ou les indicateurs de récidive à certaines maladies chroniques pourraient être mieux adaptés. En ayant à disposition de nouveaux outils d’aide à la décision basés sur l’empirisme analytique de la data, le praticien pourra mieux arbitrer sur les modalités d’intervention. 
Car il lui manque aujourd’hui une transversalité collaborative et une interdisciplinarité de l’analyse des données. Non pas in fine pour se limiter à un meilleur traitement curatif et optimiser l’existant. Mais bien pour explorer de nouveaux horizons préventifs : anticiper de manière prédictive de prochaines pathologies pouvant subvenir. Par extension, le système de santé opérerait une mue organisationnelle (processus et protocoles métier, optimisation des allocations de ressources). Ces nouveaux horizons abaisseraient notre intensité médicamenteuse (dimension chimique) et notre recours systématique aux services d’urgence. Notre système se révèlerait plus efficient et à moindre coût pour la société. Cela répondrait par ailleurs aux enjeux de de proximité, de personnalisation et de prise en compte de ses spécificités individuelles voulues par le patient.
Le patient est prêt

Désormais, le patient est engagé. Il devient un générateur volontaire d’un corpus d’informations relatives au domaine de la santé. En effet, l’information n’est plus en silos compartimentés. Elle est devenue ubiquitaire. Le patient s’auto-responsabilise, il interagit. Il veut prendre parti de l’actif informationnel qu’il génère. Avec cette vague du Quantified Self, il se couvre de devices connectés (bracelets, balances intelligentes, t-shirt enregistrant les battements de cœur, …) qui balayent ses comportements alimentaires, comportements sportifs, humeurs, bien-être, prédispositions, habitudes, indice de masse corporelle, performances cognitives.
Il s’agit de véritables extensions du système nerveux capables de détecter potentiellement en amont les premiers signes d’une maladie. Ces devices interconnectés automatisent la collecte de données et en font naître un usage. On parle ici des solutions combinant capteurs connectés et applications sur smartphone (Fitbit, NikeFuelband, Jawbone, Withings, …) indiquant vitesse, distance, calories brulées, rythme cardiaque, pression artérielle, glycémie, hypertension, cycles du sommeil. Ainsi, les flux d’informations de ces little data  transmis en temps réel aux praticiens pourraient modifier en profondeur la compréhension du mode de vie d’un patient et des maladies chroniques. Sans nul doute, cela améliorait la réponse de la santé publique. Il parait ubuesque d’être le pays champion des objets connectés (Netatmo, Withings, Parrot, etc..) et ne pas être en mesure de l’expérimenter à grande échelle sur la santé publique.

Par ailleurs, le patient exige de la transparence, par exemple sur les tarifs médicaux ou les dépassements d’honoraires. Il est demandeur et consommateur d’applications et de services de réutilisations innovants lui permettant de mieux arbitrer et  appréhender son accès au parcours de soins. Il convient de recentrer le patient au cœur de la plate-forme de santé via la data. Il doit pouvoir accéder à ses données et en reprendre le contrôle aussi bien pour le droit à l’oubli que pour l’exploitation de celles-ci s’il veut en tirer en bénéfice. De surcroît, Pourquoi ne pas imaginer que le patient se réapproprie ses données ou qu’il lègue volontairement sa banque de données numériques à la recherche, plutôt que la CNAM en soit la gardienne. Mais, cela nécessite l’obtention de données objectives. Ainsi, il est grand temps pour le système de santé d’appréhender cette nouvelle rupture de paradigme où le patient n’est plus considéré comme un simple administré. Cette relation au patient passif est révolue.

L’open data pour la recherche

Les données de santé sont fondamentalement majeures pour produire de la connaissance scientifique et de la recherche avancée. La possibilité d’avoir accès à ces datasets permettrait des études cliniques à grande échelle sur l’épidémiologie, la pharmacovigilance ou l’efficacité et les effets secondaires d’un traitement. Car les travaux de la communauté scientifique requièrent une classe d’étude plus conséquente que celles d’essais cliniques classiques. C’est la dimension participative et contributive de la recherche de demain, où les données des patients s’enrichissent les unes des autres pour un bénéfice sociétal. Et le format de travail Open Data permet de connecter en réseau les communautés, fédère les expertises et courcicuite les rouages de fonctionnement cloisonnées et corporatistes. Ces données représentent un fabuleux terrain d’expérimentation pour la recherche approfondie. L’étude à l’échelle d’une population ou sur une couche de population précise permettrait de nouveaux angles d’approches sur les diagnostics et la connaissance maladie. 

C’est notamment le cas pour croiser les corrélations entre le patrimoine génétique et certaines maladies comme le cancer (phénotype) à la recherche de signaux rares. L’étude de fonctionnement de la génomique et la protéomique, à l’heure de l’open data massif, permettrait de mieux anticiper les évolutions d’une maladie. Après l'effondrement du coût du séquençage ADN, l'enjeu majeur est désormais dans la capacité à exploiter les données génomiques. Ainsi, nous devons, en France changer le PH de l’aquarium pour créer un environnement adapté à ce type de recherches, et permettre d’oser, d’expérimenter sur ces sujets aussi critiques.

A l’étranger, de nombreuses initiatives de recherche et applications

Aussi, la réflexion nationale doit se nourrir des expérimentations et des illustrations empiriques à l’étranger. Par exemple en Italie, les autorités publiques s’attaquent à la fraude à l’assurance maladie. Le croisement automatique des données de l’assurance maladie avec celles disponibles en libre accès sur les réseaux sociaux permet d’identifier les arrêts maladie susceptibles d’être frauduleux par leur date ou leur récurrence.

En Australie, de très nombreuses informations relatives au système de santé sont mises en ligne, comme par exemple My Hospitals qui permet de comparer la performance des hôpitaux. D’une donnée libérée est né un usage.

Au Royaume-Uni, dès Décembre 2012, l’institut pour les Données Ouvertes[5] a mis à disposition les Open Data de santé. L’ODI a été lancé par Sir Tim Berners-Lee, inventeur du World Wide Web et Dr. Nigel Shadbolt, spécialiste du Web Sémantique et membre du Government Transparency Board, et du gouvernement de David Cameron. Il vise « la collaboration entre les entreprises, les entrepreneurs, les chercheurs, l’Etat et la société civile, pour concrétiser la promesse de valeur économique et sociale liée aux grandes quantités de données publiques désormais accessibles à tous et réutilisables par chacun ». Aux Etats-Unis, McKinsey estime que l’Open Data pourrait faire économiser entre 300 et 450 milliards de dollars au système de santé américain[6].

Outre-manche, existe le National Cancer Registration Service qui a mis au point une giga base de données, unique, extrêmement fournie sur les diagnostics et traitements du cancer. Il consolide les données de l’alpha à l’oméga : diagnostics, réactions au traitement, 1ers soins, traitements, suivi quotidien, résultats, soins palliatifs jusqu’au décès. Cette base de données est enrichie de 11 millions d'enregistrements sur le cancer et s'agrandit tous les ans avec 350 000 nouveaux cas de tumeurs. Ses algorithmes produisent des analyses prédictives sur la manière dont les patients réagissent le mieux aux traitements. Les informations relatives à la progression du diagnostic et de la maladie sont reliées aux analyses moléculaires et génomiques du patient. Et sur la « noblesse » du  projet, autant être exemplaire jusqu’aux choix technologiques et au degré d’ouverture : choix logiciels open source et plate-forme de gestion projet agile, ouverture de l’accès au système et renseignement des données par patients, création de passerelles scientifiques avec la génomique.

Toujours au Royaume-Uni, le Département de la Santé demande aux médecins d’encourager leurs patients à avoir recours à des applications mobiles pour suivre leurs signes vitaux et leurs symptômes dans toutes sortes de situations afin de réduire les consultations inutiles. De plus, l’intensification de transmission de ces données améliore les prises en charge ultérieures. Les applications recommandées sont homologuées et gratuites. 

Au Canada, a été lancé dès 2000, Génome Canada[7], qui a permis le financement de projets innovants de big data génomique. Citons pêle-mêle, le cas de l’entreprise GenePOC qui a mis au point un disque compact de diagnostic utilisant des tests à base d’ADN ou celui de BD Diagnostic GeneOhm, une société de diagnostic moléculaire qui se classe au premier rang parmi les développeurs de tests rapides visant à détecter et à identifier une variété d’agents infectieux et de variations génétiques. Elle aujourd’hui leader mondial de son domaine. Cet enjeu est générateur d’emploi, de revenus et de solutions de santé. 

Aux États-Unis, des projets de recherche connexe ont généré 67 milliards de dollars pour l’économie américaine; 20 milliards de dollars en revenus et 310 000 emplois. Le projet CATCH du MIT croise génétique et analyse passive des comportements des patients atteints de diabète. En plus des informations médicales classiques sur les patients, une équipe recueille et analyse les infos comportementales, la géolocalisation les habitudes de vie transmises par leurs téléphones.

A Singapour, les apports de l’analyse prédictive s’appliquent à la politique organisationnelle de soins afin de mieux industrialiser ces processus métiers : les données relatives aux patients réadmis dans l’hôpital à plus de deux reprises dans un intervalle de six mois sont analysées et servent à l’élaboration d’un modèle prédictif. Celui-ci permet d’anticiper la demande de soins un mois à l’avance, notamment celle des patients qui souffrent de maladies chroniques. L’hôpital affecte ainsi mieux ses ressources et améliore la « user expérience » du patient au cours de son parcours de soins. L’accès à l’information permet aussi une meilleure coordination des services de santé et in fine de la pris en charge du patient. 

En Norvège, les municipalités fluidifient l’accès à l’information via les écrans tactiles de services et l’accès aux informations de services de santé. Pour améliorer l’efficacité de services devant faire face à un flux d’information important et continu, des écrans équipent les salles d’infirmières dans la ville norvégienne et affichent l’état des chambres ou les patients en attente pour obtenir d’un coup d’œil une meilleure vue d’ensemble.

Soulignons le projet européen Sim-e-Child appliqué à la cardiologie pédiatrique. Cette plate-forme cloud permet aux praticiens de valider de nouveaux modèles de simulation concernant les pathologies cardiaques complexes. La plateforme permet de s'affranchir des infrastructures lourdes et des contraintes propriétaires des systèmes d'information. Les cardiologues peuvent ainsi requêter une énorme base de données, les croiser et obtenir des rendus statistiques. Il pourrait se convertir en outil d’aide à la décision médicale : qualifier plus facilement le diagnostic des patients et consulter des cas de référence. Ce modèle pourrait être décliné pour toutes sortes de pathologies.

Les Etats-Unis ont usé de procédés algorithmiques afin de procéder à des essais sur des échantillons cliniques plus grands, et ont fait émerger des tendances que l’on n’aurait pas imaginées à l’avance. Par exemple, en 2009, en pleine pandémie de grippe H1N1, le ministère américain a eu recours aux services de Google. Via la collecte et la localisation des recherches  mots clés et données relatives, Google a pu anticiper l’évolution de l’épidémie. Il a décliné cela Google Flu Trends, qui fournit en prédictif des indicateurs de propagation de la grippe. En outre, les données recueillies sont temps réel, très nombreuses, conditions sine qua non à l’étude de l’épidémiologie.

Twitter s’intéresserait désormais à la dépression, fléau sanitaire du 21ème siècle, après avoir étudié la progression de la gastro-entérite. Une véritable création de valeur quand on sait que la France détient le triste record de consommation de médicaments psychotropes… Le croissement de données permet d’appréhender des phénomènes imperceptibles et d’améliorer la pharmacovigilance : le requêtage sur Google de patients consommant du paroxetine et pravastin a permis de comprendre que cela augmentait les risques en effet secondaire d’hyperglycémie.  Faute d’une position volontariste de la CNAM, ce sont aujourd’hui les pure-players de la data (Google, Twitter, …) qui participent à la veille épidémiologique via les analyses de signaux. Ils pourraient aussi à terme s’intermédier entre le citoyen et les praticiens et monétiser cette connaissance patients.

L’ONU quant à elle, via le projet Global Pulse analyse à un niveau micro, les flux migratoires, la nature des intégrations sur les réseaux sociaux, les pics soudains d’chats de denrée alimentaire / médicamenteuse. Ce projet a pour ambition d’analyse cela en temps réel dans une logique prédictive pour mieux appréhender les drames humanitaires, crises alimentaires ou épidémies. Comme le souligne Henri verdier d’Etalab, la plupart des actions de l'ONU ont besoin de données fiables, actionnables, et obtenues dans un délai très court. Puisque désormais l'empreinte de presque toutes les activités humaines et l’implication sociétale sont imprimées et géo-localisables dans les réseaux numériques, il devient donc très tentant d'aller chercher, dans ces données ouvertes et anonymisées, les éléments de décision dont l'organisation a besoin.

Au Rwanda, les solutions de la start up Foyo[8], s’appuie sur le vaste parc mobile[9] pour toucher le plus grand nombre de patients. Leur application propose aux patients de s'abonner afin de recevoir tous les jours un SMS leur préconisant un régime équilibré et adapté à leur maladie (cancer, problèmes cardiaques, diabète, obésité, sida et hépatites). Le volet participatif s’enrichit par leur plate-forme m-Health d’échanges entre patients et praticiens.

Saluons le prototype de canne intelligente connectée de Fujistu. Une personne peut ainsi télécharger son itinéraire. La personne est géo-localisée en permanence. Des capteurs de température et d’humidité permettent d’évaluer un changement météo et de modifier l’itinéraire pour mettre la personne à l’abri si nécessaire. La canne intègre également un capteur de fréquence cardiaque. 

Quant à elle, la société Qualcomm, (historiquement spécialisée dans la conception processeurs pour téléphones portables) vient de lancer 2net Mobile, application grand public sous Android, qui permet d’agréger sur smartphones et tablettes des données cliniques (médicales et biométriques) transmises par les capteurs de multiples dispositifs médicaux. Cela fait écho à son produit d’infrastructure hub2net, qui lui répond au suivi à domicile des patients atteints de maladies chroniques

Ainsi, on constate que les pouvoirs publics de la santé n’ont pas suffisamment accéléré leur transition vers le numérique et la data. Aussi bien sur les nouveaux usages, les compétences métiers que les infrastructures. Pour les pays les plus précurseurs, le ratio de personnel informatique est de 2 %, soit un spécialiste de l'IT pour 50 hospitaliers. En France, il se situe péniblement à 0,4%. Exprimé en chiffre brut, ces écarts se traduisent en dizaines de milliers d'emploi, par exemple 25000 en Angleterre contre 5000 en France. Quant aux infrastructures, le taux des hôpitaux raccordés aux réseaux haut débit (>100Mbps) est catastrophique : 25e place du classement continent européen. La France se classe avant dernière en Europe en termes de disponibilité de système d’archivage numérique d’images médicales. 16ème pour le déploiement de la télémédecine. C’est ce genre de hiatus qui empêche une meilleure fluidification des informations entre tous les acteurs traditionnels de santé.

Conclusion

Le bénéfice d’ouverture des données de santé est indéniable. L’éviter relèverait d’un certain déni de réalité ou d’un obscurantisme à l’innovation et au progrès scientifique. Il est regrettable de constater que de plus en plus d’acteurs publics et collectivités libèrent leurs données, quand dans le même temps, la CNAM campe sur une position cléricaliste et sclérosante. Certes, la crispation est légitime sur la menace de l’utilisation frauduleuse de ces données. 

Il revient ainsi aux pouvoirs publics de mettre en place un cadre de confiance et d’éthique qui jugulerait les dérives, garantisserait l’anonymisation des données et libérerait l’innovation et la création de valeur. Tous les voyants sont convergents : les technologies d’exploitation de Big Data sont matures, le patient interconnecté est générateur de corpus d’information, il exige de la transparence et de la personnalisation, les nouveaux usages ne demandent qu’à émerger. Il est ainsi grand temps de libérer ces big data. A l’heure où notre système d’accès aux soins se dégrade, où la santé à deux vitesses se confirme, où le financement dérape, l’intégration des technologies d’exploitation de la data représente un formidable levier de modernisation structurelle qui ne se discute plus. Ainsi, de nouveaux champs disciplinaires verront le jour, mais tout cela est conditionné au principe du droit à l’expérimentation.

Twitter @matt_fill




[1] Caisse nationale d’Assurance maladie
[2] Système national d’informations inter-régimes de l’Assurance maladie
[3] Médicament sans effet pharmacologique démontré dans la pathologie considérée
[4] Initiative Transparence Santé est un collectif d'acteurs œuvrant dans le domaine de la santé qui réclame l'accès aux données publiques relatives à notre système de soins (http://www.opendatasante.com/) 
[5] UK Open Data Institute, à but non lucratif
[7] Génome Canada : Agence de financement de projets de recherche en génomique 
[8] lauréate du concours SSW de Kigali
[9] 62,8% de la population rwandaise utilise le mobile