lundi 28 janvier 2013

Big Data (2/3) Ok, mais quel champ applicatif à la Big Data Analytics ?

Avec les techniques permises par le big data : puissance analytique, croisement de données hétérogènes non structurées, analyse avec une granularité la plus finie permise, mise en relief de corrélations cachées, nous assisterons à l’évolution de la manière de prodiguer des protocoles de soins. 

Nous n’étudierons plus, selon la même grille de lecture, l’étude du parcours de santé de chacun et le choix thérapeutique approprié. Ainsi, à terme, il sera dénué de sens que deux personnes souffrant d’une même pathologie reçoivent, selon un protocole de soin standard, un traitement identique et générique.  

Comme le précise Gilles Babinet : « de nombreuses avancées médicales aboutissent au même constat : les protocoles de soins sont vétustes, reposent trop sur la chimie et ne tiennent pas compte d'un environnement multifactoriel. La connaissance précise des antécédents médicaux de l'un et l'autre des patients, la connaissance des environnements dans lesquels ils évoluent et, dans un temps plus lointain, le séquençage massif des ADN vont permettre de faire des avancées en matière de qualité de soins ». Cela sera permis grâce à l’exploitation, l’analyse et la synchronisation de données cliniques et exogènes, jusqu’ici non exploitées. Le dossier médical personnalisé devra épouser, sans écart de virage, cette dynamique. 

Pas de prêche virulent, il ne s’agit pas d’être poujadiste et révisionniste sur les sciences fondamentales. Ne versons pas non plus dans l’obscurantisme et le déni. De nombreux métiers seront impactés voire refondus par la mise en relief de corrélations ou de phénomènes impalpables, qu’on pensait à ce jour comme non-impactants. Loin de là mon aspiration d’être reçu en consultation par un data scientist. Cependant, il est inéluctable que les fonctions médicales devront s’appuyer sur les possibilités d’aide à la décision offertes par la Big Data. Non pas in fine pour se limiter à un meilleur traitement curatif et optimiser l’existant. Mais bien pour explorer de nouveaux horizons préventifs : anticiper de manière prédictive de prochaines pathologies pouvant subvenir. 

 Tout cela dans un souci de faire monter en gamme les outils d’aide à la décision existants, somme toute très archaïques. Reste dès lors à baliser l’accompagnement à l’intégration de ces outils analytiques technologies dans une perspective d’aide au diagnostic curatif et préventif. Au risque d’être ostracisé, cela se confrontera, sans nul doute aux admonestations (mot compte double) de la profession médicale. On peut la supposer à l’instar des profs assez peu gourmande du reingenering de leur métier. Mais nous sommes face sans nul doute au nouveau levier de modernisation et du monde de la santé et dépenses associées.


Autre illustration, proof of concept plus contemporaine : la politique, in situ, in vivo. Moins de tracts, moins de phoning. C’est l’envers du décor. Normal il a plus essayé de refourguer à ses concitoyens ses perspectives plutôt que « Yes, I can Big Data ». On ne lui en tiendra pas rigueur. Ça aurait tâche, au regard de sa fonction, d’être élu sur sa maîtrise du traitement de données et des pratiques du Big Data. 

Anticipant le climat de morosité, d’indifférence et d’indécision de nombreux citoyens, Obama anticipait un électorat de sympathisants démocrates moins mobilisé. Il a ainsi constitué une conséquente équipe de data scientists. Cinq fois plus conséquente qu’en 2008. Un bataillon d’une centaine de data scientists au bas mot. Malgré l’émotion qu’il suscite auprès de certains quand il embrasse langoureusement Michelle, ces p’tits soldats ont clairement été une pierre décisive au sésame « four more years ». 

 
Leur fait d’armes ? Avoir constitué une giga base de données alimentée en continu, analysée et discriminée sur des attributs sociologiques, géographiques, ethniques, cercles d’influence propres à chacun, d’aversion aux démocrates, ou autres données hétérogènes non structurées. Les traitements massifs et combinaisons opérés ont permis de tester et modéliser les effets d’entraînement et cela à une échelle infinie. 

Illustration. Quel argument électoral ferait pencher une femme d’origine afro-américaine vivant dans le Missouri présentant un profil de sympathisante en 2008 et donc de donatrice potentielle. Ne restait plus qu’aux équipes d’orchestrer un programme marketing ciblé et destiné à notre bienheureuse et ses semblables pour la convertir en donatrice. Les discours larmoyants de Scarlett Johansson et autres Sean Penn se chargeaient d’apporter la touche émotionnelle de vernis glamour pour achever de les convaincre. 

Cette stratégie d’analyse de données a permis une analyse individuelle avec une granularité infime. En back up, les technologies analytiques de temps réel ont permises lors du D-Day une anticipation de l’allocation pertinente des équipes terrain sur les bureaux de vote anormalement peu mobilisés. On peut supputer que les analyses prédictives d’affluence, pouvaient être par exemple croisées dynamiquement avec des attributs de météo peu clémente (météo sensibilité) et donc « citoyennement parlant », peu incitative. 


Quand en parallèle, la stratégie Romney s’articulait désespérément sur les statiques sondages d’opinions. Amer, cinglant pour les républicains. 

Que penser de cette victoire triomphante de l’analytique. Mouvement majeur de prise compte de l’individu ? Recentrage de l’intérêt citoyen à une échelle individuelle et locale ? Nouveau modèle d’exploitation et d’expérimentation politique éprouvés et légitimités ? Manipulation de passe ou Président trendy porté sur l’hightech ? Ou plus simplement souveraineté de l’exploitation analytique. 


Trop mercantiliste à votre goût ? 

Arrêtons de conceptualiser la big data sous la seule ornière commerciale. 

Exemple philanthrope et empirique à l’appui. L’ONU écrit un nouveau chapitre dans l’analyse prédictive afin de sortir du carcan statique dans cet environnement non linéaire. Grâce à la data, l’ONU ne veut plus devenir spectateur passif d’une épidémie. Ne veut plus être tributaire de nébuleuses analyses.   

Désormais, nous n’aurons plus besoin de BHL ou de George Clooney pour nous alerter en amont sur l’imminence d’un drame humanitaire. Analyse à un niveau local de tendances, nature des interactions sur un réseau social, pic d’achat soudain de denrées alimentaires, début de flux migratoires, bouleversement politique local : le Projet Global Pulse de l’ONU a l’ambition d’analyser cela en temps réel dans une logique analytique prédictive. Comme le précise Henri Verdier (ancien président de Cap Digital, tout fraîchement nommé à la mission Etalab et PDG de MFG Labs), « la plupart des actions de l'ONU (politique économique, la gestion des crises, les opérations de maintien de la paix) ont besoin de données fiables, actionnables, et obtenues dans un délai très court. Puisque désormais l'empreinte de presque toutes les activités humaines et l’implication sociétale sont imprimées et géo-localisables dans les réseaux numériques, il devient donc très tentant d'aller chercher, dans ces données ouvertes et anonymisées, les éléments de décision dont l'organisation a besoin ».

Global Pulse se limite à apporter des éléments d’arbitrage temps réel. Ceci dans une perspective préventive à seule finalité unique de politique humanitaire (« analyse du chômage à travers les conversations dans les réseaux sociaux, prévention de crises alimentaires, suivi global de l'état sanitaire d'une population, analyse de migration de population, anticipation d’inflation de denrées alimentaires, etc »).

Nous ne pouvons que saluer ce projet. Croisons les doigts pour que ce type d’initiative analytique renvoie les « méthodologies » prédictives et les grilles de lecture d’Alain Minc et autres Jacques Attali (les Paco Rabanne de la finance, de la crise et du chômage) à leurs chères études
.
  

Autre illustration connexe, Google Flu permet quant à lui de tracker la propagation de la grippe. A contrario et sur une dimension plus marchande, on suivra attentivement le lancement de Facebook Graph Search. Nouveau mécanisme d’indexation qui s’appuiera sur les technologies du Big Data et fera écho aux requêtes de combinaisons croisées. Quel est le restaurant de tapas le plus apprécié de mes amis de moins de 30 ans habitant sur Paris.  Avec la légitimité et l’appréciation de votre cercle relationnel en prime. De quoi bouleverser sensiblement les ratios transactionnels d’acte d’achat généralement observés..

Plus d’illustration, de pragmatisme ? Cela fera l’objet d’un prochain billet Big Data à la sauce française avec la mise en relief de certaines solutions de start up françaises. En effet, une myriade de start up dans le monde essaye de se positionner sur le trend.


Aucun commentaire:

Enregistrer un commentaire