Avec les techniques permises
par le big data : puissance analytique, croisement de données hétérogènes
non structurées, analyse avec une granularité la plus finie permise, mise en
relief de corrélations cachées, nous assisterons à l’évolution de la manière de
prodiguer des protocoles de soins.
Nous n’étudierons plus, selon la même grille
de lecture, l’étude du parcours de santé de chacun et le choix thérapeutique
approprié. Ainsi, à terme, il sera dénué de sens que deux personnes souffrant
d’une même pathologie reçoivent, selon un protocole de soin standard, un
traitement identique et générique.
Comme le précise Gilles Babinet :
« de nombreuses avancées médicales aboutissent au même constat : les
protocoles de soins sont vétustes, reposent trop sur la chimie et ne tiennent
pas compte d'un environnement multifactoriel. La connaissance précise des
antécédents médicaux de l'un et l'autre des patients, la connaissance des
environnements dans lesquels ils évoluent et, dans un temps plus lointain, le
séquençage massif des ADN vont permettre de faire des avancées en matière de
qualité de soins ». Cela sera permis grâce à l’exploitation, l’analyse et
la synchronisation de données cliniques et exogènes, jusqu’ici non exploitées.
Le dossier médical personnalisé devra épouser, sans écart de virage, cette
dynamique.
Pas de prêche virulent, il ne s’agit pas d’être poujadiste et
révisionniste sur les sciences fondamentales. Ne versons pas non plus dans
l’obscurantisme et le déni. De nombreux métiers seront impactés voire refondus
par la mise en relief de corrélations ou de phénomènes impalpables, qu’on
pensait à ce jour comme non-impactants. Loin de là mon aspiration d’être
reçu en consultation par un data scientist. Cependant, il est inéluctable que
les fonctions médicales devront s’appuyer sur les possibilités d’aide à la
décision offertes par la Big Data. Non pas in fine pour se limiter à un
meilleur traitement curatif et optimiser l’existant. Mais bien pour explorer de
nouveaux horizons préventifs : anticiper de manière prédictive de
prochaines pathologies pouvant subvenir.
Tout cela dans un souci de faire
monter en gamme les outils d’aide à la décision existants, somme toute très
archaïques. Reste dès lors à baliser l’accompagnement à l’intégration de ces
outils analytiques technologies dans une perspective d’aide au diagnostic
curatif et préventif. Au risque d’être ostracisé, cela se confrontera, sans nul
doute aux admonestations (mot compte double) de la profession médicale. On peut
la supposer à l’instar des profs assez peu gourmande du reingenering de leur
métier. Mais nous sommes face sans nul doute au nouveau levier de modernisation
et du monde de la santé et dépenses associées.
Autre illustration, proof of concept plus contemporaine : la politique, in situ, in vivo. Moins de tracts, moins de phoning. C’est l’envers du décor. Normal il a plus essayé de refourguer à ses concitoyens ses perspectives plutôt que « Yes, I can Big Data ». On ne lui en tiendra pas rigueur. Ça aurait tâche, au regard de sa fonction, d’être élu sur sa maîtrise du traitement de données et des pratiques du Big Data.
Anticipant le climat de morosité, d’indifférence et d’indécision de nombreux citoyens, Obama anticipait un électorat de sympathisants démocrates moins mobilisé. Il a ainsi constitué une conséquente équipe de data scientists. Cinq fois plus conséquente qu’en 2008. Un bataillon d’une centaine de data scientists au bas mot. Malgré l’émotion qu’il suscite auprès de certains quand il embrasse langoureusement Michelle, ces p’tits soldats ont clairement été une pierre décisive au sésame « four more years ».
Leur fait d’armes ?
Avoir constitué une giga base de données alimentée en continu, analysée et
discriminée sur des attributs sociologiques, géographiques, ethniques, cercles
d’influence propres à chacun, d’aversion aux démocrates, ou autres données
hétérogènes non structurées. Les traitements massifs et combinaisons opérés ont
permis de tester et modéliser les effets d’entraînement et cela à une échelle
infinie.
Illustration. Quel argument électoral ferait pencher une femme d’origine afro-américaine vivant dans le Missouri présentant un profil de sympathisante en 2008 et donc de donatrice potentielle. Ne restait plus qu’aux équipes d’orchestrer un programme marketing ciblé et destiné à notre bienheureuse et ses semblables pour la convertir en donatrice. Les discours larmoyants de Scarlett Johansson et autres Sean Penn se chargeaient d’apporter la touche émotionnelle de vernis glamour pour achever de les convaincre.
Cette stratégie d’analyse de données a permis une analyse individuelle avec une granularité infime. En back up, les technologies analytiques de temps réel ont permises lors du D-Day une anticipation de l’allocation pertinente des équipes terrain sur les bureaux de vote anormalement peu mobilisés. On peut supputer que les analyses prédictives d’affluence, pouvaient être par exemple croisées dynamiquement avec des attributs de météo peu clémente (météo sensibilité) et donc « citoyennement parlant », peu incitative.
Quand en parallèle, la stratégie Romney s’articulait désespérément sur les statiques sondages d’opinions. Amer, cinglant pour les républicains.
Que penser de cette victoire triomphante de l’analytique. Mouvement majeur de prise compte de l’individu ? Recentrage de l’intérêt citoyen à une échelle individuelle et locale ? Nouveau modèle d’exploitation et d’expérimentation politique éprouvés et légitimités ? Manipulation de passe ou Président trendy porté sur l’hightech ? Ou plus simplement souveraineté de l’exploitation analytique.
Trop mercantiliste à votre goût ?
Arrêtons de conceptualiser la big data sous la seule ornière commerciale.
Exemple philanthrope et empirique à l’appui. L’ONU écrit un nouveau chapitre dans l’analyse prédictive afin de sortir du carcan statique dans cet environnement non linéaire. Grâce à la data, l’ONU ne veut plus devenir spectateur passif d’une épidémie. Ne veut plus être tributaire de nébuleuses analyses.
Désormais, nous n’aurons plus besoin de BHL ou de George Clooney pour nous alerter en amont sur l’imminence d’un drame humanitaire. Analyse à un niveau local de tendances, nature des interactions sur un réseau social, pic d’achat soudain de denrées alimentaires, début de flux migratoires, bouleversement politique local : le Projet Global Pulse de l’ONU a l’ambition d’analyser cela en temps réel dans une logique analytique prédictive. Comme le précise Henri Verdier (ancien président de Cap Digital, tout fraîchement nommé à la mission Etalab et PDG de MFG Labs), « la plupart des actions de l'ONU (politique économique, la gestion des crises, les opérations de maintien de la paix) ont besoin de données fiables, actionnables, et obtenues dans un délai très court. Puisque désormais l'empreinte de presque toutes les activités humaines et l’implication sociétale sont imprimées et géo-localisables dans les réseaux numériques, il devient donc très tentant d'aller chercher, dans ces données ouvertes et anonymisées, les éléments de décision dont l'organisation a besoin ».
Global Pulse se limite à apporter des éléments d’arbitrage temps réel. Ceci dans une perspective préventive à seule finalité unique de politique humanitaire (« analyse du chômage à travers les conversations dans les réseaux sociaux, prévention de crises alimentaires, suivi global de l'état sanitaire d'une population, analyse de migration de population, anticipation d’inflation de denrées alimentaires, etc »).
Nous ne pouvons que saluer ce projet. Croisons les doigts pour que ce type d’initiative analytique renvoie les « méthodologies » prédictives et les grilles de lecture d’Alain Minc et autres Jacques Attali (les Paco Rabanne de la finance, de la crise et du chômage) à leurs chères études
.
Autre illustration connexe, Google Flu permet quant à lui de tracker la propagation de la grippe. A contrario et sur une dimension plus marchande, on suivra attentivement le lancement de Facebook Graph Search. Nouveau mécanisme d’indexation qui s’appuiera sur les technologies du Big Data et fera écho aux requêtes de combinaisons croisées. Quel est le restaurant de tapas le plus apprécié de mes amis de moins de 30 ans habitant sur Paris. Avec la légitimité et l’appréciation de votre cercle relationnel en prime. De quoi bouleverser sensiblement les ratios transactionnels d’acte d’achat généralement observés..
Autre illustration, proof of concept plus contemporaine : la politique, in situ, in vivo. Moins de tracts, moins de phoning. C’est l’envers du décor. Normal il a plus essayé de refourguer à ses concitoyens ses perspectives plutôt que « Yes, I can Big Data ». On ne lui en tiendra pas rigueur. Ça aurait tâche, au regard de sa fonction, d’être élu sur sa maîtrise du traitement de données et des pratiques du Big Data.
Anticipant le climat de morosité, d’indifférence et d’indécision de nombreux citoyens, Obama anticipait un électorat de sympathisants démocrates moins mobilisé. Il a ainsi constitué une conséquente équipe de data scientists. Cinq fois plus conséquente qu’en 2008. Un bataillon d’une centaine de data scientists au bas mot. Malgré l’émotion qu’il suscite auprès de certains quand il embrasse langoureusement Michelle, ces p’tits soldats ont clairement été une pierre décisive au sésame « four more years ».
Illustration. Quel argument électoral ferait pencher une femme d’origine afro-américaine vivant dans le Missouri présentant un profil de sympathisante en 2008 et donc de donatrice potentielle. Ne restait plus qu’aux équipes d’orchestrer un programme marketing ciblé et destiné à notre bienheureuse et ses semblables pour la convertir en donatrice. Les discours larmoyants de Scarlett Johansson et autres Sean Penn se chargeaient d’apporter la touche émotionnelle de vernis glamour pour achever de les convaincre.
Cette stratégie d’analyse de données a permis une analyse individuelle avec une granularité infime. En back up, les technologies analytiques de temps réel ont permises lors du D-Day une anticipation de l’allocation pertinente des équipes terrain sur les bureaux de vote anormalement peu mobilisés. On peut supputer que les analyses prédictives d’affluence, pouvaient être par exemple croisées dynamiquement avec des attributs de météo peu clémente (météo sensibilité) et donc « citoyennement parlant », peu incitative.
Quand en parallèle, la stratégie Romney s’articulait désespérément sur les statiques sondages d’opinions. Amer, cinglant pour les républicains.
Que penser de cette victoire triomphante de l’analytique. Mouvement majeur de prise compte de l’individu ? Recentrage de l’intérêt citoyen à une échelle individuelle et locale ? Nouveau modèle d’exploitation et d’expérimentation politique éprouvés et légitimités ? Manipulation de passe ou Président trendy porté sur l’hightech ? Ou plus simplement souveraineté de l’exploitation analytique.
Trop mercantiliste à votre goût ?
Arrêtons de conceptualiser la big data sous la seule ornière commerciale.
Exemple philanthrope et empirique à l’appui. L’ONU écrit un nouveau chapitre dans l’analyse prédictive afin de sortir du carcan statique dans cet environnement non linéaire. Grâce à la data, l’ONU ne veut plus devenir spectateur passif d’une épidémie. Ne veut plus être tributaire de nébuleuses analyses.
Désormais, nous n’aurons plus besoin de BHL ou de George Clooney pour nous alerter en amont sur l’imminence d’un drame humanitaire. Analyse à un niveau local de tendances, nature des interactions sur un réseau social, pic d’achat soudain de denrées alimentaires, début de flux migratoires, bouleversement politique local : le Projet Global Pulse de l’ONU a l’ambition d’analyser cela en temps réel dans une logique analytique prédictive. Comme le précise Henri Verdier (ancien président de Cap Digital, tout fraîchement nommé à la mission Etalab et PDG de MFG Labs), « la plupart des actions de l'ONU (politique économique, la gestion des crises, les opérations de maintien de la paix) ont besoin de données fiables, actionnables, et obtenues dans un délai très court. Puisque désormais l'empreinte de presque toutes les activités humaines et l’implication sociétale sont imprimées et géo-localisables dans les réseaux numériques, il devient donc très tentant d'aller chercher, dans ces données ouvertes et anonymisées, les éléments de décision dont l'organisation a besoin ».
Global Pulse se limite à apporter des éléments d’arbitrage temps réel. Ceci dans une perspective préventive à seule finalité unique de politique humanitaire (« analyse du chômage à travers les conversations dans les réseaux sociaux, prévention de crises alimentaires, suivi global de l'état sanitaire d'une population, analyse de migration de population, anticipation d’inflation de denrées alimentaires, etc »).
Nous ne pouvons que saluer ce projet. Croisons les doigts pour que ce type d’initiative analytique renvoie les « méthodologies » prédictives et les grilles de lecture d’Alain Minc et autres Jacques Attali (les Paco Rabanne de la finance, de la crise et du chômage) à leurs chères études
.
Autre illustration connexe, Google Flu permet quant à lui de tracker la propagation de la grippe. A contrario et sur une dimension plus marchande, on suivra attentivement le lancement de Facebook Graph Search. Nouveau mécanisme d’indexation qui s’appuiera sur les technologies du Big Data et fera écho aux requêtes de combinaisons croisées. Quel est le restaurant de tapas le plus apprécié de mes amis de moins de 30 ans habitant sur Paris. Avec la légitimité et l’appréciation de votre cercle relationnel en prime. De quoi bouleverser sensiblement les ratios transactionnels d’acte d’achat généralement observés..
Plus d’illustration, de pragmatisme ? Cela fera
l’objet d’un prochain billet Big Data à la sauce française avec la mise en
relief de certaines solutions de start up françaises. En effet, une myriade de
start up dans le monde essaye de se positionner sur le trend.