samedi 8 juin 2013

Le secret d’un bon pitch


C'est quoi un elevator pitch ?
Bon on parle de quoi pendant un pitch ? De but en blanc, le concept de prise de parole et l’art de la rhétorique doivent prendre l’ascendant sur la dimension fonctionnelle, technique et technologique du produit. On obéit à un triptyque argumentaire : vous posez un problème, votre équipe est la mieux à même de le résoudre, le tout englobé dans une perspective de marché prometteur (le pitch étant souvent par essence adressé à une communauté d’investisseurs, de VC, de prospects). Vous n’avez pas eu le temps de faire l’apologie de vos milliers de lignes de codes disruptives ? Que votre mathématique algorithmique que vous avez développée en mode "techos-garage" avec vos associés pendant 2 ans vont clairement marquer une rupture de paradigme ? Ce n’est ni lieu, ni l’endroit de l'évoquer. L’enveloppe fonctionnelle et la dimension technique seront évoquées par la suite si votre interlocuteur vous glisse d’un air facétieux « I wanna know more about that, let’s schedule a meeting ». Exercice périlleux : ne pas chercher à distiller un maximum d’informations (seulement les plus percutantes), esquisser un business novateur à forte dimension exploratoire avec un business model cohérent et éprouvé (value proposition).
Pourquoi, nous français, galérons sur le pitch ?
Alors pour quelles raisons, on affecte communément le pitch à un choc inter-culturel périlleux plutôt qu’à un apprentissage de communication salutaire comme une autre ? Pourquoi, nous, gaulois, galérons autant à maîtriser cette composante de vocalise ? Les raisons du mal sont plus préoccupantes. Elles renvoient à l’opposition binaire entre l’entrepreneur français, à grosse dominante de communication technophile, face à l’américain maitrisant les lettres de noblesse de l’expression orale concise depuis son plus jeune âge. Sur ce coup-là, on est des vecteurs passifs du holisme éducatif. Notre système éducatif archaïque n’a jamais privilégié le story-telling et le marketing verbal percutant. L’art de l’exposé est redouté et relégué à l’école. La philosophie de notre système éducatif s’accroche à des bases (malheureusement inébranlables
à ce jour) désuètes et vétustes. Elles consistent à rivaliser entre apôtres de l’éducation à celui qui arrivera à faire copier le plus ses élèves sur une logique de volume. A formater ses élèves. Les convaincre que la connaissance est payante, statique, qu’elle se recopie, se duplique et qu’elle doit être gravée dans le marbre à coup de burin. Un véritable processus itératif à mesure que les classes et promotions se succèdent. Imbriquée dans une réflexion plus globale sur l’éducation, l’impétueux Gilles Babinet, appelle ça « l'avènement du taylorisme et de l’ère industrielle du système éducatif », qu’il appelle de ses veux à se régénérer et se remettre en cause le plus rapidement. Pas faux. Le discours académique se confine et se complait dans l’obscurantisme et le déni à se réformer. Le mammouth a les oreilles qui sifflent face à ces doléances. Malheureusement, il fait la sourde oreille.
Mais y’a pas que ça : le français n’aime pas le marketing
On relève trop fréquemment des entrepreneurs se perdant dans le dédale des fioritures techniques et la nébuleuse fonctionnelle du produit qu’il propose. Le problème de ce qu’il cherche à résoudre et l’équation n’ont pas été posés, que x et y sont déjà détaillés. L’argumentation s’en retrouve déstructurée, la clarification édulcorée. Comme le précise, Benjamin Pelletier, expert de l’interculturel : il y a de la part des français "des difficultés à passer de la production, autrement dit du savoir-faire au faire-savoir. L'efficacité technologique du produit n'implique pas forcément l'efficacité discursive. Or, les entrepreneurs ont tendance à considérer que ce deuxième aspect propre au marketing n'est qu'une enveloppe extérieure et secondaire, une sorte d'emballage par les mots et les arguments. négliger la dimension informative revient à tronquer le produit.

Le Français suppose que l’empathie avec son produit entraînera une empathie identique chez son interlocuteur". Alors que le focus doit être axé sur le problème et les attentes de son interlocuteur, qui, bien souvent ne relève pas de la même profession. Donc vulgarisez. Soyez acrobate : alliez le pragmatisme business et la dominante humaine et émotionnelle. Car pour tout entrepreneur, il s'agit aux US d'un commandement incontournable : maîtriser à la pointe le précepte du pitch. Le poujadisme artistique français n'a pas sa place sur ce pan. Ainsi, le technophile français érudit rejette bien souvent cette science et les ressorts du marketing. Il privilégie la primauté technique et fonctionnelle de son produit pour assoir son auditoire. En France, la dogmatique du marketing est fréquemment étiquetée comme pernicieuse, subsidiaire, creuse, insipide. Peut être car mal enseignée. A contrario, pour un anglo-saxon, la communication verbale et le marketing, de manière plus globale, sont des composantes indissociables de son produit. Elle a ses faveurs dans cette opération délicate d'envoûtement et son entreprise d'évangélisation.
Bon maintenant, qu’on a vilipendé Jules Ferry et ses apôtres. Que faire pendant un pitch ?
Le cadre est millimétré, le show peut commencer. Il faut faire marcher la magie : phrases mémorables, éventuel recours à un support power point affûté, scénarisé d'images. Souplesse d'adaptation, talents de mise en scène, usage de l'anecdote et des allégories permettent de donner des points de repère et des balisages à votre auditoire dès lors que vous évoquez un produit ou procédé que vous jugez disruptif. Improvisation maîtrisée et humour subtile sont également de rigueur. La "user expérience" doit être vivifiante afin que votre interlocuteur puisse se sentir associé et se projeter dans votre aventure. Comme il ne s'agit pas de rédiger un executive summary sur simple feuille A4, mais bien d'orchestrer un exercice tonique, la personnalité et la ténacité du speaker doivent faire la différence. 




En effet, l'investisseur ou le prospect seront amenés à mettre un écu sur une start up embryonnaire, un produit certes, mais surtout à parier sur un projet porté par des individus auxquels ils doivent croire. Comme un bon épisode de Mad Men, distillez à bonne dose les phrases catchy, afin de lui donner envie de mater le prochain épisode. Aficionados de Louis la Brocante et Columbo, ne pouvant se défaire du formalisme argumentatif et du besoin de dénouements à chaque fin d'épisode, passez votre chemin.

Vos interlocuteurs apprécieront un balancier et une alchimie particulière : le plus souvent; le concept "sales revenue / business model" doit être éprouvé, tandis que le produit doit avoir une certaine dimension exploratoire. Mais cherchez surtout à introduire de nouvelles "règles de grammaire" : prenez de la hauteur, vous êtes à la tête d'une rupture de paradigme dans votre domaine. Votre solution doit chercher à modifier davantage les règles du jeu de votre écosystème, que vos concurrents ne chercheront à le faire. Là est l'idée sous-jacente de créer son propre jardin et dessiner son propre cadastre. Plutôt que de subir et de devoir planter sa tente dans le jardin de vos "partenaires", sous peine de se faire virer manu-militari sans préavis et sans respect de la trêve hivernale (cf. amère expérience contemporaine du social gaming de Zynga sur Facebook).
« Houston, we got a problem… a good one”


Le plus important, il faut que l'histoire soit bonne. Une start up, par essence,  apporte une réponse à un problème qu'elle a elle-même identifié. Donc, fans de l'algèbre et de la  dramaturgie, posez votre équation. Quels problèmes ? Pourquoi on se positionne sur cette problématique ? Le problème qu'on cherche à résoudre annonce en filigrane la taille du marché potentiel et les perspectives nouvelles induites. En synthèse, si le problème est bon, le pitch peut être mémorable. De surcroît, ne vous égarez pas dans les atermoiements fonctionnels et techniques. Privilégiez une value-proposition vivifiante, le story telling sera d'autant meilleur. Il est casse-gueule de vouloir évoquer de front, le sales revenue model, le pricing, vos concurrents, l'environnement, votre écosystème, le problème posé, la composante innovante du votre produit, les perspectives de développement de la boîte, en quoi il va impacter votre écosystème. Privilégiez deux idées directrices. La puissance suggestive de votre argumentation et la curiosité attisée de votre auditoire dévoileront le reste (principe recherché de l'appel à réaction).  


Je ne touche pas de royalties, mais si vous cherchez à vous exercer au pitch sur Paris, nous collaborons avec la meilleure (au bas mot) prof californienne de coaching dans ce domaine et elle exerce également de temps en temps à la CCI de Paris dans le cadre de nos préparations de missions d'accompagnement de start up aux US organisée par la CCI Paris IDF (Rhannon McMillan, Focus4 Communications).
On parlait d'émotionnel, et pour mon plaisir perso, une séquence assez mythique où comment rendre un produit désuet en trendy en surfant sur la vague du vintage. Merci Don Draper d'illustrer mon propos empirique.

samedi 27 avril 2013

Jeff Koons VS Pigeons en recherche de financement


Jeff Koons VS Start up en recherche de financement

Pour bien comprendre le mal être des pigeons avant les assises de l’entrepreneuriat

Le Parlement français avait, jeudi 20 décembre, le projet de loi de finance 2013, qui avait fait tant couler d’encre lors du mouvement entrepreneurial dit des Pigeons. Vous savez, ce mouvement relatif aux augmentations substantielles du régime de taxation des plus-values de cession de valeurs mobilières (article 6 de de la loi de finances 2013). Et il y avait de quoi s’alarmer. Le projet de loi de finances 2013 avait en effet prévu d’augmenter la taxation des plus-values de cession des actions d’entreprises, pour l’amener au même niveau que l’imposition sur le revenu. Avec pour conséquence de faire passer de 19% à près de 60% de taux d'imposition. certains aménagements mineurs ont tenté de rendre la pilule moins amère à avaler. Cela reste indigeste dans la gorge de nos entrepreneurs. La triple-peine a été fatale à ces derniers, vecteurs de notre croissance future : taxé publiquement de MEDEF entrepreneurial sauvage (véritable fracture idéologique entre entrepreneurs et gouvernement), frappés d’un impôt confiscatoire sur leurs hypothétiques réussites entrepreneuriales et coupé de toutes sources de financement de capital risque (financement dit haut de bilan). A l’heure où les propositions issues des Assises de l’Entrepreneuriat, sorte de doléances des entrepreneurs, ont fait émerger ce 9 Avril des mesures d’aide à l’essor et soutien à l’entrepreneuriat, des hérésies structurelles de notre code fiscal subsistent.  Exemple d’illustration empirique sur les asymétries d’investissement entre investissement dans les œuvres d’art et dans les start up. 

Reprécisons les circonstances funestes de ce mouvement aussi spontané que nécessaire au regard des conséquences irrémédiables en terme de financement de notre économie entrepreneuriale. La phrase sibylline est lâchée. Souvenez-vous, Octobre 2012. Ils ont été vilipendés par l’opinion publique pour avoir été reçus illico-presto par le Gouvernement après un mouvement viral sur les réseaux sociaux, dont même Google Flu n’avait pas prévu l’ampleur de propagation. Ont été étiquetés de MEDEF du numérique pour avoir employé des méthodes dites poujadistes. Assimilés au grand patronat. Accusés d’avoir employé des benchmarks d’imposition fiscale biaisés pour exagérer leurs inquiétudes. Pour comprendre leur malaise, illustrons modestement ce mal gaulois de l’imposition fiscale par une comparaison entre investissement dans une œuvre d’art et dans une start up. 



 A l’heure où le monde du numérique soumet son cahier de doléances sur le besoin de réformer le financement de l’innovation et la nécessité de reformer les leviers incitatifs d’investissement de capital risque à leurs propres fins et ceux des Business Angel et VC, le microcosme élitiste du monde de l’art reste perméable à toute révision fiscale. Pis, le Gouvernement se voit contraint actuellement de crever tous ses bas de laine pour boucler ses budgets, en parallèle, la fiscalité des œuvres d’art reste gravée dans le marbre, acquise ad vita eternam. Le bastion Villa Médicis plus fort que Fleur Pellerin pour offrir un cadre fiscal durable à ses ressortissants ? On peut le penser.

Par définition, une œuvre d’art est statique, figée. Sa valeur et son appréciation sont légitimement sujets à contestation et subjectivité. Elle relève d’un secteur d’activité en silo fermé : il parait abscons de classer dans la nomenclature des actifs une œuvre d’art, elle ne génère pas de cash-flow régulier. Elle ne crée pas de valeur ajoutée (actif non évolutif par définition), ne procréé aucune externalité positive telles que des créations substantielles d’emplois ou une diffusion de savoir-faire sur d’autres secteurs d’activité comme peut l’être le numérique. Donc sans commune mesure comparable avec la création de 700 000 emplois nets en France du numérique stricto sensu sur un espace-temps de 15 ans. C’est dire la profondeur de champ qui éloigne ces deux dominantes d’investissement.

Par ailleurs, les incantations de fiscalité n’ont pas été jugées suffisantes par ce microcosme artiste. Ainsi, le monde de l’art insuffle artificiellement une spéculation galopante de ce marché monolithique. Il s’agit d’un marché caractérisé par le supply-driven avec une introduction très limité d’œuvres d’art de qualité. Conjuguée à une demande en augmentation (la fiscalité ultra-incitative n’y est pas étrangère), cela a pour effet de dessiner au fuseau une courbe exponentielle des prix. Alchimie explosive entre fiscalité ensorcelante, périmètre occulte d’offre limitée, spéculation envoûtante : le tour est joué, les start-up «  connectés au business réel » n’ont qu’à bien se tenir et financer leurs seed-stage sous d’autres cieux. A croire que les efforts stakhanovistes à faire bouger les lignes du financement haut de bilan n’y feront rien.





L’investisseur obéit à une discipline : il benchmarke, dissèque son couple rendement / risque et fait des arbitrages. Ainsi, comment une gouvernance étatique peut-elle continuer raisonnablement à penser qu’il faut persévérer à orienter notre corpus d’investisseurs vers les œuvres d’art plutôt que vers nos germes du numérique à effet de levier et création d’emploi démultipliés ?  La fiscalité des œuvres d’art a donc délaissé de sa quintessence : elle est devenue une valeur refuge de placement et non plus une appréciation (objective et contestée de l’art). Démonstration en quelques faits saillants.
Les œuvres d'art, quelle que soit leur nature, ne sont pas assujetties à l’ISF. Allons plus loin, elles ne sont pas mentionnées dans la déclaration ISF. Par effet de miroir, les montants consacrés à son acquisition sont donc non imposables. Vous le cherchiez, le voilà : le parfait vecteur de déplafonnement de l’ISF. De plus, le régime français de TVA permet ainsi aux artistes assujettis à la TVA de ne facturer à leurs acheteurs qu’un taux de 5,5%. La taxe sur les plus-values (nerf de la guerre de ce sujet comparatif entre œuvre d’art et financement de start up) ne va pas chercher au-delà des 5%. Il est même inexistant pour les cessions de moins de 5000€. 
Pendant, ce temps notre entrepreneur se plie à l’exercice d’elevator pitch à la recherche d’investisseurs. Il s’évertue à brosser sa « proposition value » lors de son périlleux tour de table de levée de fonds. Malgré sa virtuosité verbale et le côté disruptif de sa technologie, il n’arrive pas à capter la prunelle de ses interlocuteurs investisseurs. On peut penser que ces derniers, à juste titre au regard de ces nouvelles considérations fiscales, détournent le regard du power point de présentation pour s’attarder sur un gribouillis Velleda mal effacé sur le tableau. Ils rêvassent qu’ils le feraient bien entrer dans l’assiette des moins de 5000€, et qu’à côté de leur practice d’investissements dans les biotechs, IT soft, infras, cela vaudrait la chandelle de faire rentrer un commissaire-priseur dans leur board d’investisseurs. Pis, spéculons que notre écolier manie mieux que ça le Velleda et notre gribouillis a quelque chose de chiadé, qui pourrait excéder une valeur nominative de 5000€ ? La parade se trouve dans le code des impôts. En cas de revente de l’œuvre d’art, si le cédant dispose d’une facture, il sera taxé à la hauteur de 5% de la plus-value et sera même exonéré totalement au bout de 21 ans de détention. Et sous certaines conditions, les œuvres d'art peuvent être, en cas de succession, intégrées dans le forfait de 5 % des meubles meublants.
Avec ce durcissement fiscal des plus-values de cession, l’ensemble du périmètre global fiscal ne forme plus un ensemble cohérent pour lutter à armes égales avec nos voisins européens.  Ainsi, pendant que nos galeristes, antiquaires et autres néo-collectionneurs (qui se découvrent un béguin pour l’art aussi soudain que romanesque à la lecture du Code des Impôts) se lèchent les babines, notre investisseur venture capital pure-player en capital risque perdra en moyenne 8,5 fois sur 10 sa mise (en d’autres termes : 8 à 9 investissements perdants sur 10 start up misés). Cela n’a rien de chimérique : cette activité de venture capital en start up obéit à une logique de risque inhérent à ce domaine. Et quid sur le dixième coup dit « gagnant » ? Selon la lecture acrobatique de la loi finances 2013, il devait être taxé (avant certains aménagements modestes suite au mouvement des Pigeons alias #geonpi) à 62% de la plus-value entre mise de départ et sortie d’investissement sur le jeton de son 10ème légionnaire. Aucun intérêt dès lors. Notre couple investisseur-entrepreneur se retrouve dans la même galère. Avec la double peine pour les associés côté entrepreneurs : pénurie à faire un tour de table fructueux et plus-value fiscale confiscatoire lors de la revente de parts en tant qu’associé. Et dans ce frêle esquif, notre couple a tout intérêt à traverser sans perturbation la Manche. Boris Johnson (fantasque maire de Londres) et sa Tech City (qui fera l’objet en intégralité d’un prochain billet) les attendent à bras ouvert, pantalon retroussé, sur les rivages de Douvres. Le mal est déjà perceptible et mesurable : les investissements des business angel dans les start up françaises ont fondu de 30% au dernier trimestre 2012 (date de révision du champ fiscal des plus-values de cessions). Après trois trimestres de hausse consécutive, le coup porté est palpable.

Mais le mal le plus profond de cet épisode des Pigeons est peut-être pour le Gouvernement d'avoir tracé cette saillie et d'avoir tenté par élan populiste d'enterrer tout espoir de réconcilier le grand public non-averti et nos entrepreneurs assimilés au grand patronat et ses dérives. ces entrepreneurs pugnaces sont notre puissance créative inestimable. Offrons leur un terreau fertile de développement, repensons notre approche entrepreneuriale. préférons-nous la fuite de nos entrepreneurs et les capitaux-risques associés ou celle des plus importants propriétaires et collectionneurs spéculateurs d'oeuvres d'art hors de France. A mes yeux, les orientations voulues par Tarik Krim, Jean-David Chamborédon et consorts pour orienter la structuration du numérique ont plus de force que la Venise de Pinault. ces derniers qui connaissent bien les US n'hésitent pas à nous rappeler tristement qu'à périmètre égal et rapporté à PIB comparable, l'activité business angel en France est trente fois moins développée qu'aux US. Constat amer.

Je ne suis pas révisionniste, en rien prosélyte, je n'invente rien, je ne fais qu'observer les dynamiques d'accompagnement offertes par la Scandinavie ou Israël (objet d'un prochain billet) pour ne citer qu'eux. Du choix de nos élites à les accompagner ou les entraver, dépendra en partie notre capacité à affronter les défis sociétaux, économiques, technologiques prochains. Elle est moche et solennelle cette phrase de conclusion (je vous le concède très volontiers), mais là je ne savais pas comment m'en sortir sur ce coup là. Donc autant faire un emprunt :
"Pour sortir de la crise, mettons-nous collectivement en danger et valorisons l'idée de prise de risque à tous les niveaux de la société. Amorçons une politique courageuse, visionnaire, porteuse de choix forts et futuristes" Olivier Mathiot, co-fondateur de Priceminister

lundi 28 janvier 2013

Big Data (2/3) Ok, mais quel champ applicatif à la Big Data Analytics ?

Avec les techniques permises par le big data : puissance analytique, croisement de données hétérogènes non structurées, analyse avec une granularité la plus finie permise, mise en relief de corrélations cachées, nous assisterons à l’évolution de la manière de prodiguer des protocoles de soins. 

Nous n’étudierons plus, selon la même grille de lecture, l’étude du parcours de santé de chacun et le choix thérapeutique approprié. Ainsi, à terme, il sera dénué de sens que deux personnes souffrant d’une même pathologie reçoivent, selon un protocole de soin standard, un traitement identique et générique.  

Comme le précise Gilles Babinet : « de nombreuses avancées médicales aboutissent au même constat : les protocoles de soins sont vétustes, reposent trop sur la chimie et ne tiennent pas compte d'un environnement multifactoriel. La connaissance précise des antécédents médicaux de l'un et l'autre des patients, la connaissance des environnements dans lesquels ils évoluent et, dans un temps plus lointain, le séquençage massif des ADN vont permettre de faire des avancées en matière de qualité de soins ». Cela sera permis grâce à l’exploitation, l’analyse et la synchronisation de données cliniques et exogènes, jusqu’ici non exploitées. Le dossier médical personnalisé devra épouser, sans écart de virage, cette dynamique. 

Pas de prêche virulent, il ne s’agit pas d’être poujadiste et révisionniste sur les sciences fondamentales. Ne versons pas non plus dans l’obscurantisme et le déni. De nombreux métiers seront impactés voire refondus par la mise en relief de corrélations ou de phénomènes impalpables, qu’on pensait à ce jour comme non-impactants. Loin de là mon aspiration d’être reçu en consultation par un data scientist. Cependant, il est inéluctable que les fonctions médicales devront s’appuyer sur les possibilités d’aide à la décision offertes par la Big Data. Non pas in fine pour se limiter à un meilleur traitement curatif et optimiser l’existant. Mais bien pour explorer de nouveaux horizons préventifs : anticiper de manière prédictive de prochaines pathologies pouvant subvenir. 

 Tout cela dans un souci de faire monter en gamme les outils d’aide à la décision existants, somme toute très archaïques. Reste dès lors à baliser l’accompagnement à l’intégration de ces outils analytiques technologies dans une perspective d’aide au diagnostic curatif et préventif. Au risque d’être ostracisé, cela se confrontera, sans nul doute aux admonestations (mot compte double) de la profession médicale. On peut la supposer à l’instar des profs assez peu gourmande du reingenering de leur métier. Mais nous sommes face sans nul doute au nouveau levier de modernisation et du monde de la santé et dépenses associées.


Autre illustration, proof of concept plus contemporaine : la politique, in situ, in vivo. Moins de tracts, moins de phoning. C’est l’envers du décor. Normal il a plus essayé de refourguer à ses concitoyens ses perspectives plutôt que « Yes, I can Big Data ». On ne lui en tiendra pas rigueur. Ça aurait tâche, au regard de sa fonction, d’être élu sur sa maîtrise du traitement de données et des pratiques du Big Data. 

Anticipant le climat de morosité, d’indifférence et d’indécision de nombreux citoyens, Obama anticipait un électorat de sympathisants démocrates moins mobilisé. Il a ainsi constitué une conséquente équipe de data scientists. Cinq fois plus conséquente qu’en 2008. Un bataillon d’une centaine de data scientists au bas mot. Malgré l’émotion qu’il suscite auprès de certains quand il embrasse langoureusement Michelle, ces p’tits soldats ont clairement été une pierre décisive au sésame « four more years ». 

 
Leur fait d’armes ? Avoir constitué une giga base de données alimentée en continu, analysée et discriminée sur des attributs sociologiques, géographiques, ethniques, cercles d’influence propres à chacun, d’aversion aux démocrates, ou autres données hétérogènes non structurées. Les traitements massifs et combinaisons opérés ont permis de tester et modéliser les effets d’entraînement et cela à une échelle infinie. 

Illustration. Quel argument électoral ferait pencher une femme d’origine afro-américaine vivant dans le Missouri présentant un profil de sympathisante en 2008 et donc de donatrice potentielle. Ne restait plus qu’aux équipes d’orchestrer un programme marketing ciblé et destiné à notre bienheureuse et ses semblables pour la convertir en donatrice. Les discours larmoyants de Scarlett Johansson et autres Sean Penn se chargeaient d’apporter la touche émotionnelle de vernis glamour pour achever de les convaincre. 

Cette stratégie d’analyse de données a permis une analyse individuelle avec une granularité infime. En back up, les technologies analytiques de temps réel ont permises lors du D-Day une anticipation de l’allocation pertinente des équipes terrain sur les bureaux de vote anormalement peu mobilisés. On peut supputer que les analyses prédictives d’affluence, pouvaient être par exemple croisées dynamiquement avec des attributs de météo peu clémente (météo sensibilité) et donc « citoyennement parlant », peu incitative. 


Quand en parallèle, la stratégie Romney s’articulait désespérément sur les statiques sondages d’opinions. Amer, cinglant pour les républicains. 

Que penser de cette victoire triomphante de l’analytique. Mouvement majeur de prise compte de l’individu ? Recentrage de l’intérêt citoyen à une échelle individuelle et locale ? Nouveau modèle d’exploitation et d’expérimentation politique éprouvés et légitimités ? Manipulation de passe ou Président trendy porté sur l’hightech ? Ou plus simplement souveraineté de l’exploitation analytique. 


Trop mercantiliste à votre goût ? 

Arrêtons de conceptualiser la big data sous la seule ornière commerciale. 

Exemple philanthrope et empirique à l’appui. L’ONU écrit un nouveau chapitre dans l’analyse prédictive afin de sortir du carcan statique dans cet environnement non linéaire. Grâce à la data, l’ONU ne veut plus devenir spectateur passif d’une épidémie. Ne veut plus être tributaire de nébuleuses analyses.   

Désormais, nous n’aurons plus besoin de BHL ou de George Clooney pour nous alerter en amont sur l’imminence d’un drame humanitaire. Analyse à un niveau local de tendances, nature des interactions sur un réseau social, pic d’achat soudain de denrées alimentaires, début de flux migratoires, bouleversement politique local : le Projet Global Pulse de l’ONU a l’ambition d’analyser cela en temps réel dans une logique analytique prédictive. Comme le précise Henri Verdier (ancien président de Cap Digital, tout fraîchement nommé à la mission Etalab et PDG de MFG Labs), « la plupart des actions de l'ONU (politique économique, la gestion des crises, les opérations de maintien de la paix) ont besoin de données fiables, actionnables, et obtenues dans un délai très court. Puisque désormais l'empreinte de presque toutes les activités humaines et l’implication sociétale sont imprimées et géo-localisables dans les réseaux numériques, il devient donc très tentant d'aller chercher, dans ces données ouvertes et anonymisées, les éléments de décision dont l'organisation a besoin ».

Global Pulse se limite à apporter des éléments d’arbitrage temps réel. Ceci dans une perspective préventive à seule finalité unique de politique humanitaire (« analyse du chômage à travers les conversations dans les réseaux sociaux, prévention de crises alimentaires, suivi global de l'état sanitaire d'une population, analyse de migration de population, anticipation d’inflation de denrées alimentaires, etc »).

Nous ne pouvons que saluer ce projet. Croisons les doigts pour que ce type d’initiative analytique renvoie les « méthodologies » prédictives et les grilles de lecture d’Alain Minc et autres Jacques Attali (les Paco Rabanne de la finance, de la crise et du chômage) à leurs chères études
.
  

Autre illustration connexe, Google Flu permet quant à lui de tracker la propagation de la grippe. A contrario et sur une dimension plus marchande, on suivra attentivement le lancement de Facebook Graph Search. Nouveau mécanisme d’indexation qui s’appuiera sur les technologies du Big Data et fera écho aux requêtes de combinaisons croisées. Quel est le restaurant de tapas le plus apprécié de mes amis de moins de 30 ans habitant sur Paris.  Avec la légitimité et l’appréciation de votre cercle relationnel en prime. De quoi bouleverser sensiblement les ratios transactionnels d’acte d’achat généralement observés..

Plus d’illustration, de pragmatisme ? Cela fera l’objet d’un prochain billet Big Data à la sauce française avec la mise en relief de certaines solutions de start up françaises. En effet, une myriade de start up dans le monde essaye de se positionner sur le trend.


BIG DATA (1/3) Mais bordel c’est quoi la Big Data !

2011 a vu l’avènement de la communication M2M, de l’internet des objets ou encore de l’impression 3D. En 2012, on nous a principalement vendu le concept de BYOD (Bring Your Own Device at work pour les novices) et la… big data : discipline naissante ? buzz trendy véhiculé par éminents et respectables journalistes de la trempe de Morandini ou Pernault ? Nouveau paradigme marketing ? Adage et fantasme réservé aux data scientists ? Coup d’épée dans l’eau ou gisement majeur ? Remous balbutiants, véritable rupture ou nouvel artifice dont le fard ne tardera pas à couler ? On nous prédit une nouvelle révolution technologique comme aucune n’a atteint cette vitesse de propagation et cette amplitude "richterienne". Essayons d’y voir plus clair dans ce bouillonnant déluge informationnel. Y’a moyen que cette mouvance décape sévère.
Décryptage.
 

En quelques mots, c’est quoi la big data ?

Allez, zou, on commence. Les données s’abattent à rythme exponentiel sur les organisations. Les nouveaux systèmes d’informations, les vecteurs d’expression, les systèmes de paiement, et l’ouverture de multiples bases de données publiques et privées génèrent chaque jour des afflux soudains de milliards d’informations. De plus, chaque acteur (particulier, administration, organisation, entreprise, groupement communautaire) se fait directement producteur de nouveaux corpus d’informations non ou semi-structurés : données personnelles, applications géolocalisées (conjuguées à la dimension temporelle), conversations sur réseaux sociaux, évènements, contenus dématérialisés, photos Flickr, microblogs… Et sur le côté passif, les communications issues de la multiplicité des objets communicants numériques (internet des objets, communication M2M, capteurs, sondes, RFID) génèrent de la donnée à grande échelle.

Ok, vous avez avez toujours pas saisi la magnitude du truc ? Citons quelques faits saillants pour positionner l’ampleur de la rupture. On parle de 30 milliards de données (messages, photos) ajoutées à Facebook chaque mois par 600 millions d’utilisateurs, 32 milliards de recherches et requêtes effectuées sur ce même mois sur Twitter, plus de 2 milliards de vidéos visionnées chaque jour sur le seul canal Youtube (à ce rythme, je comprends mieux que le chanteur du Gangnam style soit aujourd’hui multi-millionaire, à une échelle d’appréciation musicale, un peu moins je dois admettre). Pas très évocateur ces chiffres isolés ? Une échelle comparative serait plus parlante ? OK. Next : Comme le rappelait Eric Schmidt (PDG de Google) en 2010, « entre les débuts de l’ère humaine et 2003, l’humanité a produit 5 exaoctets d’informations, soit 5000 petaoctets. Aujourd’hui, nous produisons autant d’information tous les deux jours ».

Pour caractériser la prouesse de la Big Data, on a pour généralement nomenclature la conjonction de 5 attributs pour simplifier la complexité analytique : la dimension triviale du volume (volumétrie exponentielle et sans précédent de data), la vitesse (la velocity définit la vitesse de collecte, de synchronisation, d’analyse en temps réel de ces corpus de données entre les systèmes) et la variété (diversification et hétérogénéité des différentes familles de formats à traiter issus de sources multiples, on va revenir là-dessus).

Merde, je ne sais plus compter sur mes doigts, là j'ai que 3 variables.... Ah oui, c'est bon. OK, on est allé chercher la data. Mais pour la résoudre, l'assaisonner, la malaxer, la représenter sur une estrade un brin plus sexy, on a besoin de nouveaux modèles pertinents de design visuel. C'est la représentation graphique multidimensionnelle sur-mesure (data visualization). Ces nouveaux modèles d'illustration visuelle créative de la donnée sont à même de faire parler les différentes sources d'informations (de nature internes, open et exogènes). Ces tableaux de bord (dashboards) analytiques et opérationnels permettent donc in fine de comprendre la data, lui donner du sens (concept de création de valeur). Et ainsi, faire tomber le rideau. Et révéler au grand jour les liens de corrélation impactants, jusqu'ici patiemment dissimulés. 3+2=5. Mon cher Laurent Romejko, le compte est bon. 

Donc, la Big Data consiste, dans une dynamique temps réel à intégrer, synchroniser, traiter et valoriser ces flux de données vertigineux. Extrêmement variés et de différentes natures. Il s’agit à terme de donner du sens à des gisements massifs de données et d’en faire ressortir la quintessence et la valeur ajoutée. Les data ne sont plus de formats dits structurés et relationnels, mais référencés comme contenus non structurés et hétérogènes (commentaires, micro-discussion, vidéos, images, sons, données de capteurs ….). Aller collecter un document posté relève d’une donnée structurée. En revanche, en comprendre le contenu, faire de la reconnaissance d’images ou d’objets, définir les variables explicatives, résoudre les subtilités sémantiques, croiser différentes sources de données relèvent d’une analyse non structurée. La nature de ces données hétérogènes ne connait aucune limite pour la Big Data.

1er commandement : où et quand a commencé le big data ? 

Okapi et Sciences et Vie Junior ne nous aideront pas sur ce coup-là. Pour une fois la pomme d’Adam et Eve, sans oublier celle de Steve Jobs n’ont pas grand-chose à voir non plus dans cette mouvance. Allez, on va essayer de vulgariser grosso modo. Faites entrer les accusés : Google a lancé le mouvement d’indexation, puis c’est devenu l’os à ronger et le diamant brut du désormais posthume cro-magnon Yahoo. Malheureusement, ce denier n’a pas eu l’habilité de la Place Vendôme pour le polir.  


Constat simple, face à quelques dizaine de téraoctets, les systèmes d’indexation existants étaient révolus. Les bases de données dites relationnelles de langage SQL (jusque-là, le standard traditionnel) ne permettaient plus de les interroger par requêtes face à ce déluge de données en croissance exponentielle. Les calculs algorithmiques n’étaient pas assez parallélisés et distribués pour garantir une puissance de calcul d’interrogation suffisante. La sémantique de la base de données dite relationnelle était dépassée. En somme, les procédés de gestion de la data étaient débordés. Cela imposait des mutations fondamentales dans l’architecture des systèmes de gestion de données. On a donc embrayé sur le système de requête de bases de données type NoSQL. Cette dernière permet un stockage de masse à plat sans requêtes. Et conjuguée aux capacités de stockage, de calcul et les autres traitements répartis sur un grand nombre de machines pour un coût (désormais dérisoire) dans le cloud (fournit de façon presque illimitée), c’est une affaire qui roule. Très scalables, les infrastructures cloud permettent ainsi de gérer n'importe quel pic de puissance de calcul. Plus aucune problématique pour dimensionner votre infrastructure. La mutualisation de serveurs pour affinent votre capacité de puissance de calcul. Avec évidemment cette agilité et les coûts inhérents de calcul propres au cloud.

Ceux qui ont opéré le putsch ne se cachent plus : les bases sont désormais orientées colonnes (Vertica), graphes (Neo4J), documents / objets structurés (MongoDB), permettent de prendre en charge des applis de données haut débit (VoltDB) ou se positionnent sur le traitement d’évènements complexes (Streambase). A cela, on greffe les framework Hadoop (système de fichiers distribués afin de faire remonter les contenus non structurés) ou l’analyse séquentielle de MapReduce pour effectuer des fameux calculs parallèles et la création d’applications sur des architectures web distribuées (c’est là qu’on retrouve nos petits : Facebook, Twitter, LinkedIn, …).
 
Avantage non négligeable, ces différentes associations permettent une montée en charge et une extension graduelle d’ordre de grandeur (traduite concrètement par le volume brusque et croissant de données à traiter) tout en maintenant des capacités de calcul égales. Là, on parle en échelle de pétaoctets de données les amis. Ouais, je sais, ça impressionne ma copine aussi quand je dis ça. Les champs applicatifs se révèlent sans limites : ciblage comportemental, analyse sémantique et naturelle, statistiques, calcul haute performance (HPC), linguistique, … 


« Ok, c’est cool ton truc, un brin soporifique, mais concrètement, ça sert à quoi ? » (j’essaie de prendre l’intonation de voix de Fred et Jamy de « C’est pas sorcier » pour rendre le propos plus interactif).
 Exemple avec le marketing, pour lequel la Big Data fera office de chevalier blanc dans les futurs process de decision making.

On détecte de suite l’intérêt du marketing à s’approprier la Data Analytics : analyser des données comportementales, mieux comprendre son consommateur, faire émerger des e-sentiments, structurer et analyser des verbatims, prédire des attentes, anticiper les tendances majeures afin d’optimiser des ventes physiques en retail, maximiser la pertinence de publicités en ligne ou campagnes marketing. 
Ainsi, le marketing est une fonction désormais sévèrement challengée. Fini l’instinct et l’intuition précaires de prises de décision. Ses process de décision making un brin archaïques pour mieux connaître ses clients, devront s’adapter aux possibilités offertes par la Data Analytics. Le métier du marketing devra incontestablement se recycler pour converger vers des fonctions de data scientist ou data analyst.  


Aujourd’hui, les actions marketing aujourd’hui s’appuient en grande majorité sur des ressorts automatisés de pifomètre rudimentaire, d’instinct, ou d’intuition. La discipline (mécanique) marketing du retail, s’appuie majoritairement sur des logiques de moyenne, d’échantillons et de segments. Somme toute assez réductrice. Les grilles de lecture et les œillères calées sur une logique d’analyse par gamme, canal et silos (entrepôts de de données sédimentés) ne sont plus adaptées. Les effets conjugués de flux de données externes impactantes et la complexité à les synchroniser en temps réel, échappent complètement au data mining et à la business intelligence traditionnels. 

La Big Data Analytics rebattra les cartes du marketing. Lui permettra de changer de métrique pour s’attaquer au concept de granularité temps réel d’analyses prédictives. Ainsi, il est crucial de rappeler que la valeur ajoutée de la data dépend de la capacité de chaque organisation à être en mesure d’indexer et d’analyser en temps réel la data au regard de ses attributs de péremption (temps réel, géolocalisation).

Même la data a une date limite de consommation, antinomique avec des décisions marketing linéaires et génériques. La donnée est mutante, temps réel, comportementale, changeante, vivante. Elle n’a rien de défensive. Le consommateur est force de proposition : il modifie en temps réel la substantifique moelle de la donnée. L’extrême personnification de l’expérience client est en marche. Ainsi, la notion de granularité (en retail surtout) conférera à chaque point de vente un caractère local et particulier. Renforçant par là son autonomie et sa capacité de prise de décision, en prenant compte un champ contextuel qui lui est propre. Le contextuel alimenté en temps réel par des sources de données propres, montera en puissance. La Big Data contemporaine permettra de mieux connaitre en temps réel ses consommateurs. Permettra une interaction personnalisée.

Dès lors, force est de constater que les campagnes génériques trans-territoriales n’auront bientôt plus de sens. Nous verserons, à contrario vers les concepts de de micro-décisions opérationnelles. Le cycle analytique émerge : le marketing s’appuyait auparavant sur les analyses de vente, puis s’est intéressé à l’analyse comportementale armé de ses outils rudimentaires, naviguant à vue, bon pied, bon oeil, tel un Collin-Maillard. Désormais, les environnements techniques matures sont à disposition. Cette révolution de la productivité permettra d’amorcer la pompe de la modélisation comportementale ou encore du process de machine-learning. Ces mutations créent de nombreuses opportunités et usages dont tous les secteurs peuvent bénéficier. La puissance analytique bouleversera les méthodologies d’analyse et les problématiques métiers. Mettra en relief les corrélations statistiques cachées. Armé de cette nouvelle puissance analytique, la data prendra le pas sur le décisionnel arbitraire. Le taux d’attrition aura un nouvel ennemi identifié.

La donnée fiable et fraîche est exposée en étale. Reste aux organisations à l’exploiter avant que celle-ci ne soit faisandée. Cependant, toute organisation devra acquérir une philosophie de donnée, en comprendre les variations et en apprécier son périmètre local afin de mieux capter les tendances prédictives. C’est là que réside la notion de valeur de la data, d’accès croisé à l’information. Et qu’émergent les usages, formidables vecteurs de croissance.

En résumé, dans le paysage du maketing, la Big Data grâce à sa puissance analytique, ne se limitera pas à vérifier et corroborer une intuition (dite « boussole Collin Maillard ») mais deviendra le premier ressort d’aide à la décision et de décryptage des bases de données comportementales. Ne reste plus qu’à engager en interne le dialogue des usages. Le marketing connaîtra désormais l’ensemble de données qui impacteront le comportement d’achat de ses individus, grâce aux connecteurs de données exogènes, jusqu’ici minorées. Les grandes théories du marketing en pâtisseront.  


La profession en vogue et trendy c’est le job de data scientist, le métier le plus sexy et convoité de ces prochaines années.

On parle ici d’une nouvelle révolution technologique et d’un avènement de nouveaux champs applicatifs, qui nécessitent a fortiori de nouvelles fonctions.

 Autrefois cantonnée aux seules fonctions de business analysts ou d’informaticiens infrastructures, la manipulation de la donnée est désormais l’affaire de data scientists. Ces spécialistes de l’interprétation données sont amenés à jouer une partition vitale dans la définition des stratégies analytiques des organisations. 

Ainsi, nous assistons à un décloisonnement de la discipline de l’architecture, de l’analyse et de la représentation de la donnée. Cela nécessite une compréhension multi disciplinaire. Appréhender les enjeux holistiques et sociologiques. Revêtir simultanément le costume d’architecte, d’analyste et de programmateur algorithmique. 
Sans omettre la composante essentielle de la représentation visuelle. 

Mais en dépit d’environnements techniques fiables, la machine française est mal calibrée. Elle manque de charbon pour exprimer son potentiel analytique. Nous sommes spectateurs d’une pénurie et d’une carence cruelle de data scientists ayant une connaissance métiers, la demande devenant exponentielle. Mc Kinsey évalue à 1,5 million, le nombre de nouveaux emplois devant être créés autour de l’analytique et de manipulation multidimensionnelle. Avec en France, un besoin de 200 000 data scientists d’ici 5 ans. Nous possédons en France des formations qui excellent mondialement dans le domaine de la statistique et des traitements algorithmiques. Ces écoles n’offrent aucun cursus dédié qui puisse combiner analyse, développement algorithmique, statistique et design visuel. Aucun mastère autour d’Hadoop ou des bases NoSQL n’est enseigné à l’ENSAE, l’ENSAI et l'ISUP. 

Le manque latent avait pourtant était identifié. 


« Lorsque j’étais président du Conseil National du Numérique, j’ai voulu réunir six écoles de différentes natures autour d’une chaire consacrée au big data. Mais je n’y suis pas parvenu », témoigne Gilles Babinet. 
 Mal symptomatique gaulois : distorsion entre programme dispensé et le besoin des compétences identifiées en amont par les entreprises. 
Ainsi, la sphère académique, malgré ses atouts, n’a pas su anticiper le besoin de spécialistes qui savent manipuler l’information et jongler avec les index. De nombreux industriels déplorent cette pénurie. Le pipe de data scientists est à sec. Florian Douetteau, fondateur de Dataiku, société spécialisée dans les traitements big data, va dans le même sens : « Si, en France, nous excellons dans les domaines théoriques comme l’algèbre ou l’analyse, la statistique, elle, intervient trop tard dans les cycles universitaires. A la différence des Etats-Unis où elle est enseignée de manière très pratique, et ce dès le début des cursus ». 

Le tryptique entrepreneur - académique - sphère politique est nouvelle fois sévèrement amoché. As usual, les industriels ont attisé la dynamique. Posé les jalons. Développé de nouveaux environnements techniques et mis en exergue le potentiel de cette révolution numérique. Mais se retrouvent délaisser de ressources académiques et de compétences appropriées. 

Quant aux pouvoirs publics, reste à lui faire prendre conscience des enjeux sans limite de la data. Le numérique français dispose des potentiels académiques, entrepreneuriaux, créatifs pour se tailler une place de choix dans les applications analytiques et forer le nouvel or noir. Mais se heurte à la structuration de sa filière. Et à l’aversion de la sphère politico-académique à appréhender l’ampleur sans limites de ces enjeux. La convergence d’intérêts du tryptique est nécessaire. Vœu pieux ?



Les technologies analytiques prédictives ne sont pas péjoratives. Hier se posait la question des problématiques techniques, aujourd’hui celle des usages. Approprions-nous aujourd’hui ces champs et spectres d’application jusqu’ici insoupçonnés, concourant à la réduction de dépenses : machine-learning et intelligence artificielle des réseaux énergétiques, refonte des nouveaux protocoles de soins, avènement des processus de soins personnalisés, accélération de la recherche sur le cancer, nouveaux outils d’aide à la décision et collaboration pluridisciplinaire autour d’un diagnostic médical, organisation du trafic citadin en temps réel … La Big Data est mature et démocratisée. L’algorithmique parallèle et les connecteurs (permettant d’aller chercher et de synchroniser la data) sont dans les starting blocks. Arrêtons de limiter et de confier une nouvelle fois les nouveaux modèles de simulation analytique temps réel et prédictive aux seuls acteurs financiers et bancaires.