jeudi 3 avril 2014

Raphaël Guilleminot, design manager au sein d’Enigma.io, startup de NYC de l’open data

Le parcours aux US de Raphaël Guilleminot, design manager au sein d’Enigma.io, startup new-yorkaise opérant dans l’open data 


Il évoque pour nous sa perception très particulière de l’open data, la genèse d’Enigma, leurs travaux dans l’open data, la création de valeur dans la donnée publique, son parcours de designer, la Silicon Alley et l’importance toute particulière de la composante design produit aux US.

Interview 360° !

Echange avec Matthias FILLE, conseiller IT / TMT à la CCI de Paris


Raphaël, je te laisse te présenter en quelques mots
Je suis né en France mais y ai très peu vécu. J’ai effectué mon parcours dans le design industriel et interactif successivement au Canada, au Japon en Suède. Donc à vrai dire, je n’ai jamais travaillé en France. Puis, j’ai rencontré l’un des « futurs » co-fondateurs[1] d’Enimga.io au lycée en France. Quant à l’autre co-fondateur, Marc Da Costa, j’ai fait sa connaissance à Columbia.
A l’époque où je les ai rencontrés, ils avaient commencé le concept et le prototypage d’Enigma.io. De surcroît, ils étaient intéressés à intégrer une expertise et une composante de design. C’est là que j’ai intégré l’équipe d’Enigma.io en phase très embryonnaire du projet.

Comment a émergé le concept d’Enigma ?
L’idée d’Enigma leur est venue en parcourant l’article d’une personne qui avait découvert avant tous les analystes politiques, qu’à la surprise générale, Sarah Palin serait nommée en colistière de John Mc Cain à l’élection présidentielle de 2008. Pour cela, il avait consolidé et croisé des data sets publics (donc à la portée de tous) d’enregistrement de possession d’avions, de donateurs républicains. Il avait par la suite établi des corrélations d’appartenance ou d’influence entre eux. Cette personne s’est ainsi rendu compte avant tout le monde que ces derniers affluaient simultanément vers Wasilla, en Alaska, (fief de Sarah Palin). Ainsi, cet exemple symptomatique souligne l’ambition et la proposition de valeur d’Enigma à vouloir démystifier l’open data (qui est à ce jour trop énigmatique et « indigeste »), en créant de l’usage, de la valeur et de la contextualisation à partir de ces données publiques.

Comment se présente la solution ?
Nous proposons une plate-forme de recherche, de découverte et d’approvisionnement de données publiques fournies par le gouvernement, des entreprises privées et autres organisations que nous jugeons pertinentes. Notre outil permet de trouver des faits et des liens cachés à travers des sources de données disparates et cloisonnées. L’intelligence de notre plate-forme est de vous fournir la data et de l’intelligence à laquelle vous n’étiez pas « prédisposé ».
Par exemple, sur un sujet qui vous intéresse, nous ne nous cantonnons pas à vous fournir les data directement liés au sujet. Nous vous approvisionnons également avec les datas qui ont un impact sur votre sujet d’étude mais auquel vous n’aviez pensé ou pas découvert la corrélation et l’impact d’influence. Nous sommes ainsi très positionnés sur les données qualitatives et la contextualisation. Notre solution est en mesure de s’appuyer par exemple sur des réseaux d’entité, des réseaux de filiales, de connexions contractuelles ou d’influence entre opérateurs. La contextualisation est la philosophie de l’open data chez Enigma.

A quel problème de l’open data Enigma cherche-t-il à répondre ?
Le problème inhérent aux données publiques est qu’elles sont publiées par le gouvernement américain, des services décentralisés ou des agences marketing de manière indépendante et atomisée. Du coup, il est complexe de centraliser ces données et de déterminer son usage et son intérêt. Par ailleurs, les données publiques navigant sur Internet ne sont pas facilement identifiables et unifiées en tant que telles puisque disséminées. En soi, les données publiques n’ont pas beaucoup de valeur. C’est justement là que nous intervenons en tant que levier de création de valeur à partir de ces données.

Comment allez-vous crawler ces données ?
Nous collectons les données de différente manière. La première est d’implémenter des crawlers[2] adossés à des domaines et portails gouvernementaux d’open data dédiés pour aller chercher et indexer les données mises à disposition. Deuxièmes, lorsqu’il s’agit de cibles et d’agences très particulières, qui nous intéressent, sur des thématiques affinées, nous allons chercher nous-mêmes la donnée. Et avec le volet coercitif pour les agences de se conformer au Freedom of Information Act[3], nous avons la possibilité d’effectuer des requêtes auprès d’agences gouvernementales pour obtenir de nouvelles sources de données. Elles ont ainsi le devoir de libérer la donnée. Elles n’ont en revanche pas d’exigence de délai et peuvent demander des coûts de publication auprès des demandeurs. Elles peuvent ainsi nous publier sous n’importe quel format ! Donc, on se heurte aussi à une bureaucratie assez lourde sur ce deuxième mode opératoire. Troisièmement, notre méta moteur se charge de regrouper des données disséminées sur internet difficilement identifiables et consolidables.

A quelle clientèle Enigma s’adresse-t-il ? Quels industries et verticaux en particulier ?
Nous collaborons avec de grosses entités de consulting, de crédit, d’assurance, de banques et  hedge funds. Ils cherchent à étoffer leurs analyses, élaborer de nouveaux indicateurs connexes, améliorer leurs leviers décisionnels, faire de nouvelles projections avec des modèles plus élaborés via de nouveaux jeux de données. Par exemple, des banques auront recours à nos services pour améliorer leurs algorithmes qui déterminent la solvabilité de leurs clients. Cette partie « gros clients » nous demandent particulièrement d’efforts étant donné que nous sommes partie prenante dans la recherche des datas. Par ailleurs, nous avons une autre catégorie de clientèle professionnelle qui, elle, souscrit à un abonnement pour avoir accès à notre plate-forme d’outil de recherche de la donnée et de représentation.
De surcroît, notre API[4] fournit une infrastructure dédiée et accessible aux développeurs et professionnels. Ils peuvent ainsi intégrer nos corpus de data en temps réel à grande échelle afin d’étoffer leurs applications tierces, services analytiques et tableaux de bord.

Je me souviens que le Président Obama « himself » (et oui !) avait retweeté vos travaux d’open data sur le shutdown[5] en Octobre 2013 (pour mettre la pression sur le vote du budget et montrer l’ampleur de l’inertie). Sur quels autres types de projets travaillez-vous actuellement ?
Ouais, on était assez fiers de cela !
Nous avons récemment travaillé sur un projet d’import-export avec les douanes américaines qui recensent l’ensemble des containers et leurs contenus partant et arrivant aux Etats-Unis. Chaque semaine, ils nous envoient un CD de jeux de données (on a d’ailleurs dû se racheter un lecteur CD pour l’occasion !). On peut par exemple déterminer le nombre de nouvelles Lamborghini sur le sol américain. Et à partir de là extrapoler très simplement sur l’évolution de la consommation intérieure ou l’évolution du nombre de millionnaires aux Etats-Unis par exemple, avec toujours en sus notre savoir-faire d’enrichissement et contextualisation.

Vous venez de lever à nouveau des fonds. Quels changements et orientations structurels cela va-t-il apporter ?
Nous avons en effet levé fin Janvier 2014 (en série A) 4,5 M$ auprès de Comcast Ventures avec des participations d’American Express Ventures, Crosslink Capital et New York Times Company. Toutes ces participations reflètent la transversalité des applications d’Enigma (transparence, journalisme, banque, …). Pour rappel, nous avions également levé 1,1 M$ auparavant en seed funding début 2013. Par ailleurs, nous allons prochainement annoncer que l’accès à notre plate-forme et recherche de données sera gratuit ! C’est quelque chose que nous avions en tête dès le départ dans notre milestone.
Mais l’intégrer dès le départ aurait été trop couteux. Cela marque un tournant majeur dans notre stratégie et la montée en puissance de notre projet. L’idée derrière cela est de démocratiser notre plate-forme, de démontrer notre scalabilité et proposer davantage de services premium et d’outils analytiques. Ainsi, la combinatoire de ces deux éléments va nous permettre d’adresser de gros clients et poursuivre nos travaux sur les réseaux d’entités en web sémantique. Car je le répète, c’est notre philosophie de l’open data !

Comment compares-tu l’écosystème de l’open data entre la France et les Etats-Unis ?
Tout d’abord, je salue le travail qu’entreprend Henri Verdier[6] à Etalab. C'est un mec extra.
Je trouve que son agence fait un travail remarquable pour libérer et inciter les pouvoirs publics et les ministères à libérer la donnée. Il a donné à Etalab un vrai second souffle. Car pour opérer dans l’open data, il est inconcevable et impossible pour une entreprise privée d’inciter les pouvoirs publics à libérer la donnée sans le travail d’évangélisation et de sensibilisation d’une agence comme d’Etalab. Pour faire émerger un écosystème vertueux de l’open data, il faut que la dynamique soit insufflée au niveau des pouvoirs publics, ce que fait remarquablement bien Etalab. Aux Etats-Unis, le mouvement s’est accéléré sous la bannière du Freedom of Information Act et de l’Open Government Initative[7] de l’Administration Obama. Le Freedom of Information Act relève d’un volet législatif qui stimule certes l’open data, mais qui dépasse plus largement ce périmètre. Cela découle de la culture historique de la transparence aux Etats-Unis, et cela même auprès d’opérateurs privés. Aux Etats-Unis, la libéralisation des données publiques est un axe central. Cette conjonction permet de faire émerger un écosystème et une économie autour des applications et des usages. Aussi, la France est très stricte sur l’anonymisation et la mention de noms privés adossés aux jeux de données. A contrario, je pourrais vous dire très facilement, via le Gouvernement de New York, de combien de propriétés immobilières Robert de Niro dispose à New York.

En tant que designer d’Enigma, quel regard croisé transatlantique portes-tu sur le design interactif quand on connait la primauté du marketing et du design aux Etats-Unis dans la composante produit ?
Les français sont bons en design. Et plus particulièrement en graphisme ce qui n’est pas tout à fait la même chose. Ainsi, je pense que trop de talents français se prédestinent vers le design industriel ou le graphisme, par exemple dans le domaine publicitaire et industriel. Il manque à la France une culture plus prononcée de l’interaction design[8], qui est une discipline très imprégnée et très enseignée aux Etats-Unis. En effet, j’estime que le plus gros obstacle à la compréhension et à la démocratisation des données, par le public, est lié à la difficulté à faire ressortir des cas d’usages et d’applications.
Ainsi, le design interactif a émergé car nous étions jusqu’ici limités par les possibilités techniques très réduites de l’infographie et de la visualisation classique. Par exemple, on ne pouvait mettre en relief qu’un seul sujet d’étude. Or, le design interactif permet justement de rendre les outils de recherche accessibles et d’offrir un cadre de contextualisation.

De France, nous avons l’impression que la Silicon Alley[9] prend sa revanche sur la Californie en ce qui concerne l’entrepreneuriat numérique. Ton sentiment ?
En effet, New York explose actuellement au regard du nombre de startup. La Silicon Alley est un écosystème très vivifiant. Par rapport à la Californie, j’estime que les business model des start up de New York sont dans une certaine mesure, peut-être moins nombreux, mais plus « sérieux » et réalisables. Par ailleurs, les startup de New York sont positionnées, pour la très grande majorité, sur le créneau du B2B a contrario de la Silicon Valley. Elles sont également très portées sur le design interactif. On peut expliquer cet aspect par l’historique de l’industrie de la publication et des médias de New York. De surcroît, les Venture Capital locaux sont « moins » spéculatifs et préfèrent se positionner sur des business model plus « sérieux » par comparaison avec la Silicon Valley

Pour conclure, peux-tu me souligner quelques startup que tu apprécies?
Niveau français, j’appréciais beaucoup Everpix[10] (soutenu par Index Ventures) que je considérais comme le meilleur service de stockage de photos dans le cloud via n’importe quel terminal. Mais, ils ont malheureusement du stopper leur activité fin 2013 faute de financements suffisants. Everpix n’a pas eu le temps d’atteindre sa masse critique monétisable. Côté américains, je suis admiratif de Zendesk[11] (qui n’est plus une startup et fondé par des danois je crois !) au regard de l’excellence du niveau produit qu’ils ont atteint. Même chose pour GitHub[12], qui a réussi à rendre accessible à tout à chacun la publication de codes et la construction d’applications (par essence très compliqué).

Merci à toi Raphaël, à 1 de ces 4 sur NYC !

Pour en savoir plus :




[1] Hicham Oudghiri
[2] Robots d’indexation conçus pour collecter des ressources
[3] Le Freedom of Information Act est une loi américaine de 1966. Fondée sur le principe de la liberté d'information, elle oblige les agences fédérales à transmettre leurs documents, à quiconque en fait la demande
[4] Une Interface de programmation (API) est un protocole de communication temps réel par lequel un logiciel offre des services à d’autres logiciels comme la mise à disposition et l’actualisation de données en temps réel
[5] Mésentente parlementaire sur le budget 2014 qui a entraîné durant quelques semaines l’arrêt du financement des agences gouvernementales
[6] Henri Verdier, co-fondateur de MFG Labs (racheté depuis Havas) et ancien Président du pôle de Compétitivité Digital est depuis Janvier 2013, Directeur d’Etalab (service du Premier ministre français, chargé de créer un « portail unique interministériel des données publiques » françaises)
[7] Cette « initiative » vise à créer un niveau sans précédent de transparence et d'ouverture du gouvernement dans la tendance de l'open source governance et de l’open data, pour permettre à tout citoyen et entreprise intéressés de contribuer à créer les contenus de la politique
[8] Design numérique des systèmes interactifs
[9] La Silicon Alley est un pendant de la Silicon Valley, située en plein cœur de Manhattan. Elle est une technopole concentrant des startup spécialisées dans Internet, les médias, l'édition, la publicité
[10] Everpix a été créé en août 2011 par deux français, Pierre-Olivier Latour, ancien de chez Apple et fondateur de Quartz Composer, et Kevin Quennesson
[11] Zendesk propose aux entreprises les outils nécessaires leur permettant d'établir un service de support auprès de leurs utilisateurs
[12] GitHub est un service web d'hébergement et de gestion de développement de logiciels, utilisant le programme Git

Le parcours aux US d’Alex Winter, entrepreneur de l’analytique à NYC et CEO de Placemeter


Echange avec Alex Winter, CEO de Placemeter (New-York)

Il évoque pour nous l’écosystème de l’analytique, son parcours, la Silicon Alley et son expérience de l’accélérateur TechStar. Il partage avec nous également sa position sur les initiatives de soutien et de fertilisation des écosystèmes aux US et en France. 

Interview 360° !

Echange avec Matthias FILLE, conseiller IT / TMT à la CCI de Paris
Alex, je te laisse te présenter en quelques mots

J'étais initialement chercheur en reconnaissance d'images et vision robotique a l'INRIA.
Et si on remonte encore plus loin, j'ai aussi passé un an dans la conception de systèmes de vision pour l'aéronautique au sein d'Aérospatiale, aujourd'hui EADS. Nous nous sommes rencontré entre co-fondateurs à l’INRIA en collaborant sur l’indexation d’images, pour ce qui allait devenir LTU Technologies. LTU Technologies est donc une spin-off de l’INRIA, positionnée sur les technologies d’indexation, de reconnaissance et de recherche visuelle. Nous avons démarré de Paris en 1999. Ça s’est enchaîné avec une levée de fonds en 2000 avec Mars Capital. Assez rapidement, après avoir essayé pas mal de business models, nous nous sommes axés sur le law enforcement (cyber criminalité, applications dédiées à l’investigation policière, vol d’objets d’art, enquête pédopornographiques, …). A partir de là nous avons commencé à vendre sur les Etats-Unis.

Justement, tu peux revenir sur les grands milestones de LTU technologies aux Etats-Unis… ?

En tant que Directeur Technique, je suis parti en 2003 monter le bureau car 80% de notre chiffre d’affaires y était généré (Secret Service, Department of Defense, FBI, différentes agences de renseignement, douanes américaines…). Au regard de ce vertical qu’on adressait, on s’est très logiquement installé à Washington DC. J’ai ainsi constitué l’équipe US de LTU et j’ai continué en parallèle à diriger l’équipe technique (basée en France) des US (donc beaucoup d’allers retours !). Puis, nous avons vendu l’entreprise en 2005 à Jastec[1]. Nous avons par la suite décidé de déménager l’antenne sur New York, car nous avons généré moins de business avec les agences gouvernementales (pour des raisons exogènes) et surtout afin accélérer notre essor avec des entreprises de marketing, d’advertising et de média. Dès lors, nous avons « dupliqué » et « repackagé » notre technologie de reconnaissance d’images pour être en adéquation avec les problématiques de ce secteur. Puis, la majeure croissance du business venait désormais de ce secteur et du bassin New Yorkais.

…puis tu quittes LTU Technologies pour lancer Placemeter…

J’ai quitté LTU Technologies en 2011. En très bons termes je précise ! J’avais simplement l’intention de redémarrer une expérience « from scratch ». Fin 2011, je suis parti sans idée, d’une page blanche, à faire des analyses, regarder les tendances, observer le marché. Puis, j’ai commencé à plancher sur des technologies de géolocalisation indoor. Alors que je travaillais sur des prototypes, au même moment, Google se lançait massivement sur le créneau. Donc j’ai vite abandonné ! Puis, je suis revenu à l’idée originelle que j’avais depuis longtemps qui était de mesurer les flux de personnes et la manière dont les individus interagissent avec la ville. Cette problématique sociétale est un défi planétaire : les villes sont de plus en plus denses, conjugué à de plus en plus de flux urbains entrants. A titre empirique, 300 millions d’habitants vont emménager en mégalopole lors des 10 prochaines années en Chine. Donc l’idée de Placemeter est née de cette rupture de paradigme concernant les flux urbains et l’interaction homme-ville. Dès lors, j’ai planché sur des technologies de mesure et détection. Et ce qui faisait le plus de sens, s’avérait être la reconnaissance d’images. Ça tombe bien, c’est mon domaine d’expertise ! Puis j’ai rencontré mon associé sur NYC.
Florent Peyre, avec un joli track record : il a travaillé dans la M&A aux US pour le compte de Lagardère. Il est entré ensuite en tant qu’employé « n°5 » chez Gilt City[2], donc au tout début de cette aventure (ils sont passés très rapidement à 200 employés, 100M€ de CA). Quand la boîte est devenue grosse et qu’elle a été intégrée par Gilt Group, il a décidé à mon instar de lever les voiles. Puis, il a créé une boîte de réseau social de voyages, soutenu par les VC Lerer Ventures (excusez du peu !), mais qui n’a pas décollé.  Un ami commun, Matt Turck[3] nous a présentés. Florent et moi avons ainsi commencé à plancher ensemble sur le sujet Placemeter en Octobre 2012. C’était parti !

C’est quoi la value proposition et la dimension disruptive de Placemeter ?

Il faut savoir que sur ce domaine, il y a beaucoup d’autres acteurs, mais notre élément différentiant repose sur la manière dont on mesure la donnée. Les acteurs typiques de ce domaine-là vendent aux retailers des capteurs pour appréhender ce qui se passe dans leurs magasins. A partir de là, le retailer installe sa caméra, et à fortiori la donnée qui en découle lui appartient.
L’approche de Placemeter est sensiblement différente : on construit une couche de données qui a des informations sur tous les endroits, car nous voulons être propriétaires de la donnée. Ainsi, on ne fabrique pas de capteurs et de hardware. Notre solution et notre application s’intègrent et analysent des flux vidéo d’un parc de caméras existantes.  Nos algorithmes travaillent sur ces flux. Puis nous sommes en mesure de fournir à nos clients de l’intelligence, de l’analyse et de la data en temps réel sur les flux de personnes dans les espaces concernés.
Par la mise en place de partenariats avec les municipalités et compagnies de sécurité (ayant déjà leur parc de caméras), on en retire un avantage évident de scalabilité. Notre plate-forme collaborative de contribution de flux est large : cela va du simple individu (via son terminal ou des caméras reliées au wi-fi) aux acteurs municipaux (trafic, civil, vidéosurveillance) en passant par des compagnies privées et de sécurité (parc de caméras en propre). Placemeter n’est pas une entreprise de vidéosurveillance. Nous sommes force de contribution sur le domaine de la ville intelligente du futur, en mode crowdsourcing, et dont la solution passe par de l’analyse de flux vidéos existants. L’idée derrière cela, est d’indexer le monde physique et la manière dont les individus interagissent avec leur ville en temps réel. Nous proposons ainsi notre outil d’analytics à des retailers, des municipalités ou des acteurs qui conçoivent des applications dites « life style » qui cherchent à faciliter l’accès et l’interaction à ta ville. 

Au Printemps 2012, Placemeter a participé au Techstars[4] de NYC. Déjà comment ? Et en quoi ce programme a challengé et fait progresser Placemeter ?

Matt Turck nous a conseillé de rentrer dans ce programme d’accélération de startup du Techstars de NYC. Nous avons candidaté, sans plus de convictions. Sans présomption, je me confortais sur le fait que j’avais déjà monté et fait décoller une boîte dans ce domaine aux US ! Nous avons été retenu et là je n’ai plus fait la fine bouche à m’investir, au regard du degré de sélection des projets (1700 candidatures en provenance de 66 pays et 11 heureux élus) ! L’expérience fut exceptionnelle ! Figure-toi que je n’ai toujours pas réussi à décrypter la recette magique de Techstars et cette alchimie si particulière ! Au Techstars, pas de cours magistraux, pas de méthodologie particulière délivrée.
En revanche, tu évolues dans un environnement d’une telle pression avec des attentes extrêmement élevées. Ces composantes te poussent à te démener. De surcroît, tu côtoies des sommités, des pontes du milieu que tu as toujours rêvé de rencontrer, qui échangent avec toi, te délivrent du feedback. La compétition « officieuse » et la pression entre lauréats te poussent quotidiennement à te surpasser. Au risque de me répéter, cet environnement est exceptionnel ! Avec du recul, c’est vraiment à la suite de ce programme que nous avons fait décoller la boîte. Nous avons d’ailleurs récemment conclu notre 1er tour de table de levée de fonds.

Justement, où en est Placemeter à ce stade ?

Nous sommes maintenant 6 personnes auxquelles s’ajoutent 2 recrutements en cours. Une levée de fonds bouclée, comme je te le précisais. Actuellement on construit le système de maillage afin de couvrir intégralement New York d’ici 2 mois. Notre application est disponible sur les app afin de densifier notre plate-forme de contributions. Notre application va couvrir les 100 endroits les plus « busy » de New York : Shake Shack, Trader’s Joe, etc…

Avec du recul, sur quelles composantes as-tu progressé en tant qu’entrepreneur aux US ?

Sans surprise, j’ai appris sur les aspects de design et de packaging de solution. Autre chose, la différence fondamentale est qu’aux US, on apprend à vendre avant de fabriquer. Il est primordial de bien affiner sa proposition de valeur avant de concevoir son produit. Autre aspect. Au niveau technique, de la France, on a une image d’Epinal assez emphatique comme quoi les américains ne sont pas forcément de bons techniques, de bons développeurs, que les Français sont bien meilleurs. Ma vision sur ce sujet est qu’en France on a un gros peloton de très bons développeurs de classe A - / B +. Aux US, il existe une classe de développeurs exceptionnellement bons et ensuite une grosse classe relativement moyenne. Cette première classe n’émerge pas directement des Universités mais bien des « écoles » GAFA (Google, Apple, Facebook, Amazon). Ces entreprises ont une culture de l’excellence technique qu’on ne trouve nulle part ailleurs. Nulle par ailleurs je dis !

De France, on a une perception que NYC est devenue « the place to be » pour les start up, que l’environnement de la Silicon Alley est hyper stimulant, bien soutenu par la municipalité Bloomberg, ton sentiment ?

New York est passé en quelques années de la 4ème / 3ème place en ce qui concerne l’investissement dans les start up au 2ème rang. Loin devant Boston. La croissance et la profusion de start up à NYC est exponentielle, NYC est devenue très « tech-friendly ». Je vois des entrepreneurs débarquer chaque semaine, dont beaucoup de français d’ailleurs. Quelles raisons à cela ? Au-delà des initiatives entreprises par le maire Bloomberg et par la municipalité (difficilement mesurables mais qui ont facilité le processus), je pense qu’il faut chercher les facteurs explicatifs du succès de NYC autre part. Pour créer un écosystème numérique vertueux pour les start up, il te faut trois éléments combinatoires : du talent, des investisseurs et un environnement social et collaboratif (en d’autres termes une culture sociale dans l’écosystème). New York revêt tous ces ingrédients. Les talents sont venus suite à la crise de 2008, où tout d’un coup, 600 000 personnes ultra qualifiées se sont retrouvées sur le carreau. Beaucoup se sont tournés naturellement vers l’entrepreneuriat et les start up. Pour ce qui relève du financement, à l’époque, des structures comme le Huffington Post (comme la « Mafia PayPal[5] ») ont investi dans une myriade de start up qui sont devenus de vrais succès. Pour finir,  New York a un tissu social très dense, les leviers d’introduction sont très faciles. Ces 3 ingrédients font que NYC est devenue une forte place des start up.
Par effet de miroir, et pour évoquer Paris, cela peut marcher : il faut accentuer le levier du tissu social afin qu’il devienne plus actif et impactant. On n’a pas forcément besoin d’un coup de boost significatif des pouvoirs publics pour faire émerger un écosystème vertueux. Exemple : Boulder au Colorado, d’où a émergé le Techstars, en est le meilleur exemple. Boulder, historiquement ville de hippies, n’était pas du tout « tech-friendly » de prime à bord. Pour autant, il y a 6 fois plus de startup par habitant que la moyenne nationale. San Jose en Silicon Valley, par comparaison, c’est 3 fois.

Selon toi, quelles types d’initiatives de soutien de la part des pouvoirs publics a-t-on besoin en France pour stimuler cet écosystème du Big Data et de l’Analytics ?

Au niveau des tendances technologiques, le discours ambiant a toujours tendance à vouloir sectorialiser la chose : hier, on parlait d’usage de BYOD[6], aujourd’hui de Big Data et d’IoT[7], et après ça sera naturellement autre chose. Je pense humblement que les pouvoirs publics ne doivent pas faire de focus trop appuyé, marqué et distinctif sur chacun de ces secteurs. Déjà car ça bouge vite et ils n’auront jamais cette agilité pour s’adapter et anticiper de nouvelles tendances. Ce qui compte c’est de soutenir de bons entrepreneurs, leur offrir un environnement stable, à qui on donne les clés. Ils défricheront et structureront eux-mêmes les tendances porteuses et disruptives de demain. L’aspect humain l’emporte sur le domaine. Il faut surtout renforcer l’environnement collaboratif et la dynamique intra-start up. C’est une différence majeure par rapport à ce que j’expérimente sur les US.

Pour finir de manière plus légère, un entrepreneur que tu admires ?

La star Elon Musk[8] sans hésitation !
Et Xavier Niel pour la France. Tous deux ont en commun cette volonté de sortir de leur zone de confort, de réinvestir sur de nouveaux secteurs. Je suis admiratif de leur capacité à remettre en cause l’ordre établi par de nouveaux business modèles. Un autre que j’admire est Aaron Levie de Box, très humble et très abordable.

Merci de ton temps Alex et wish you all the best !

Pour en savoir plus :



[1] société japonaise cotée à la Bourse de Tokyo
[2] Gilt City : site d’e-commerce
[3] Matt Turck. A l’époque Directeur Général chez Bloomberg Ventures et aujourd’hui Directeur Général de FirstMark Capital. Il a lancé et manage le mensuel meetup Data Driven NYC, reconnu comme le meilleur event à NYC de l’écosystème data (CTO, VC, CEO)
[4] Programme d’accélération de start-up
[5] La mafia PayPal désigne tous les anciens fondateurs et employés de PayPal ayant fondé par la suite de grandes réussites : Tesla, LinkedIn, Youtube, Yammer, Tesla Motors, SpaceX
[6] BYOD : Bring Your Own Device, pratique qui consistant à utiliser ses équipements personnels (téléphone, ordinateur portable, tablette électronique) dans un contexte professionnel
[7] IoT : Internet des Objets, tendance représentant l'extension d'Internet à des choses, des objets connectés et à des lieux dans le monde physique.
[8] Elon Musk, ancien co-fondateur de PayPal et aujourd’hui fondateur de Tesla Motors et SpaceX

mercredi 5 mars 2014

Entretien avec François Bourdoncle (membre de la Commission Lauvergeon et co-chef de filière Big Data de la Nouvelle France Industrielle)


L’enjeu de la structuration de l’écosystème français Big Data par François Bourdoncle

Propos recueillis par Matthias Fille, ICT Advisor chez CCI Paris IdF

François Bourdoncle est le cofondateur et actuel Directeur Technique d'Exalead, aujourd'hui filiale de Dassault Systèmes. Il est membre de la Commission Lauvergeon "Innovation 2030"[1] qui a remis son rapport à François Hollande en octobre dernier : "Un principe et sept ambitions pour l'innovation"[2].   François est également co-pilote (avec Paul Hermelin, PDG de Capgemini) du plan d’action Big Data, qui compte parmi les 34 grands projets de la "Nouvelle France industrielle" du Ministère du Redressement Productif. François nous partage sa vision du Big Data, les risques encourus à vouloir nier cette révolution numérique. Il dresse également les pistes pour favoriser l’émergence d’un écosystème vertueux autour des Big Data en France.

Nous avons dépassé le simple prisme technologique du Big Data. S’attarder sur la primauté technologique est une illusion, c’est désormais un enjeu de business transformation. En effet, il ne faut pas appréhender le Big Data par sa définition opérationnelle ou sous l’ornière technologique, mais par ses impacts et les effets cela va produire. Cela va ainsi exclure la vacuité de certains débats ambiants. Le centre de gravité du débat ne sera plus axé sur la masse de données (à partir de quelle masse de données peut-on considérer qu’on fait du Big Data ?) ou sur les enjeux techniques d’optimisation organisationnelle. Il faut s’attarder sur d’autres phénomènes : enjeux de conception produits, de business transformation, nouveaux modèles d’affaires, d’organisation client et de gamme de produits. Sur la phase de développement des infrastructures et des solutions technologiques sous-jacentes, le terrain est balisé. Les dés sont déjà lancés, que le meilleur gagne ! Donc, la bataille n’est plus sur l’infrastructure, mais bien sur les usages, sur le développement de nouveaux modèles économiques et les déclinaisons verticales. En matière de Big Data, il faut passer du « comment » au « quoi » et au « pour quoi ».
Par exemple, la vraie création de valeur réside dans des boîtes comme Withings ou Criteo, car elles reposent sur  un business model complètement intégré verticalement, qui créent, captent, analysent, valorisent et monétisent de la data. Pour faire de l'innovation intelligente, il faut placer au même endroit les données qu'on fabrique et celles qu'on recueille. On voit par ses exemples que la France a l’opportunité de se frayer un chemin sur l’échiquier mondial des usages.  Là où tout n’est finalement pas encore bien défini. 
Mais l’Hexagone doit composer avec son marché, qui n’a pas la taille d’un marché US, ni la même capacité d’investissement.

Donc, en tant que chefs de file de ce « chantier » avec Paul, nous avons identifié les leviers que les pouvoirs publics peuvent actionner pour favoriser l’émergence d’un écosystème français vertueux du Big Data, exportateur et créateur d’emplois. C’est donc avant tout un objectif économique, académique et industriel. Nous voulons rendre le terrain français fertile pour l’ensemble de cet écosystème en changeant le « PH de l’aquarium ». Sur le mode opératoire, l’ambition de nos travaux n’est pas de bâtir une nouvelle filière industrielle au sens classique du terme, comme c'est le cas par exemple pour le plan "Avion électrique". En effet, le Big Data est en réalité plus un écosystème qu’une filière au sens traditionnel du terme, car elle n’a pas vocation à déboucher sur un produit industriel précis. Les Big Data sont quelque chose de beaucoup plus écosystémique et horizontal, parce que cela irrigue tous les secteurs.

En effet, le Big Data est un enjeu critique pour tous les secteurs de l’industrie et des services, notamment ceux qui n’ont pas été encore fortement impactés par la révolution numérique. Il ne faut pas que nos grands groupes ignorent cette révolution numérique, comme cela a été le cas pour le commerce de proximité, la presse, l’industrie du disque, ou très bientôt la télévision et le cinéma. Car le Big Data va être le moyen par lequel la révolution numérique va s’inviter sur des secteurs qui n’étaient pas irrigués à ce jour. Ainsi, il faut éviter que ne se reproduise cet aveuglement que ces secteurs ont connu. Sur ces secteurs, les acteurs n’ont pas voulu appréhender cette révolution numérique jusqu’à ce que cela devienne irréversible. Donc, il faut éviter ce déni de réalité, qui est une forme de défense extrêmement dangereuse. Il faut éviter le « jusque-là tout va bien ».
Car à vouloir refuser de se challenger sur son propre business model, de nombreux acteurs courent le risque de la désintermédiation par des pure players de la data comme le GAFA[3], IBM ou LinkedIn. Ceux que j’appelle les « barbares modernes[4] »

En effet, le succès de l’innovation orientée grand public de ces 15 dernières années (Internet, moteurs de recherche, téléphonie mobile, réseaux sociaux, etc.) leur confèrent un accès direct au grand public et à ses données. Cette connaissance de la relation clientèle est leur outil pour se positionner dans tous les domaines. Comme le démontre l’actualité récente[5], ces spécialistes de la data regardent les déclinaisons possibles dans d’autres secteurs traditionnels, fortement « challengeables » sur leur business model. Ainsi, le risque pour les grands groupes établis est lié à la menace que ces « barbares » utilisent cet actif pour aller partout où il y a de l'inefficacité dans la relation clients.
Par exemple dans l'assurance, la santé, le crédit, le marché de l’électricité, les opérateurs de télécommunications etc.

Illustration dans le domaine de l’assurance. Avec Android sur votre terminal, Google dispose de votre géolocalisation et accéléromètre. Il connait votre mode de vie, type de conduite, oisiveté, mobilité, préférences, etc. En mixant ces datas et en faisant travailler leur arsenal algorithmique, ils seront en mesure de vous proposer une offre assurantielle, moins chère, granulaire, extrêmement sophistiquée quant à votre profil de risque. Et ils capteront la valeur des bons clients, les CSP+, ceux dont la probabilité de sinistralité est faible.


Ces nouveaux acteurs réinstaureront dès lors une nouvelle forme d’intermédiation. Et qui dit intermédiation, dit également sous-traitance et érosion des marges. Ces pure players du numérique auront la capacité d’imposer un diktat aux Brick and Mortar (acteurs traditionnels) et de les reléguer à un simple rôle d’opérateurs et prestataires techniques interchangeables. Ces derniers se seront fait confisquer la relation client qui représente la grosse partie de la valeur. Car la majeure partie de la valeur n’est plus captée par celui qui détient la technicité de l'objet industriel, mais par celui qui détient la technicité de l'optimisation de l'objet ou de la relation client grâce aux technologies du Big Data. 

Les entreprises françaises doivent absolument réinventer leurs services clients, où à défaut, les exécuter mieux que les autres. D’autant plus qu’il y a une vraie demande de produits personnalisés dans ces domaines. De surcroît, trop d’industries comme le crédit, l’assurance et la finance se sentent protégés car se pensent à la pointe avec leurs outils informatisés. C’est illusoire. L’informatique pur n’y est qu’un outil de production et de productivité, il n’a pas d’impact sur le business model et sur la transformation du business. A cet égard, le capitalisme français a un problème: il est beaucoup trop dans l'entre-soi et la courtoisie. Plutôt que d’encaisser de front cette 3ème révolution numérique, il faut anticiper sa dynamique et ses enjeux de business transformation. Cette ouverture culturelle et l’acceptation de la compréhension de la désintermédiation numérique sont critiques pour changer leur logiciel de pensée.

Donc, l’une des priorités est d’inciter les grandes entreprises françaises, aujourd’hui en retard sur leurs homologues américaines, à lancer des projets à grande échelle d’exploitation des données massives à des fins de business. Pour ce faire, dans le cadre de notre chantier, nous travaillons sur plusieurs pistes avec les grands groupes. Premièrement, annihiler justement ce déni de réalité et évangéliser. Et également valoriser l’innovation ouverte. Pour les grands groupes, il est aujourd’hui absolument vital de collaborer travailler avec des start-up.
Parce que, jusqu'à présent, il faut bien reconnaitre que la tendance est plutôt de les racheter pour les tuer avant qu'elles puissent devenir des concurrentes. Nous devons favoriser l’interaction vertueuse du tandem grands groupes (utilisatrices) et start up du Big Data (techno providers). Idéalement, il faudrait que les grands groupes payent trois fois ! Les financer en early stage (capital-risque), les aider à grandir (logique business) et les racheter seulement au moment opportun. Sans cela, ces acteurs en herbe ont peu de chance de grandir, de démonter la scalabilité de leur projet et de trouver les forces de s’attaquer à l’export pour contrer l’étroitesse et l’aversion « culturelle IT » de notre marché intérieur. Donc l’effet de levier de cette mesure est double et convergent pour ces deux typologies d’acteurs.

Autre réflexion connexe. J’ai l’obsession de changer la perception de l’innovation française. Comme chacun sait, la R&D est généreusement financée par de nombreux véhicules de financement publics (FUI, Crédit d’Impôt Recherche, etc.). Il faut s’en féliciter. Mais au regard des investissements publics consentis, l’effet produit y est trop minimal. La R&D est trop peu impactante lors de la mise sur le marché pour changer « les règles du jeu » et créer de la valeur. Au-delà de la dimension exploratoire des projets de R&D, ces PME et startup ne doivent pas oublier qu’il leur faut un marché. D’où notre réflexion de créer un appel d’air et de tirer cet écosystème par l’aval en créant le marché. Notre volonté est donc de stimuler les projets et POC côté demandeurs. Nous serons ainsi confortés sur : l’existence potentielle d’un marché, l’expérimentation à l’échelle de ces projets par les grands groupes, l’aide aux PME et leur besoin de scalabilité de projets. Les PME ont davantage besoin d’un carnet de commande étoffé plutôt que de subventions (côte offre / amont). Cette logique aura un effet de levier maximal : créer le marché plutôt que l’offre, et réduire le time-to-market de nos startup. Par ailleurs, via le récent lancement de la plate-forme TeraLab[6], les entreprises et chercheurs disposeront d’un environnement de recherche et d’expérimentation (briques technologiques, ressources de calcul grande échelle). Et pour ce faire, il est essentiel que cette structure recense les « bonnes volontés » en matière de mise à disposition de données de la part des entreprises.

Par ailleurs, tout comme le logiciel de pensée, notre volet réglementaire doit évoluer. Sur le premier aspect, il faut permettre aux usages de s’installer, de s’expérimenter. Sur le volet réglementaire, nous pouvons être fiers d'avoir exporté notre modèle de la loi Informatique et Libertés au niveau européen. Mais cette loi a un problème : la finalité initiale de la collecte des données personnelles est gravée dans le marbre, on ne peut pas la faire évoluer lors des utilisations ultérieures. Or les Big Data, ça ne fonctionne pas comme ça, ça bouge. La déferlante va faire craquer cette loi, c'est inévitable. Il faut refondre toute la question du volet législatif en matière de réutilisation des données, afin de faciliter, sans lever toute forme de contrôle, l’usage des données. Il faut ainsi pouvoir expérimenter avant de légiférer et déplacer l’équilibre en faveur de l’innovation. A cet égard, il serait illusoire de croire que de s’interdire le droit d’expérimenter sur l’utilisation innovante des données serait un garde-fou contre les dérives potentielles. 

Ce principe d’audace, d’action et d’expérimentation doit pouvoir rééquilibrer le rapport de force avec notre principe « sacro-saint » de précaution inscrit dans notre constitution. Les usages innovants et disruptifs comportent une part évidente de risque. Donc, avant que la CNIL n’empêche d’expérimenter, nous devons appréhender ces usages, sectoriellement et de manière jurisprudentielle.
Or, actuellement, l’utilisateur des données doit respecter l’usage intentionnel pour lequel les données ont été collectées : la loi doit évoluer dans son principe même. Nous pourrions remplacer le principe d’intentionnalité par celui de réciprocité, de passer d’une logique déclarative à une logique d’adhésion, grâce à la rédaction d’une charte d’adhésion à des valeurs de base,  par secteur, avec sanction si non-respect de la vie privée.

De plus, il faut observer l’évolution des usages et procéder systématiquement à une étude d’impact économique avant de légiférer « défensivement et mécaniquement ». Comme pour le besoin de stabilité fiscale, les entreprises ont besoin de ce gage de sécurité. Sans cela, les entreprises ne pourront pas opérer. Sans ce droit à l’expérimentation, mis en avant par le rapport de la Commission Lauvergeon, il sera très difficile de faire émerger une filière Big Data dans notre pays. C’est de l’action et l’expérimentation que naitront la réflexion et les usages, et non pas l’inverse. Mais comme toute révolution industrielle, l’entrée de notre civilisation dans l’ère du « tout numérique » ne se résume pas à ses risques potentiels, et la crispation légitime sur la protection de la vie privée ne doit pas masquer les fantastiques enjeux économiques et citoyens que représente le traitement intelligent des données massives. 

A ce titre, l’Etat se doit d’être une locomotive d’expérimentation. Comme pour les entreprises, ses enjeux sont tout aussi considérables (gestion des ressources, des infrastructures, de l’énergie, des transports, du marché de l’emploi, des finances publiques, etc).  Il doit aussi montrer l’exemple sur des thèmes comme les data dans la santé avec les données de la CNAM, qui seraient un fabuleux gisement de création de valeur avec de nouvelles applications et une nouvelle façon de concevoir les parcours de soins : passer d’une démarche curative à une logique préventive grâce au suivi et analyse en temps réel. Il en va de même dans l’évaluation et le pilotage des politiques d’action publiques. A l’heure où le niveau de défiance des citoyens vis-à-vis de la classe politique est le plus élevé de l’OCDE, voilà une formidable opportunité de recentrer le citoyen au cœur du débat sociétal et de faire monter d’un cran le niveau d’exigence des citoyens sur l’exécutif central et les collectivités.

En synthèse, je dirai que nous ne sommes donc pas en retard, et nous avons d’autre part de nombreux atouts, comme par exemple des ingénieurs généralistes de haut niveau, formés à l’informatique, aux mathématiques et aux statistiques, et qui sont très largement plébiscités au niveau international, à commencer par la City et Wall Street. Ne serait-il pas plus vertueux de leur permettre de réussir en France en aidant nos entreprises à déployer des projest Big Data à grande échelle, en créant de nouveaux business model, en réinventant la relation client par la donnée? 

Comme je l’ai évoqué, nous avons également la chance d’avoir quelques très belles « success stories »  comme Critéo ou encore Withings qui est l’un des leaders mondiaux de l’Internet des Objets, qui va être l’un des grands pourvoyeurs de données dans le futur. Cet Internet des Objets, justement, qui va complètement révolutionner la manière dont les produits sont conçus et commercialisés, ainsi que la manière dont l’innovation va se nourrir de l’exploitation du suivi des produits en condition opérationnelle. Espérons que les dossiers Big Data prochainement financés dans le cadre du « Concours Mondial de l’Innovation 2030 » puissent accoucher de futures pépites. Mais nous avons actuellement trop peu de champions numériques, ces « modernes ». Donc, j’ai l’ambition aussi de faire entrer les anciens (nos grands groupes) dans l’ère de cette 3ème révolution numérique.



[2] http://www.direccte.gouv.fr/IMG/pdf/LAUVERGEON_1_principe_et_7_ambitions.pdf
[3] GAFA : acronyme pour désigner Google, Amazon, Facebook et Apple
[4] Article interview de Challenges 20-01-2014 « 
[5] Récentes acquisitions de Google dans le domaine de l’assurance et de la maison intelligente connectée ou investissement de 250 million $ sur Uber, compagnie de VTC
[6] Centre de ressources technologiques destiné à des projets de recherche, d’innovation et de prototypage dédiés aux big data, lancé par l’Institut Mines-Télécom et le Groupe des Écoles nationales d’économie et de statistique (GENES)