JULIA Luc

De LRtech
Aller à : navigation, rechercher


Dans la mesure où on connecte des objets élémentaires qui utilisent chacun le volume d'énergie suffisant à leurs tâches, les services rendus provenant de l'interopérabilité et de la collaboration entre ces objets ne nécessitent aucune énergie supplémentaire.

Biographie

En tant que vice-président de l'innovation chez Samsung Electronics, Luc JULIA a dirigé la vision et la stratégie de l'entreprise pour l'Internet des objets de 2012 à 2017. Aujourd'hui Senior Vice-président et directeur technique de la compagnie, il se concentre sur la définition d'une nouvelle génération de produits. Auparavant, il a dirigé les équipes de développement de Siri chez Apple, a été directeur technique chez Hewlett-Packard et a cofondé plusieurs start-up dans la Silicon Valley. Il a commencé sa carrière au SRI International, où il a créé le Computer Human Interaction Center et a participé au démarrage de Nuance Communications, aujourd'hui leader mondial de la reconnaissance vocale.

Luc est diplômé en mathématiques et en informatique de l'université Pierre et Marie Curie de Paris et a obtenu un doctorat en informatique à l'École nationale supérieure des télécommunications de Paris (Télécom ParisTech). Il est également reconnu comme l'un des développeurs français les plus influents dans le monde numérique.

Historique

Le mythe de la fabrication de l'intelligence s'inscrit dans un contexte historique nourri par les fantasmes populaires autour de créatures qui se retourneraient contre leurs créateurs, de la crainte que les robots fassent notre travail à notre place et des différents programmes créés ces dernières années par IBM, Facebook ou d'autres. Dès l'Antiquité, on vit apparaître des histoires et des rumeurs autour d'êtres artificiels dotés d'intelligence ou de conscience. Tout a commencé avec le désir d'imiter ou de devenir Dieu.

  • Le Golem : la particularité des mythes est de parler des profondeurs de la réalité par le biais de récits symbolisant des énergies et des aspects de la condition humaine. Le mythe du Golem raconte l'histoire d'une créature artificielle, humanoïde, dépourvue de parole et de libre arbitre, façonnée par son créateur humain dans le but de le défendre et de l'assister. Devenue humaine, elle échappe à tout contrôle et son créateur doit lutter contre elle pour reprendre le pouvoir. C'est le mythe du monstre de pierre qui s'anime, prend vie et devient intelligent. Il s'agit d'une représentation anxiogène, qui est, avec Pygmalion et Frankenstein, l'un des grands mythes liés au monde des créatures artificielles. Ce mythe du Golem continue de nourrir les peurs et les fantasmes de ceux qui ont peur des « méchants robots » et les inquiétudes relayées actuellement autour de cette pseudo « super intelligence ». La possibilité que les robots créés par les humains prennent le contrôle et précipitent notre extinction ne repose sur rien de tangible. Nous jouons à nous faire peur, ce qui peut être sympathique au cinéma en mangeant du popcorn, mais n'a aucun fondement scientifique.
  • Pascal et Babbage : la machine à calculer de Pascal, la Pascaline, est l'acte fondateur du calcul et de son automatisation. Pascal cherchait un moyen d'imiter la façon dont les humains calculaient, afin d'aider son père qui était commerçant. En 1642, il a inventé cette machine qui fonctionnait avec des engrenages et qui appliquait des règles d'arithmétique simples. Elle ne faisait que des additions et des soustractions, mais elle les faisait beaucoup plus rapidement que les humains et surtout sans aucune erreur. C'est, dans les faits, la toute première machine d'arithmétique, le tout premier ordinateur. En mécanisant le calcul, Pascal a posé les bases des ordinateurs. Ce n'est que deux siècles plus tard, dans les années 1830, que Charles Babbage, un mathématicien et inventeur britannique, célèbre pour son travail de développement de plans de deux ordinateurs différents, inspiré de la machine de Pascal, s'est approché à grands pas vers l'informatique moderne. Sa première invention, la machine à différences, n'a été que partiellement achevée au début des années 1830. La machine à analyse, sa deuxième création, encore plus complexe, n'a, quant à elle, jamais pu voir le jour. Ces deux machines, souvent qualifiées de « premiers ordinateurs de l'histoire » avaient un potentiel très important pour l'époque. La machine à différences pouvait faire des calculs simples, comme des additions ou des multiplications, mais sa caractéristique la plus importante était sa capacité à résoudre des fonctions polynomiales* pouvant aller jusqu'au degré sept. Cette machine, à l'exception du mécanisme d'impression, était sur le point d'être terminée en 1832, mais les fonds pour achever le projet n'ont pu être réunis et il a été abandonné. Donc jamais prouvé, contrairement à la Pascaline... En 1837, Babbage a eu l'idée de la machine à analyse. Plus qu'un calculateur, il s'agissait de la première machine jamais conçue avec l'idée de la programmer. Malheureusement, là encore, principalement en raison de préoccupations politiques et économiques, mais aussi de la forte implication technologique du projet, cette machine n'a jamais pu être achevée. Ses idées étaient très en avance sur son époque et, jusqu'au siècle suivant, aucune autre tentative de construire un tel ordinateur n'a été tentée. On appelle Babbage « l'oncle » des ordinateurs, en raison de sa vision précoce, mais pour moi, Pascal reste le « grand-père des ordinateurs » avec sa fameuse Pascaline.
  • Les automates : ce sont des mécanismes qui reproduisent des mouvements humains. Leur vocation est de rendre le travail humain moins pénible, en l'imitant et en l'amplifiant. Parmi les automates célèbres, il y a eu le fameux Turc mécanique, soi-disant doté de la faculté de jouer aux échecs. Dans les années 1770, le baron Wolfgang von KempelenM a inventé un genre d'androïde grandeur nature. Il représentait un Turc en turban et en caftan, assis sur une chaise fixée sur une commode avec des portes. Il y avait un jeu d'échecs devant l'automate et il parvenait à bouger les pièces. Quand on ouvrait les portes du meuble, on voyait une mécanique et des engrenages complexes qui s'animaient lorsque l'automate jouait un coup. Mais ce qu'on ne voyait pas, c'est que dans un second compartiment caché, se trouvait un homme qui manipulait le tout comme un marionnettiste. L'automate a joué des centaines de parties d'échecs contre des humains, en les remportant la plupart du temps, y compris contre Napoléon Bonaparte et Benjamin Franklin. La supercherie a duré plus de cinquante ans et a contribué à faire croire en la possibilité de machines intelligentes.
  • L'automatisation dans les usines : les années i960 ont été marquées par l'automatisation de la production industrielle grâce aux progrès de l'électronique et de l'informatique. Malgré quelques tentatives, décrites dès le premier siècle de notre ère par le mathématicien grec Héron d'Alexandrie dans son Traité des pneumatiques, les premiers robots industriels datent du xviiie siècle. Tout a commencé dans la région de Lyon, réputée pour son industrie séculaire de la soie. En 1725, Basile Bouchon invente un métier à tisser semi-automatique, utilisant un ruban perforé pour le programmer afin d'assister les ouvriers dans la tâche répétitive du tissage. Trois années plus tard, son assistant Jean-Baptiste Falcon perfectionne cette invention en introduisant des cartes perforées en carton, au lieu de papier, reliées entre elles et formant une chaîne sans fin. Ce sont ces mêmes cartes dont s'est inspiré IBM en 1944 pour communiquer ses instructions à l'Harvard Mark I, considéré comme l'un des premiers ordinateurs modernes. Mais l'histoire n'a retenu que Joseph Marie Jacquard qui a repris ces idées pour créer le célèbre « métier Jacquard » en 1801. Le déploiement de ces machines est à l'origine de la non moins célèbre Révolte des canuts entre 1831 et 1848, où les ouvriers tisserands voyaient déjà dans ces machines à tisser une possible cause de chômage. Les robots industriels ont peu à peu remplacé les humains dans leur travail, même s'ils n'avaient au début pour fonction que de les aider, afin d'accomplir à leur place les tâches difficiles à effectuer. Certains emplois ont effectivement été supprimés, mais en contrepartie, ils ont permis de supprimer de la pénibilité.

Beaucoup de questions se posent sur le rôle que l'IA pourrait avoir dans la suppression de certains emplois et je suis assez étonné des prévisions de l'OCDE, qui estime qu'elle entraînera une perte d'environ 8 % d'emplois. Ce chiffre me paraît aberrant, parce qu'en réalité, dans les années i960, avec la robotisation des usines Renault, beaucoup d'ouvriers spécialisés remplacés par des machines ont été déplacés vers d'autres métiers. On peut améliorer la société grâce à la technologie, mais il faut la comprendre, la connaître et savoir à quoi elle sert. Elle diminuera sans doute le temps de travail de certains postes, mais en contrepartie, elle nous permettra de nous consacrer à des tâches plus intéressantes et plus gratifiantes. Les vraies questions qui se posent, en matière de technologie sont d'une part politiques et d'autre part, liées à la répartition des richesses.

Est-ce que ceux qui travaillent dans la Silicon Valley et qui maîtrisent et créent la technologie vont s'enrichir et les autres stagner, ou est-ce que ces richesses produites vont au contraire être mieux distribuées ? La technologie crée des métiers, à hauts revenus en général, et la question est de savoir comment partager tout ça. La question du partage des richesses se pose depuis la nuit des temps, mais je crois que nous sommes arrivés à un point où celle-ci ne peut plus être différée. On entend souvent dire que les robots vont remplacer nos emplois, mais il faut savoir que les pays les plus robotisés sont ceux dans lesquels il y a le moins de chômage. Au Japon, il y a des centaines de milliers de robots.

En Europe, c'est en Allemagne qu'il y a le moins de chômage, et ce sont pourtant eux qui ont le plus de robots. Dans une étude récente"5, le cabinet de conseil McKinsey estime que d'ici 2030, environ 15 % des tâches seront automatisées, avec de fortes variations selon les à prévoir plusieurs coups à l'avance. Selon la théorie des jeux, c'est un jeu de stratégie combinatoire sans cycle et à information complète et parfaite, ce qui signifie que les règles sont claires et définissent une fin. Quel que soit le chemin qu'on emprunte, on arrive toujours à un résultat, on a un vainqueur ou un match nul. Le programme de Deep Blue n'était en réalité qu'une suite de règles qui a pu battre Kasparov non pas en « réfléchissant », mais en ayant une capacité de mémoire phénoménale où étaient stockés des milliers de parties d'échecs, ainsi que les différents chemins menant à la victoire en fonction des différentes configurations. Il n'y a là aucune intelligence, mais une prouesse technologique qui permet de retrouver dans cette énorme base de données le bon coup au bon moment. Pour vous donner une idée, l'ensemble des coups légaux possibles aux échecs est estimé entre io43 et io5°. La machine ne connaissait absolument pas tous les coups, mais avait la capacité d'en prévoir à l'avance bien plus que Kasparov ne le pouvait.

La machine a donc battu Kasparov grâce au « big data », et absolument pas grâce au raisonnement. Dans ce cas, il ne s'agissait même pas de Machine Learning, mais de « force brute ».

  • Watson et Jeopardy! : historiquement créé entre Deep Blue et DeepMind, DeepQA est une énorme base de données de questions/réponses, développée par IBM à la fin des années 2000. Jeopardy! est un jeu télévisé dans lequel on donne des réponses aux participants, qui doivent formuler les questions associées. Les ingénieurs d'IBM ont pensé que participer à ce jeu serait un bon test pour DeepQA. Ils ont donc créé Watson, un ordinateur spécialisé capable de répondre à des questions en langage naturel. Contrairement à ce que beaucoup pensent, même si on peut y voir une certaine logique, le nom de Watson n'a rien à voir avec ce cher Dr Watson, fidèle assistant de Sherlock Holmes, mais était le nom du premier PDG d'IBM, Thomas Watson. En 2011, Watson a participé au jeu télévisé contre des champions légendaires et les a battus à plates coutures. Là encore, il ne s'agit pas d'intelligence, mais d'une énorme mémoire, doublée d'une capacité de calcul monstrueuse. Watson pouvait traiter 500 gigaoctet, l'équivalent du contenu d'un million de livres par seconde ! C'est bien sûr impressionnant, mais ce n'est rien d'autre que du traitement de connaissance.
  • AlphaGo contre Lee Sedol : DeepMind, rachetée par Google en 2014, est une entreprise britannique spécialisée dans l'intelligence artificielle, qui s'est concentrée sur le développement de systèmes informatiques capables de jouer à des jeux vidéo. Elle s'est illustrée en 2016 quand son programme AlphaGo a battu le champion du monde de go, le Sud-Coréen Lee Sedol. Le jeu de go est beaucoup plus complexe que les échecs. Si donner une estimation précise du nombre potentiel de parties d'échecs avait été compliqué, pour le jeu de go, dont les chiffres varient de îo1?2 à io?62, c'est encore moins précis. La vérité se situant quelque part entre les deux, il est facile de comprendre que la force brute ne peut être appliquée. Mais c'est là que le Machine Learning peut briller face à un humain. En effet, en faisant ingurgiter 30 millions de coups extraits de 160 000 parties pour parfaire son apprentissage, et en faisant jouer plusieurs instances les unes contre les autres pour parfaire le modèle, il est possible de parvenir à un niveau de spécialisation inégalable par un être humain, même 18 fois champion du monde. Il est toutefois important de noter qu'AlphaGo ayant besoin de plus de capacité de calcul que de mémoire, utilisait autour de 1 500 CPU, 200 ou 300 GPU et quelques TPU. AlphaGo a battu son adversaire humain par des méthodes et des stratégies qui n'avaient absolument rien d'humain, alliant des techniques statistiques de Machine Learning et de Deep Learning dont il serait ridicule de se passer pour accomplir ce genre de tâches spécialisées, juste à cause d'un désenchantement pour ces technologies.
  • Tay, le chatbot raciste de Microsoft : en mars 2016, Microsoft a lancé un chatbot- auquel les utilisateurs pouvaient s'adresser librement sur Twitter. Il était censé personnifier une jeune Américaine de 19 ans. Au cours des échanges, il s'est mis à tenir des propos racistes et sexistes et Microsoft a dû le fermer seulement 16 heures après sa mise en service. Microsoft n'a jamais commenté les raisons de ce désastre, mais de multiples hypothèses ont été depuis formulées. Basés sur des technologies de Machine Learning classiques, les chatbots sont entraînés sur de larges bases de données comprenant des conversations choisies parmi celles abordant des thèmes pertinents pour la spécialité du bot. Pour que le bot s'intègre parfaitement à la conversation et ressemble à son public, il est aussi courant d'implémenter une fonction « repeat after me » (« répète après moi »), qui permet d'enrichir la base de données avec les conversations courantes en temps réel. Trouver des bases de données de conversations annotées n'est pas chose aisée. Mais il en existe toutefois, souvent produite d'après les retranscriptions des relations avec les clients des services après-vente. Si on prend l'hypothèse que Microsoft ait entraîné son chatbot sur des conversations tenues dans des États du Sud des États- Unis dans les années 1950, qui étaient notoirement racistes, on comprend très bien comment tout le système aurait pu, dès le départ, être biaisé. De la même façon, connaissant la propension des utilisateurs de Twitter à verser sans vergogne dans l'insulte, si la fonction « repeat after me » avait un poids un peu trop fort, rien d'étonnant à ce que Tay se soit mis à proférer des insanités en les imitant. Les algorithmes d'apprentissage étant en général complètement génériques, le cas du chatbot de Microsoft met en lumière le risque posé par les sources biaisées et donc l'importance du choix de ces sources. Faits par les concepteurs du programme, ils montrent encore une fois qu'il n'y a pas d'intelligence, de remise en question ou de sens critique des machines, et que toutes les responsabilités et les défaillances incombent à l'homme. Si dans ce cas précis, l'erreur humaine a certainement été fortuite, on peut imaginer des manipulations intentionnelles à des fins beaucoup moins nobles. Pourquoi alors, ne pas créer demain un bot avec une base de données qui stipule que les blancs sont gentils et que les noirs sont méchants ? Le bot biaisé devient la source de ces « fake news » popularisées par Donald Trump, et la seule vraie façon de les combattre est d'être éduqué et informé, pour se forger un sens critique. Si on prend des images qui reflètent la fréquence d'apparition d'objets dans des photos apparaissant sur Google ou sur Facebook, dans la population américaine, on va obtenir environ 10 % de personnes dont la couleur de peau est assez foncée et 90 % moins foncée. Si on entraîne un algorithme sans faire attention, on obtiendra forcément une performance moindre sur les gens dont la couleur de peau est foncée, ce qui n'a rien à voir avec l'origine ethnique, mais tout à voir avec le fait qu'il y a 10 % d'une catégorie et 90 % de l'autre. La performance sur la première catégorie va donc être logiquement plus faible. Pour corriger ça, il faut modifier les proportions utilisées pour entraîner les systèmes, en sachant dès le départ identifier les biais qui doivent être enlevés. C'est un point crucial, devenu un sujet de recherche important, qui n'est pas entièrement lié à l'apprentissage automatique ou à l'IA. Ce sont des problèmes auxquels il aurait fallu réfléchir depuis dix ou vingt ans. Les acteurs du secteur prennent aujourd'hui ce sujet très au sérieux et les grandes entreprises comme Facebook, Google ou Microsoft ont créé des groupes de recherche et de développement spécifiques qui travaillent sur la question de ces biais.

Cette prise de conscience a également entraîné la création de différents mouvements, dont « Partnership on AI » par exemple, un forum ouvert pour échanger autour de ces questions, financé par plusieurs entreprises de la tech. Son conseil d'administration est composé de professeurs d'université, de représentants d'organisations non gouvernementales, de personnalités du monde associatif, etc. En termes de régulation, les personnes qui prendront délibérément comme base des sources racistes, sexistes, etc. devront être sévèrement punies par la loi. Il faudra instaurer des contrôles stricts avant de pouvoir mettre un bot à la disposition du public. En revanche, la régulation ne doit pas nous dire quelle source utiliser. Il faut laisser les chercheurs travailler, à condition que ce soit en conformité avec la loi. S'il y a trop de régulation, on va rentrer dans un monde dictatorial, où on nous dira quelle source nous devons prendre, et où la régulation deviendra abusive, comme cela peut être le cas dans certains pays racistes. Il ne faut pas oublier non plus que trop suivre les règles empêche l'innovation. Aux États-Unis, dans les années 1950, la régulation n'était pas un sujet et du coup, les chercheurs ont vraiment pu travailler sans frein et réaliser des avancées importantes.

Le véritable danger de l'IA et des robots vient de nous, humains. Si nous décidons de créer et de programmer délibérément des robots tueurs par exemple, ou si nous créons des chatbots racistes. La solution réside dans la régulation, mais le risque est de casser l'innovation. Il y a donc un équilibre subtil à trouver. Il faut qu'on soit capable d'expliquer ce qu'on fait dans ce domaine. Cette question de l'explicabilité est un autre sujet important et je ne suis pas du tout d'accord avec ceux qui disent que les décisions faites par les réseaux de neurones profonds ne sont pas explicables. On sait tout à fait comment fonctionnent ces systèmes et de quelle manière changer les variables pour modifier les décisions. Il y a environ 200 trillions de décisions faites chaque jour sur Facebook, par exemple. C'est tellement gigantesque qu'on ne peut pas donner d'explications systématiques sur ces décisions, que très peu de personnes feraient d'ailleurs l'effort d'examiner. La plupart de ces décisions sont de faible importance, il s'agit par exemple de l'ordre dans lequel votre fil d'actualité apparaît. En revanche, il y a de plus en plus d'automatisations dans les décisions, qui ont un impact important sur la vie des gens.

Prenons l'exemple de la décision d'attribution d'un prêt : il y a des lois interdisant de se fonder sur l'origine ethnique pour décider de l'attribution d'un prêt. On va donc établir un système d'apprentissage qui n'utilise pas cette variable. Mais ce n'est pas si simple, parce que d'autres variables sont corrélées à la première. Aux États-Unis par exemple, l'origine ethnique a une corrélation importante avec l'adresse, qui doit être communiquée au moment de la demande de prêt. Comment faire pour que la décision ne soit pas biaisée ? Ce sont des questions très importantes. En ce qui concerne l'attribution d'un prêt, il est possible de déterminer algorithmiquement quel est le changement minimal des variables nécessaires pour permettre de modifier la décision. Si la décision est de ne pas accorder le

Enfin je ne peux parler des liens forts entre la France et FIA sans faire un constat : dans la plupart des grandes entreprises de la Silicon Valley, les gens qui sont à la tête des départements qui font de l'intelligence artificielle sont Français. Yann LeCun, Alexandre Lebrun et Jérôme Pesenti (ancien d'IBM) chez Facebook, Nicolas Pinto chez Apple, Yves Raimond chez Netflix, Jean-Philippe Vasseur chez Cisco, pour ne citer qu'eux.

En France, j'ai rencontré Fleur Pellerin quand elle était encore secrétaire d'État au Numérique. Elle a lancé et incarné la French Tech, et a fait en sorte que la France revienne parmi les leaders mondiaux dans les domaines de la technologie. C'est grâce à elle, avec le support de la BPI (Banque pour l'investissement), que des initiatives comme le Silicon Sentier ont vu le jour. C'est un pur produit des hautes études françaises, qui a pu et su quitter le milieu politique lorsque le Président Hollande ne l'a curieusement pas reconduite dans ses fonctions dans son dernier gouvernement. Elle a rebondi dans le milieu qu'elle a aidé à créer et aujourd'hui, elle investit avec sa firme Korelya Capital dans de nombreux projets innovants. J'ai beaucoup d'admiration pour elle car pour moi elle est à l'initiative de ce renouveau que nous voyons actuellement. D'ailleurs, beaucoup de ceux qui gravitaient dans son entourage font aujourd'hui partie de l'administration du Président Macron.

Comme je l'ai déjà dit, Emmanuel Macron nous a fortement encouragés à installer notre nouveau centre d'intelligence artificielle en France. Entre Samsung et lui, c'est une vieille histoire puisque nous faisions partie d'un groupe régulièrement invité à l'Elysée pendant les cinq années de la présidence de François Hollande. Ces réunions de responsables de grosses compagnies étrangères étaient à l'époque organisées par Muriel Pénicaud, présidente de Business France, et avaient pour but de renforcer l'attractivité de la France. Ces rendez-vous étaient coordonnés à l'Elysée par Emmanuel Macron, qu'on voyait tous les six mois environ. Quand il est devenu ministre de l'Économie, il a continué à participer à ces réunions dans le cadre de ses nouvelles fonctions. Depuis qu'il est devenu président de la République, il organise dans le même esprit des sommets, non seulement pour écouter ce que ces groupes étrangers pensent de la France, mais aussi pour permettre une meilleure utilisation des technologies avec l'initiative « Tech for Good » par exemple. Emmanuel Macron a grandi avec les nouvelles technologies, il les utilise et les comprend. Comme je l'ai évoqué à propos du rapport Villani sur l'intelligence artificielle, ses capacités d'écoute et d'analyse sont impressionnantes. Ses qualités ne passent certainement pas inaperçues auprès des grands de ce monde, et c'est certainement l'une des raisons pour lesquelles le Président Sohn de Samsung a été séduit.

Young Sohn est le Président et Chief Strategy Officer de Samsung. Il est l'un des responsables, en charge de la stratégie et de l'innovation, d'une des plus grosses entreprises du monde, qu'il n'est guère besoin de présenter. C'est lui qui m'a recruté en 2012, et qui m'a tout récemment renouvelé sa confiance. Même si, au tout début, il ne comprenait pas grand-chose quand je lui parlais de cloud ou d'IoT, il m'a toujours soutenu. Samsung est fondamentalement une compagnie qui fabrique du matériel. C'est la raison pour laquelle lui, comme d'ailleurs les autres responsables qui viennent de ce milieu, ont du mal quand on parle de logiciels et de services. Mais il sait que l'avenir et le développement de la société passent par cette transformation. C'est pour cela qu'il m'a laissé travailler en toute liberté sur le cloud pendant cinq ans, et qu'il m'a demandé de venir m'occuper de l'intelligence artificielle, quoi que ça veuille dire.

C'est au même moment que le député Cédric Villani, médaille Fields de mathématiques, commençait une mission sur l'intelligence artificielle et j'ai eu la chance d'être invité à participer à ces travaux lors d'un passage à Paris. Je me suis mieux rendu compte de la dynamique qui animait les équipes autour du Président Macron, et je dois dire que j'ai plutôt été impressionné. J'ai décidé d'essayer d'apporter ma pierre à ce qui avait tout l'air d'une entreprise de reconstruction de la France. J'avais rencontré Emmanuel Macron en 2013 alors qu'il n'était encore que conseiller du Président Hollande à l'Elysée. À l'époque, je m'intéressais beaucoup aux débuts très prometteurs de la French Tech, initiée par Fleur Pellerin, alors secrétaire d'État au Numérique. J'ai sympathisé avec Fleur et ses conseillers, et nous nous sommes un jour retrouvés pour un événement à l'Elysée, au cours duquel j'ai rencontré Emmanuel Macron pour la première fois. Nous nous sommes ensuite croisés de nombreuses fois, même après qu'il ait été nommé ministre, lors d'événements organisés par le gouvernement où Samsung était convié. Malgré son aide et celle des services de l'État, je n'avais jamais réussi à faire grandir de façon significative la présence de Samsung en France en termes de recherche et développement (R&D). Maintenant qu'il était président de la République, que flottait un nouvel air pro-business susceptible de séduire Samsung, et qu'en plus le rapport Villani allait montrer que la France était prête à relever de nouveaux défis technologiques, je me suis dit qu'il y avait quelque chose à tenter. J'ai proposé au Président Sohn d'investir dans un centre « d'intelligence artificielle » à Paris, qui serait une vitrine pour la compagnie et une opportunité donnée à la France de mettre en avant ses meilleurs ingénieurs dans ces nouveaux domaines. Un accord gagnant- gagnant ! Une fois l'idée validée, j'ai organisé un rendez-vous entre le Président Macron et le Président Sohn à l'Elysée pour annoncer ce nouveau laboratoire au moment de la remise du rapport Villani à la fin du mois de mars 2018, et j'ai accepté d'en prendre la direction.

Outre la satisfaction d'avoir enfin fait quelque chose pour la France, la cérémonie de remise du rapport a été pour moi l'occasion de constater combien le député de l'Essonne et le président de la République étaient des esprits brillants. Ce qui n'aurait guère dû me surprendre pour le scientifique de génie qu'est Villani, a quand même réussi à m'étonner. Alors qu'il ne connaissait pas grand-chose à l'intelligence artificielle six mois auparavant, il avait en quelques semaines su se forger une opinion de manière très synthétique, et en parlait comme s'il l'avait étudiée pendant vingt ans. Mais plus étonnant encore a été le discours du Président, une trentaine de minutes sans note, au cours duquel il a su extraire les points importants du rapport qu'il avait à l'évidence assimilés. Un contraste flagrant avec les politiciens de la vieille école que j'avais rencontrés dans le passé et qui ne faisaient que resservir les notes de leurs conseillers.

Grâce à des bases mathématiques très solides, les ingénieurs français sont très bons pour comprendre les données, même complexes, créer des algorithmes et les appliquer. C'est justement ce sur quoi ce nouveau laboratoire de Samsung va travailler. Nous allons embaucher une centaine de personnes, des matheux qui savent programmer et des programmeurs qui comprennent les maths. La mission de ce centre s'inscrit dans la continuité du cloud que nous avons développé. Maintenant que les données sont disponibles à tous, nous allons créer les applications et services intelligents qui vont être utiles au plus grand nombre.