Olivier

EZRATTY

Conseil en Stratégie de l’Innovation

 

Les avancées de l’Intelligence Artificielle

 

retour au sommaire

Pourquoi vous-êtes-vous intéressé à l’Intelligence Artificielle ?

 

Je m’y suis intéressé par curiosité, étant toujours à l’affût de comprendre les technologies émergentes complexes et mal vulgarisées, comme le séquençage du génome et ses applications.

Je rentre dans une démarche pour essayer de comprendre quels en sont les sous-jacentes scientifiques puis les applications marché concrètes. Je souhaite valider si les propos des médias sont factuels. En matière d’Intelligence Artificielle, j’ai même regardé les émissions de Jeopardy que Watson a gagnées pour en comprendre tous les tenants et aboutissants.

 

 

Comment définiriez-vous l’Intelligence Artificielle ?

 

A l’origine, il s’agissait de reproduire dans la machine des éléments de raisonnement issus de l’intelligence humaine. Dans la pratique, l’univers de l’IA recouvre plus de choses que l’intelligence humaine. Le traitement des grands volumes de données et l’identification de tendances dépassent le cerveau humain. L’IA ne reproduit pas pour autant tous les mécanismes de l’intelligence humaine. L’IA a donc déjà dépassé l’intelligence humaine dans certains domaines, et pas dans d’autres. Les deux sont pour l’instant très complémentaires.

 

 

En quoi l’Intelligence Artificielle se différencie-t-elle du Big Data ?

 

Dans le principe, le Big Data relève de projets d’exploitation de grands volumes de données. Les techniques utilisées, de type Machine Learning, s’apparentent au fonctionnement du cerveau pour identifier des patterns, des tendances ou des signaux faibles. La segmentation, l’étude des données comportementales et socio-économiques sont difficiles à faire avec des techniques statistiques traditionnelles. Les statistiques, basées sur les modèles bayésiens, consistent en l’interrogation de bases de données relativement classiques.

 

En revanche les techniques de traitement du langage, Natural Language Processing (NLP), utilisées pour exploiter les données, sont déjà à la frontière de l’Intelligence Artificielle.

 

Les “victoires” de l’IA, Watson dans Jeopardy en 2011 et AlphaGo en 2016, s’appuient sur l’exploitation de très gros volumes de données. Même si ces progrès peuvent paraître impressionnants, il s’agit d’évolutions modestes car elles sont réalisées dans des domaines très spécialisés. Watson, s’appuie également sur de larges volumes de données pour aider les cancérologues à adapter les traitements des patients. L’Intelligence Artificielle manifeste sa puissance quand elle a accès à beaucoup de données.

 

Dans la reconnaissance de la parole, les techniques nécessitaient au départ un long apprentissage. Il fallait répéter des mots pour permettre l’apprentissage du système. Ces techniques évoluent pour qu’il n’y ait pas besoin d’apprentissage spécifique à chaque utilisateur.

Dans la plupart des cas, les avancées dans le domaine de la reconnaissance de la parole sont issues de la recherche publique, de recherche et développement au sein de grandes entreprises comme Amazon, Google ou encore Apple, mais elles proviennent également d’acquisition de startups.

Apple utilise notamment les technologies de reconnaissance de la parole de Nuance dans son logiciel Siri. Le marché de la reconnaissance vocale s’est consolidé, l’américain Nuance ayant notamment racheté les droits de la société belge Lernout & Hauspie ainsi que Dragon Voice recognition, qui était distribué par IBM.

 

Les recherches portent désormais plus sur les agents conversationnels type chatbot, qui peuvent s’interfacer avec la reconnaissance de la parole. C’est ce que fait actuellement Google Home.

 

 

Dans l’ensemble des classifications recensées, laquelle vous parait être la plus pertinente ?

 

Les classifications à très haut niveau de l’Intelligence Artificielle relèvent de la science-fiction.

 

L’Artificial Narrow Intelligence (ANI) correspond à l’état de l’art actuel dans le domaine : des solutions d’IA très spécialisées. Cela a commencé avec les systèmes jouant et gagnant aux échecs comme Deep Blue d’IBM en 1997, puis avec des systèmes experts pointus comme dans certains secteurs de la santé. On peut y classer les moteurs de recherche courants, la détection de fraudes bancaires, le credit rating de particuliers, la conduite automatique ou assistée, Apple SIRI, Microsoft Cortana et Google Translate.

 

L’Artificial General Intelligence (AGI), est celle qui se rapproche le plus de l’intelligence humaine avec un côté polyvalent et notamment la capacité à raisonner, analyser des données, résoudre des problèmes variés et notamment raisonner par analogies. On peut intégrer dans ce niveau un grand nombre des capacités humaines : l’usage du langage, de la vue et des autres sens, la mémoire, la pensée, le jugement et la prise de décisions, la résolution de problèmes multi-facettes, l’apprentissage par la lecture ou l’expérience, la perception du monde et de soi-même, l’invention et la créativité, la capacité à réagir à l’imprévu dans un environnement complexe ou encore la capacité d’anticipation, cette liste est très longue ! Pour l’instant, on en est encore loin, même si certaines de ces capacités notamment linguistiques et de raisonnement général sont en train de voir le jour dans l’IA.

 

L’Artificial Superior Intelligence (ASI) est quant à elle caractérisée par la puissance des machines qui se démultiplie et se distribue plus facilement que celle d’un cerveau humain. A ce niveau, l’intelligence de la machine dépasse mécaniquement celle de l’homme dans tous les domaines y compris dans la créativité et même dans l’agilité sociale.

 

Dans certains domaines où la puissance brute compte, nous nous trouvons déjà dans l’AGI voir l’ASI. Dans ceux de la reconnaissance de l’environnement, de la reconnaissance visuelle et de l’intelligence émotionnelle, l’Intelligence Artificielle n’égale pas encore celle de l’homme. On continue de découvrir pas à pas la manière dont le cerveau fonctionne en termes de capacité brute, la manière dont les neurones enregistrent l’information et s’interconnectent. A chaque découverte, cela retarde l’échéance théorique d’une machine qui aurait la sophistication d’un cerveau humain. Il n’y aura probablement jamais d’Intelligence Artificielle équivalente à l’humain avec la même expérience à l’âge adulte, sa mortalité, son fonctionnement hormonal, ses sens. En revanche les machines nous dépassent déjà dans la capacité d’analyse de très grands volumes de données ne nécessitant pas d’intelligence sensorielle ou émotionnelle.

L’Intelligence Artificielle sera parfaite mais sous une forme différente de l’homme. Ce qui obscurcit actuellement notre compréhension du sujet, c’est la définition anthropomorphique qu’on lui donne. Mais nos créations ne sont pas à notre image, n’ont pas nos sens par exemple.

 

L’histoire des technologies a toujours montré que les nouveautés technologiques généraient de nouvelles peurs comme l’invention du nucléaire, qui engendre pourtant moins de morts que le charbon.

Ces peurs sont justifiées en partie mais ne doivent pas limiter nos créations.

 

 

Comment évolue l’écosystème en termes d’acteurs ?

 

L’écosystème de l’Intelligence Artificielle est plutôt simple à comprendre. Il s’agit d’un ensemble de nouvelles techniques avec des usages variés dans de nombreux domaines au même type que le cloud par exemple. L’Intelligence Artificielle est intégrée dans un grand nombre de startups technologiques.

On voit naître des Pure Players avec de nouveaux usages basés uniquement sur des techniques d’Intelligence Artificielle, des briques open source qui utilisent des sources de données variées, qui sont assemblées à la main.  Dans la plupart des cas, nous sommes sur des démarches empiriques et expérimentales.

 

On exagère parfois l’avance des grands acteurs de l’Intelligence Artificielle. Google dénombre beaucoup de spécialistes de l’Intelligence Artificielle, mais la masse critique des chercheurs est dans les laboratoires publics. Ils sont d’ailleurs souvent amenés à fonder leurs propres startups. DeepMind, créé en 2010 et acquis par Google en 2014, était une entreprise de 50 personnes, créé par des chercheurs d’Oxford et de Cambridge, qui ont appliqué les résultats de leurs travaux de recherche.

Aux Etats Unis, les produits des travaux des chercheurs de Stanford, du MIT sont majoritairement rachetés par Google. Il s’agit d’un phénomène classique qui régit le fonctionnement de l’ensemble de l’écosystème numérique.

Il y a cependant encore beaucoup de chercheurs dans les universités, les laboratoires de recherche publics financés par des deniers publics. Aux Etats-Unis, 90% de la recherche vient des aides fédérales et la moitié est financée par le domaine militaire et les services de renseignements. L’«Agence pour les projets de recherche avancée de défense» (DARPA) finance la plupart des projets de recherche en robotique. Les crédits DARPA ont par exemple financé Boston Dynamics, que Google est en train d’essayer de revendre.

 

 

Si vous deviez nous citer quelques startups recensées dans vos chroniques, quelles seraient-elles ?

 

La plus grande moitié des startups en Intelligence Artificielle s’intéresse au secteur du commerce en ligne, au Data Marketing pour prédire les comportements des clients mais les startups s’illustrant dans le domaine de la santé sont, selon moi, les plus prometteuses et positives dans la mesure où elles touchent un sujet sensible et noble.

 

CardioLogs a développé un premier service d’analyse des électrocardiogrammes en ligne, basé sur des algorithmes de Machine Learning, qui fournit aux praticiens des informations pour les aider dans l’interprétation des ECG.

 

Deep Genomics a créé le DG Engine qui analyse les variations du génome, les mutations de l’ADN, et la manière dont elles affectent le fonctionnement des cellules et génèrent des pathologies.

 

Enlitic propose de l’aide au diagnostic en s’appuyant principalement sur les résultats de systèmes d’imagerie médicale (IRM, scanner, radios) et sur du deep learning. C’est une sorte d’équivalent apparemment généraliste d’IBM Watson qui se positionne plutôt dans la prévention, détectant des pathologies émergentes le plus tôt possible, notamment les cancers du poumon.

 

Ginger.io a conçu un outil de diagnostic et de prescription de traitement pour diverses pathologies neuropsychologiques. Il exploite des applications mobiles pour le diagnostic et du Machine Learning. La solution permet un auto-traitement de certaines pathologies par les patients.

 

Lumiata est dans la même lignée, un système d’analyse de situation de patient permettant d’accélérer les diagnostics, notamment en milieu hospitalier.

 

Behold.ai a développé une solution d’analyse d’imagerie médicale pour aider les radiologues à faire leur diagnostic qui s’appuie sur du machine learning. Le système compare les images de radiologie avec et sans pathologies pour détecter les zones à problèmes, comme les nodules et autres formes de lésions.

 

Cognitive Scale a créé la solution Cognitive Clouds. Elle est notamment proposée aux adolescents atteints de diabète type 1 pour les aider à se réguler, en intégrant les aspects médicaux (prise d’insuline, suivi de glycémie), d’activité physique et d’alimentation.

 

Atomwise utilise le Machine Learning pour découvrir de nouveaux médicaments et vérifier leur non toxicité. Le principe consiste à simuler l’interaction entre des milliers de médicaments connus et une pathologie telle qu’un virus, et d’identifier celles qui pourraient avoir un effet par simulation des interactions moléculaires. Un premier résultat aurait été obtenu en 2015 sur un virus d’Ebola.

 

MedAware fournit une solution qui permet d’éviter les erreurs de prescription médicamenteuse en temps réel pour les médecins en incluant des briques de Big Data et de Machine Learning qui exploitent notamment des bases de données médicales d’historiques de patients.

 

 

Quelles sont les autres applications de l’Intelligence Artificielle ?

 

On trouve de l’Intelligence Artificielle appliquée aux moteurs d’analyses prédictives, à la recherche visuelle avec des applications sectorielles diverses. Les applications de l’Intelligence Artificielle dans les services financiers sont nombreuses avec de l’optimisation de taux d’intérêts de prêts, de la détection de fraude, du credit rating d’emprunteurs basé sur les réseaux sociaux, de l’optimisation de planification financière et d’investissements. Elles sont également nombreuses dans le secteur du commerce, du marketing, des ressources humaines et des services juridiques. L’Intelligence Artificielle se voit également appliquée dans la sécurité informatique, l’agriculture et bien sûr la recherche scientifique. Kaggle est par exemple une communauté mondiale de Data Scientists travaillant sur des défis d’Intelligence Artificielle. L’Intelligence Artificielle peut permettre d’augmenter la productivité dans tous les métiers qui manipulent un corpus de données très dense, que le cerveau humain n’est pas en mesure de mémoriser en entier.

 

 

Quelle est la maturité des entreprises françaises en termes d’IA ?

 

Je n’observe pas d’avance ou de retard particulier en France. Les recherches sont très actives au sein de l’INRIA et du CNRS desquels émergent de nombreuses startups. L’Europe dispose d’une tradition scientifique et mathématique particulièrement intéressante pour les recherches en Intelligence Artificielle.

Beaucoup d’entreprises utilisent l’Intelligence Artificielle pour perfectionner leurs offres ainsi que comme outil de communication, une formule pour surfer sur la vague actuelle. Nous accusons cependant toujours un certain retard dans l’internationalisation de nos startups, dans l’IA comme dans tous les autres secteurs.

Olivier Ezratty allie une bonne connaissance des technologies numériques et de leurs applications dans les industries traditionnelles comme les médias, les industries et les services. Il intervient régulièrement dans l’écosystème des startups numériques de par son rôle de président des comités d’agrément de Scientipôle Initiative, ses contributions au sein de Cap Digital et la rédaction du Guide des Startups, diffusé gratuitement depuis 2005. Veilleur technologique, il s’exprime notamment au travers de son blog Opinions Libres dédié aux stratégies et politiques de l’innovation, à l’entrepreneuriat ainsi qu’à une veille technologique multi-facettes. Il rédige notamment un rapport annuel de visite du CES de Las Vegas. En 2015, il a publié 9 chroniques sur les avancées de l’Intelligence Artificielle (IA) en s’appuyant en grande partie sur une recherche bibliographique extensive, c’est dans ce cadre que nous avons souhaité l’interviewer.