Qu’est-ce que l’IA ?

Définition de l'intelligence artificielle (IA)

Yann Le Cun, chercheur français en intelligence artificielle et en vision artificielle chez Facebook est considéré comme l’un des inventeurs de l’apprentissage profond (‘deep learning’), définit l’intelligence artificielle comme « un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux ».

Cette définition est communément admise aujourd’hui. Mais remontons à ses origines…

Qui a créé l’intelligence artificielle ?

Les origines de l’IA sont souvent renvoyées à 1950. Cette année-là, le mathématicien et cryptologue britannique Alan Turing rédige un article dans lequel il propose un test déterminant : une machine peut-elle posséder une conscience ?

Le Test de Turing propose ainsi de mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si l’humain considère que l’ordinateur est un autre être humain, on considère alors que l’ordinateur a passé le test avec succès – et que la machine est « intelligente ». C’est d’ailleurs ce test qui a en partie inspiré le film ‘The Imitation Game’, réalisé en 2014 par Morten Tyldum avec Benedict Cumberbatch dans le rôle de Alan Turing.

Mais c’est en 1956 que le terme d’ « intelligence artificielle » est réellement inventé. Le mathématicien John McCarthy organise au Darmouth College (Etats-Unis) un séminaire au cours duquel est inventé l’expression. Un nouveau champ d’études est alors né.

Vont alors se succéder des décennies de recherche. Or, par moments, les résultats de cette recherche n’ont pas été à la hauteur de l’engouement suscité par l’intelligence artificielle. C’est ce qu’on a appelé les « hivers de l’IA » : des périodes d’investissements réduits, et d’intérêt limité de la part des sphères académiques et industrielles. La période de 1974 à 1980 en est l’exemple le plus emblématique.

Cependant, le début des années 2010 constitue un virage pour la discipline. Portée par le big data et l’explosion de la puissance de calcul des ordinateurs, l’intelligence artificielle commence à devenir un sujet de fascination. En 2012, lors du concours de reconnaissance d’images ImageNet Challenge (une compétition annuelle où des équipes de recherche évaluent leurs algorithmes de traitement d’images pour obtenir la meilleure précision), un cap est définitivement franchi grâce à l’IA. Alors que jusque-là les meilleurs programmes ne parvenaient pas à baisser sous le seuil des 25% de taux d’erreur, celui de l’université de Toronto est vainqueur avec seulement 16% d’erreurs.

Comment fonctionne une IA ?

L’intelligence artificielle est en réalité un terme plutôt générique. Si elle part toujours d’une phase d’apprentissage d’algorithmes intelligents à partir de données, elle se décline ensuite en une pluralité de techniques. En voici les plus courantes.

Le machine learning est l’une des techniques les plus connues. Il donne aux systèmes informatiques la possibilité d’apprendre et de s’améliorer automatiquement à partir d’une expérience sans être explicitement programmé pour. Le machine learning se concentre sur le développement d’algorithmes qui peuvent analyser des données et faire des prédictions, une aide à la précision. Ses applications sont multiples, et courantes dans la vie de tous les jours : recommandations Netflix, optimisation d’un trajet Uber… Mais il est également appliqué de manière plus large aux secteurs de la santé (aide au diagnostic des maladies par interprétation des images médicales), ou encore de la banque (lutte contre la fraude).

Le deep learning est un sous-ensemble du machine learning. Il utilise des reseaux neuronaux artificiels, qui apprennent en traitant des données. Ces réseaux neuronaux imitent les réseaux neuronaux biologiques du cerveau humain. Plusieurs couches travaillent ensemble pour déterminer une sortie (un ‘output’) à partir de plusieurs entrées (le ‘input’). La machine apprend alors par un renforcement positif et négatif des tâches qu’elle accomplit, ce qui la fait progresser.

Le Natural Language Processing (NLP), ou traitement du langage naturel, permet lui aux ordinateurs d’interpréter, de reconnaître et de produire le langage humain. L’objectif ultime du NLP est de permettre une interaction transparente avec les machines que nous utilisons, et à entrainer les machines à comprendre le langage dans son contexte et à produire des réponses logiques – en d’autres termes, passer le fameux Test de Turing !

Quels sont les avantages et les risques de l’intelligence artificielle ?

Alors qu’en 2015 le marché de l’intelligence artificielle pesait 200 millions de dollars, on estime qu’en 2025, il s’élèvera à près de 90 milliards de dollars. Ses applications sont multiples : médecine, transports, finance… et même dans la musique ! C’est en effet le projet de Daniele Ghisi, mathématicien et compositeur : créer une machine qui fabrique de la musique. On entre en mémoire un corpus de sons existants, et le logiciel restitue ensuite de nouveaux sons – alors qu’il ne sait pas ce qu’est une note ni un langage musical !

Similairement à l’impact qu’avait pu avoir l’électricité, l’intelligence artificielle a donc vocation à se diffuser dans toutes les strates de la société. Or cela ne va pas sans risques. Biais algorithmique, risques pour l’emploi, risques systémiques liés à l’hyperconnexion des systèmes, armes létales autonomes, protection des données personnelles… Autant d’enjeux qui nécessitent cruellement d’une réflexion collective.

Là est justement le rôle de la Fondation l’IA pour l’Ecole : offrir les clés aux prochaines générations pour susciter cette réflexion collective. Permettre à tous de comprendre cette nouvelle révolution technologique – et surtout de se l’approprier.