Il y a quelques années encore la notion d’intelligence artificielle (IA) paraissait tout droit sortie d’un roman de science-fiction. Ce terme est désormais omniprésent dans nos médias et, par extension, dans notre quotidien professionnel. Les performances de l’IA se sont accrues en un battement de cil. L’espoir avorté d’un ordinateur plus «intelligent» que l’Homme dans les années 1970 a été ranimé par les avancées technologiques des années 2010.
Les victoires du Deep Blue d’IBM face à Garry Kasparov (1997) et du AlphaGo de DeepMind1 (2016) face aux meilleurs joueurs mondiaux du jeu de Go - dont la complexité des règles et le nombre de combinaisons possibles semblaient donner un avantage considérable à l’Homme - ont fait renaître le spectre d’une intelligence informatique détrônant le cerveau biologique.2
L’évolution récente fut tout autre. Pourtant l’IA peut générer des craintes. Alors qu’au XIXe siècle les industries voyaient poindre l’arrivée des machines remplaçant les ouvriers, l’IA est désormais perçue comme capable de se substituer à l’Homme pour des tâches «intellectuelles».
La médecine n’échappe pas à la règle. Une certaine confusion semble s’installer quant à son développement - exponentiel - actuel et son intégration dans notre pratique clinique. Mais connaissez-vous vraiment l’IA? Qui parmi vous serait capable d’en donner une définition précise ? Est-elle vraiment une menace pour les médecins ?
L’IA n’est pas enseignée en faculté de médecine. Or l’ignorance conduit à la peur, à l’amalgame, à la désinformation. Définition, donc, de l’IA. Ou plutôt des IA.
Historiquement, c’est le mathématicien John McCarthy et le cognitiviste Marvin Lee Minsky, qui créèrent en 1956 le terme «intelligence artificielle». Lee Minsky définissait l’IA comme : «la construction de programmes informatiques qui s'adonnent à des tâches qui sont accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique». L’IA renvoie donc à l’emploi de technologies multiples, nées dans les années 1950, et qui reposent sur l’utilisation d’algorithmes.
L’«algorithme» est un concept mathématique datant du IXe siècle ; il est issu de la latinisation du nom du mathématicien Al-Khawarizmi. Un algorithme est une suite finie d’opérations ou d’instructions permettant, à l’aide d’entrées, de résoudre un problème (sorties). Les algorithmes sont omniprésents dans notre quotidien : par exemple, cuisiner un plat (problème) grâce à différents ingrédients et ustensiles en respectant une recette de cuisine (entrées) est un algorithme.
Schématiquement, un algorithme permet à un ordinateur de répondre aux problèmes que nous lui soumettons. Ainsi, lors de la traduction d’un texte (problème), l’algorithme de traduction reçoit des entrées (le texte à traduire) et fournit des sorties (le texte traduit).
Les IA, telles que nous les connaissons actuellement, sont nées… d’échecs en tout genre depuis les années 1960. Mais il est actuellement admis qu’un des plus grand succès en terme d’IA est l’apprentissage par la machine elle-même (machine learning). Pendant des années l’Homme a essayé de programmer les ordinateurs en recopiant le raisonnement humain : il faisait fausse route. Les IA actuelles apprennent, se perfectionnent, s'entraînent, mais ne se programment pas : elles créent leurs propres algorithmes. Pour cela, il leur faut trois ingrédients...
Cette puissance provient du processeur de l’ordinateur. Cofondateur des processeurs Intel, Gordon Moore avait affirmé en 1965 que le nombre de transistors des processeurs d’une puce de silicium (reflet de la puissance de calcul d’un ordinateur) allait doubler, à prix constants, tous les 18 mois3. En 2019, cette «loi de Moore» est toujours vérifiable. En effet, les «super calculs» d’un ordinateur sont effectués par le microprocesseur (CPU - control processing unit), boosté par des systèmes de mémoires vives dans la machine.
Plus le nombre de transistor est grand, plus la puissance de calcul du CPU est importante. Plus le transistor est petit, plus la vitesse de conduction du signal est rapide et plus le nombre de transistor dans un CPU est élevé. Dans les années 70, un CPU comportait entre 3.000 et 30.000 transistors de la taille du millimètre et permettait un million d’opérations par seconde (Mégaflop). En 2010, un processeur commercial Intel™ comptait un milliard de transistors de 14 nm. Mais la loi de Moore risque de toucher ses limites : le transistor atteindra bientôt la taille de l’atome, or les technologies actuelles ne permettent pas la fabrication de transistors «infra-atomiques». Sauf si l’ordinateur quantique tient ses promesses...
On parle de big data. Alors que le cerveau d’un bébé reconnaîtra un chaton après en avoir vu deux ou trois, l’IA devra pour cela voir des millions de photos de chatons. Seules les grandes multinationales de l’informatique sont capables d’avoir autant de données. Siri, l’IA d’Apple, peut reconnaître les visages et les animaux sur les photos d’un iPhone. Mais ce n’est qu’après avoir collecté des milliards de photos sur son serveur qu’elle a réalisé cette prouesse.
C’est là qu’interviennent les GAFAMI américaines (Google, Apple, Facebook, Amazon, Microsoft, Intel) et les BATX chinois (Baidu, Alibaba, Tencent, Xiaomi). Ces entreprises collectent le plus de data au monde grâce à leurs utilisateurs. Elles se sont lancées dans l’amélioration des IA en s’aidant des données collectées via leurs utilisateurs (par exemple un simple post sur Facebook). Car ces données de départ sont essentielles : plus le système accumule d'expériences différentes, plus il sera performant.
Cette technologie utilise des réseaux de neurones artificiels multicouches, et donne aux IA la révolutionnaire capacité d’apprentissage (le deep learning est une sous-catégorie du machine learning). Ce système multicouche s’inspire directement du cerveau humain. En informatique, la théorie des neurones artificiels est à l’opposé des méthodes traditionnelles de résolution informatique : on ne construit plus un programme pas à pas en fonction de la compréhension de celui-ci. Ici, les réseaux de neurones artificiels s’ajustent de manière autonome en fonction de leur apprentissage, sans intervention de l’Homme.
Chaque couche de neurones artificiels correspond à un aspect de traitement de données (pour la reconnaissance d’une image, à chaque couche correspond un aspect particulier de l’image). À chaque couche, les «mauvaises» réponses sont éliminées et renvoyées vers les niveaux en amont pour ajuster le modèle mathématique (c’est la «rétropropagation»).
Par exemple, AlphaGo Zero, le successeur d’AlphaGo (première IA championne de jeu de Go), a appris à jouer en faisant des parties contre lui-même (apprentissage non supervisé), contrairement à son prédécesseur qui a appris le jeu de Go en observant des parties humaines (apprentissage supervisé). Au final, AlphaGo zéro obtenait un niveau digne des meilleurs joueurs humains en seulement trois jours.2
Le problème avec le machine learning, c’est que l’IA est capable de créer un algorithme... complètement incompréhensible par l’Homme. C’est ce qu’on appelle la «boîte noire» de l’IA et qui soulève des questionnements éthiques majeurs. Comment faire confiance à quelque chose qu’on ne peut pas expliquer ?
Malgré tous ces progrès, il faut garder en tête que les avancées technologiques ne permettent de créer que des programmes d’IA monotâches. C’est pour cela que l’on parle d’IA «faible». Mais l’arrivée des IA dites «fortes», capables de réaliser plusieurs tâches pourraient amener à la «singularité», c’est-à-dire à une IA surpassant l’Homme et doté d’une conscience artificielle. Personne ne sait si cette IA forte verra le jour, ni quand. Entre 2030 et 2100, ou jamais, selon les experts.
En attendant, que peut apporter l'IA à la médecine ?
Références :
1- Entreprise appartenant à Google®
2- Silver D, Schrittwieser J, Simonyan K, Antonoglou I, Huang A, Guez A, et al. Mastering the game of Go without human knowledge. Nature. 2017 18;550(7676):354–9.
3- Loi de Moore. In: Wikipédia [Internet]. 2020 [cited 2020 Sep 22].