La peur de Terminator
Est-ce que l’intelligence artificielle sera un jour une menace pour l’humanité ? Les signaux d’alarme se multiplient pour afficher une certaine peur de Terminator.
Il y a trente ans, la sortie en salle du film Terminator n’était en fait qu’un récit de science-fiction. Aujourd’hui, cette menace semble toujours aussi diffuse. Pourtant plusieurs sommités mondiales ont déjà tiré le signal d’alarme face à cette menace potentielle.
En 2014, Elon Musk, patron de Tesla et de SpaceX, ainsi que le célèbre astrophysicien Stephen Hawking avait déjà mis en garde contre les dangers liés à l’intelligence artificielle. Le premier a évoqué « la plus grande menace existentielle » alors que le second a parlé d’un risque qui pourrait « sonner le glas de la race humaine ». La semaine dernière, c’est au tour de Bill Gates, le fondateur de Microsoft, d’estimer que « dans quelques décennies l’intelligence artificielle sera suffisamment forte pour poser problème ».
À l’heure actuelle, l’intelligence artificielle est dite « faible ». Elle concerne des machines autonomes qui sont capables de simuler des comportements humains, comme tenir une conversation à l’instar de ce que propose déjà imparfaitement certaines applications. La menace n’est pas à chercher de ce côté.
Par contre, l’intelligence artificielle dite « forte », celle qui désigne des machines qui auraient réellement conscience d’elles-mêmes, pourrait être « la » menace. Elles seraient capables d’apprendre, de comprendre et d’établir leurs propres raisonnements. Aujourd’hui, les plus optimistes ne voient pas arriver cette intelligence avant 2040 alors que certains pensent qu’il s’agit d’un objectif inatteignable.
La menace que des robots hors de contrôle tentent d’anéantir l’espèce humaine est donc pour le moment très faible. Pourtant, il est bon de tout de même remarquer que l’intelligence artificielle « faible » représente tout de même une menace. En effet, elle devient de plus en plus omniprésente pour influencer nos choix, assister les chirurgiens, nous guider dans nos déplacements, surveiller, choisir nos médicaments, etc. Certes cela ne va pas tuer l’humanité, mais cela va quelque part la rendre totalement dépendante de la technologie, ce qui n’est pas forcément bon non plus.