L’intelligence artificielle menacerait l’humanité

Dans une tribune publiée sur le site du Time Magazine, Eliezer Yudkowsky, chercheur et théoricien de renom spécialisé dans l’intelligence artificielle, a exposé les risques considérables qui résultent du développement trop rapide de l’IA.

Ce dernier n’a pas hésité à mentionner la perspective inquiétante d’une disparition pure et simple de l’humanité.

À la tête des recherches menées au sein du Machine Intelligence Research Institute (MIRI), une association à but non lucratif se consacrant à la sensibilisation des dangers et intérêts potentiels de l’IA, Yudkowsky a dressé un tableau sombre de l’avenir de l’humanité si la technologie continue de progresser à une telle vitesse.

Alors que de nombreux scientifiques demandent un arrêt temporaire des recherches sur l’IA pendant au moins six mois, Yudkowsky a appelé les dirigeants et les experts du secteur à suspendre toutes les activités de recherche pour une période indéterminée, sous peine de franchir un seuil critique à partir duquel il serait impossible de revenir en arrière.

Selon lui, il est tout à fait possible qu’un laboratoire de recherche franchisse des « lignes critiques » sans même s’en apercevoir.

Cette « ligne critique » est représentée, selon le chercheur américain, par le développement d’une IA à l’intelligence surhumaine qui, dans les circonstances actuelles, pourrait causer la fin de l’humanité.

Pour Yudkowsky, il est tout à fait possible de survivre en créant quelque chose de beaucoup plus intelligent que nous, mais cela nécessite « de la précision, de la préparation et de nouvelles connaissances scientifiques » que nous n’avons pas actuellement.

Cependant, sans cette précision et cette préparation, le résultat le plus probable serait une IA qui ne ferait pas ce que nous voulons et ne se soucierait pas de nous ni de la vie sensible en général.

Le scientifique utilise plusieurs métaphores pour illustrer la situation dans laquelle se retrouverait l’humanité. Il parle notamment de « l’australopithèque essayant de combattre l’Homo sapiens » ou encore de « l’11ᵉ siècle essayant de combattre le 21ᵉ siècle ».

Yudkowsky souligne également l’absence de plan des entreprises derrière les IA en cas de scénario catastrophe. « L’intention ouvertement déclarée d’OpenAI est de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA.

Le simple fait d’entendre ce plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan. » affirme-t-il.

Si le chercheur admet que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir des données d’entraînement, il note également le peu d’informations que nous avons sur les composants internes de ces systèmes.

Cet état d’ignorance est, selon lui, d’autant plus inquiétant si ChatGPT-5 réalise un bond aussi important que celui observé entre GPT-3.

Partager
error: Content is protected !!