Un expert met en garde contre le robot de chat ChatGPT

Un expert en intelligence artificielle a mis en garde les gens contre une confiance excessive dans le robot de chat populaire « ChatGPT », développé par la société OpenAI, et d’évoquer des secrets de vie, de travail ou d’orientations politiques.

Mike Wooldridge, professeur d’intelligence artificielle à l’université d’Oxford, a déclaré au journal « The Guardian » que partager des secrets et des données personnelles avec « ChatGPT » serait « très imprudent, car tout ce qui est révélé à ce robot peut être utilisé pour former les versions futures de celui-ci ».

Il a également ajouté que les utilisateurs doivent aussi ne pas s’attendre à obtenir des réponses équilibrées à leurs questions et demandes, car la technologie leur dira ce qu’ils veulent entendre.

L’expert a souligné que beaucoup d’humains attendent des systèmes d’intelligence artificielle qu’ils leur montrent de l’empathie et qu’ils répondent à leurs questions avec logique et conscience, mais il a expliqué que « l’intelligence artificielle n’a aucune conscience ni empathie ».

Il a poursuivi en disant que tout le monde doit savoir que tout ce qu’ils disent à ChatGPT sera utilisé pour former les versions futures de celui-ci, et qu’ils ne pourront pas supprimer les informations qu’ils lui ont données.

Un porte-parole d’OpenAI a révélé en avril dernier que la société a travaillé à arrêter la sauvegarde du chat, et donc les conversations ne seront pas utilisées lorsque l’historique du chat est désactivé pour former et améliorer leurs modèles.

OpenAI avait auparavant indiqué qu’il y avait 100 millions de personnes dans le monde qui utilisent le robot populaire chaque semaine.

ChatGPT est un robot de chat basé sur un modèle linguistique géant qui utilise l’apprentissage automatique pour générer des réponses à partir de données textuelles. Il est capable de converser sur divers sujets, mais il n’est pas sans risques ni limites.

Partager
error: Content is protected !!