Le pionnier de l’IA Geoffrey Hinton n’est pas convaincu que la bonne IA l’emporte sur la mauvaise IA

Le pionnier de l’IA Geoffrey Hinton n’est pas convaincu que la bonne IA l’emporte sur la mauvaise IA

Geoffrey Hinton, professeur à l’Université de Toronto, souvent surnommé le “” pour ses recherches pionnières sur les réseaux de neurones, est récemment devenu le chien de garde non officiel de l’industrie. Il a quitté Google ce printemps pour critiquer plus librement le domaine qu’il a contribué à promouvoir. Il a vu dans l’essor récent des IA génératives les signes d’une accélération incontrôlée et potentiellement dangereuse du développement. Pendant ce temps, Google abandonnait apparemment sa retenue précédente alors qu’il s’en prenait à des concurrents avec des produits comme le sien.

Lors de la conférence Collision de cette semaine à Toronto, Hinton a développé ses préoccupations. Alors que les entreprises vantaient l’IA comme la solution pour tout, de la conclusion d’un bail à l’expédition de marchandises, Hinton sonnait l’alarme. Il n’est pas convaincu que la bonne IA l’emporte sur la mauvaise variété, et il pense que l’adoption éthique de l’IA peut avoir un coût élevé.

Une menace pour l’humanité

Geoffrey Hinton (à gauche), professeur à l’Université de Toronto, s’exprimant lors de Collision 2023.

Photo de Jon Fingas/Engadget

Hinton a soutenu que l’IA était seulement aussi bonne que les personnes qui l’ont fabriquée, et que la mauvaise technologie pouvait toujours gagner. “Je ne suis pas convaincu qu’une bonne IA essayant d’arrêter les méchants puisse prendre le contrôle”, a-t-il expliqué. Il peut être difficile d’empêcher le complexe militaro-industriel de produire, par exemple, dit-il : Les entreprises et les militaires peuvent “aimer” les guerres dans lesquelles les victimes sont des machines qui peuvent être facilement remplacées. Et tandis que Hinton pense que de grands modèles de langage (une IA formée qui produit un texte de type humain, comme ) pourraient entraîner de fortes augmentations de la productivité, il craint que la classe dirigeante n’exploite cela simplement pour s’enrichir, creusant un écart de richesse déjà important. . “Cela rendrait les riches plus riches et les pauvres plus pauvres”, a déclaré Hinton.

Hinton a également réitéré son point de vue très médiatisé selon lequel l’IA pourrait aider l’humanité. Si l’intelligence artificielle devient plus intelligente que les humains, rien ne garantit que les gens resteront aux commandes. “Nous sommes en difficulté” si l’IA décide que prendre le contrôle est nécessaire pour atteindre ses objectifs, a déclaré Hinton. Pour lui, les menaces « ne sont pas que de la science-fiction » ; vous devez les prendre au sérieux. Il craint que la société n’arrête les robots tueurs qu’après qu’ils aient eu la chance de voir “à quel point ils sont horribles”.

Il existe de nombreux problèmes existants, a ajouté Hinton. Il soutient que cela reste des problèmes, car des données de formation à l’IA biaisées peuvent produire des résultats injustes. Des algorithmes sont également créés qui renforcent la désinformation et les problèmes de santé mentale. Hinton craint également que l’IA ne répande de fausses informations au-delà de ces caméras. Il ne sait pas s’il est possible d’attraper toutes les fausses déclarations, bien qu’il soit “important de marquer tout ce qui est faux comme faux”.

Cela ne veut pas dire que Hinton désespère de l’impact de l’IA, bien qu’il prévienne que des utilisations saines de la technologie peuvent avoir un prix élevé. Les humains peuvent avoir besoin de faire un “travail empirique” pour comprendre comment l’IA pourrait mal tourner et l’empêcher de prendre le contrôle. Il est déjà “faisable” de corriger les biais, a-t-il ajouté. Un excellent modèle de langage d’IA pourrait mettre fin aux chambres d’écho, mais Hinton considère que les changements de politique de l’entreprise sont particulièrement importants.

Le professeur n’a pas mâché ses mots dans sa réponse aux questions sur les personnes perdant leur emploi en raison de l’automatisation. Il estime que le “socialisme” est nécessaire pour lutter contre les inégalités, et que les gens pourraient se protéger contre le chômage en adoptant des carrières qui pourraient changer avec le temps, comme la plomberie (et non, il ne plaisante pas). En effet, la société devra peut-être procéder à des changements radicaux pour s’adapter à l’IA.

L’industrie reste optimiste

Colin Murdoch de Google DeepMind à Collision 2023
Colin Murdoch, CBO de Google DeepMind, à Collision 2023.

Photo de Jon Fingas/Engadget

Les conversations précédentes sur Collision étaient plus optimistes. Le chef d’entreprise de Google DeepMind, Colin Murdoch, a déclaré dans une autre discussion que l’IA résolvait certains des défis les plus difficiles au monde. Il n’y a pas beaucoup de controverse sur ce front : DeepMind catalogue, combat les bactéries résistantes aux antibiotiques et accélère même les travaux. Il a imaginé une “intelligence générale artificielle” qui pourrait résoudre de multiples problèmes, citant les produits Google comme exemple. est utile pour décrire des photos, mais la technologie sous-jacente rend également les courts métrages YouTube consultables. Murdoch est allé jusqu’à qualifier les six à 12 derniers mois de “moment d’ampoule” pour que l’IA libère son potentiel.

Le scientifique en chef de Roblox, Morgan McGuire, est largement d’accord. Il pense que la plate-forme de jeu “a comblé l’écart” entre les nouveaux créateurs et les vétérans, facilitant l’écriture de code et la création de matériel dans le jeu. Roblox publie même un modèle d’IA open source, StarCoder, qui, espère-t-il, aidera les autres en rendant les grands modèles de langage plus accessibles. Alors que McGuire a reconnu les défis liés à la mise à l’échelle et à la modération du contenu dans une discussion, il pense qu’il a des possibilités “illimitées” grâce à son pool créatif.

Murdoch et McGuire ont exprimé certaines des mêmes préoccupations que Hinton, mais leur ton était nettement moins alarmiste. Murdoch a souligné que DeepMind voulait une IA “sûre, éthique et inclusive”, citant comme preuves les consultations d’experts et les investissements dans l’éducation. L’exécutif insiste sur le fait qu’il est ouvert à la réglementation, mais seulement tant qu’elle permet des “avancées étonnantes”. À son tour, McGuire a déclaré que Roblox a toujours publié des outils d’IA génératifs avec modération de contenu, s’est appuyé sur divers ensembles de données et a pratiqué la transparence.

un peu d’espoir pour l’avenir

Morgan McGuire de Roblox dans Collision 2023
Le scientifique en chef de Roblox, Morgan McGuire, prend la parole à Collision 2023.

Photo de Jon Fingas/Engadget

Malgré les gros titres résumant ses récents commentaires, l’enthousiasme général de Hinton pour l’IA n’a pas faibli depuis son départ de Google. S’il n’avait pas démissionné, il était sûr qu’il travaillerait sur des modèles d’IA multimodaux où la vision, le langage et d’autres signaux aident à éclairer les décisions. “Les jeunes enfants n’apprennent pas seulement à partir du langage”, a-t-il déclaré, suggérant que les machines pourraient faire de même. Aussi préoccupé qu’il soit par les dangers de l’IA, il pense qu’elle pourrait finalement faire tout ce qu’un humain peut faire et faisait déjà preuve de “petits morceaux de raisonnement”. GPT-4 peut être adapté pour résoudre des énigmes plus difficiles, par exemple.

Hinton reconnaît que son discours sur Collision n’a pas dit grand-chose sur les bonnes utilisations de l’IA, comme la lutte contre le changement climatique. L’avancement de la technologie de l’IA était probablement sain, même s’il était toujours important de s’inquiéter des implications. Et Hinton a ouvertement admis que son enthousiasme n’a pas faibli malgré les problèmes éthiques et moraux qui l’attendent. “J’adore ces choses”, a-t-il déclaré. « Comment ne pas aimer faire des choses intelligentes ? »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*