Geoffrey Hinton, le « parrain » de l’intelligence artificielle, nous mettait en garde contre cette technologie avant son départ de Google en 2023

😁 Si vous appréciez cet article, n’hésitez pas à faire un don à votre guise. Merci.

Geoffrey Hinton est un pionnier de l’intelligence artificielle. En 2012, le Dr Hinton et deux de ses étudiants diplômés de l’Université de Toronto ont créé une technologie qui est devenue le fondement intellectuel des systèmes d’intelligence artificielle (IA) que les plus grandes entreprises du secteur technologique considèrent comme la clé de leur avenir. Le 1er mai 2023, il a cependant officiellement rejoint un chœur croissant de critiques qui affirment que ces entreprises courent vers le danger avec leur campagne agressive visant à créer des produits basés sur l’intelligence artificielle générative, la technologie qui alimente les chatbots populaires comme ChatGPT.

Le Dr Hinton a déclaré qu’il avait quitté son emploi chez Google, où il a travaillé pendant plus de dix ans et est devenu l’une des voix les plus respectées du domaine, afin de pouvoir s’exprimer librement sur les risques de l’IA. Une partie de lui, a-t-il dit, regrette désormais le travail de toute une vie. « Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », a déclaré le Dr Hinton lors d’une longue entrevue dans la salle à manger de sa maison à Toronto, à quelques pas de l’endroit où lui et ses étudiants ont fait leur percée.

Le parcours du Dr Hinton, de pionnier de l’IA à prophète de malheur, marque un tournant important pour l’industrie technologique, qui en est peut-être à son point d’inflexion le plus important depuis des décennies. Les leaders de l’industrie estiment que les nouveaux systèmes d’IA pourraient être aussi importants que l’introduction du navigateur Web au début des années 1990 et pourraient conduire à des avancées dans des domaines allant de la recherche pharmaceutique à l’éducation.

Mais de nombreux acteurs du secteur craignent de diffuser quelque chose de dangereux dans la nature. L’IA générative peut déjà être un outil de désinformation. Bientôt, elle pourrait représenter un risque pour l’emploi. À terme, selon les plus grands inquiets de la technologie, elle pourrait représenter un risque pour l’humanité. « Il est difficile de voir comment on peut empêcher les mauvais acteurs de l’utiliser à de mauvaises fins », a déclaré le Dr Hinton.

Après que la start-up de San Francisco OpenAI a publié une nouvelle version de ChatGPT en mars 2023, plus de 1 000 leaders et chercheurs en technologie ont signé une lettre ouverte appelant à un moratoire de six mois sur le développement de nouveaux systèmes, car les technologies d’IA présentent « de profonds risques pour la société et l’humanité ». Quelques jours plus tard, 19 dirigeants actuels et anciens de l’Association pour l’avancement de l’intelligence artificielle, une société universitaire vieille de 40 ans, ont publié leur propre lettre d’avertissement sur les risques de l’IA. Ce groupe comprenait Eric Horvitz, directeur scientifique de Microsoft, qui a déployé la technologie d’OpenAI sur une large gamme de produits, y compris son moteur de recherche Bing.

Le Dr Hinton, souvent surnommé « le parrain de l’intelligence artificielle », n’a signé aucune de ces lettres et a déclaré qu’il ne souhaitait pas critiquer publiquement Google ou d’autres entreprises avant d’avoir quitté son emploi. Il a informé l’entreprise de sa démission et le 27 avril 2023, il s’est entretenu au téléphone avec Sundar Pichai, le directeur général de la société mère de Google, Alphabet. Il a refusé de discuter publiquement des détails de sa conversation avec M. Pichai. Jeff Dean, scientifique en chef de Google, a déclaré dans un communiqué : « Nous restons engagés dans une approche responsable de l’IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »

Le Dr Hinton, un expatrié britannique de 75 ans, est un universitaire de longue date dont la carrière a été guidée par ses convictions personnelles sur le développement et l’utilisation de l’IA. En 1972, alors qu’il était étudiant diplômé à l’Université d’Édimbourg, le Dr Hinton a adopté une idée appelée réseau neuronal. Un réseau neuronal est un système mathématique qui apprend des compétences en analysant des données. À l’époque, peu de chercheurs croyaient en cette idée. Mais c’est devenu l’œuvre de sa vie.

Dans les années 1980, le Dr Hinton était professeur d’informatique à l’université Carnegie Mellon, mais il a quitté l’université pour le Canada parce qu’il était réticent à accepter des financements du Pentagone. À l’époque, la plupart des recherches sur l’intelligence artificielle aux États-Unis étaient financées par le ministère de la Défense. Le Dr Hinton est profondément opposé à l’utilisation de l’intelligence artificielle sur le champ de bataille – ce qu’il appelle des « soldats robots ».

En 2012, le Dr Hinton et deux de ses étudiants de Toronto, Ilya Sutskever et Alex Krishevsky, ont construit un réseau neuronal capable d’analyser des milliers de photos et d’apprendre à identifier des objets courants, tels que des fleurs, des chiens et des voitures. Google a dépensé 44 millions de dollars pour acquérir une entreprise fondée par le Dr Hinton et ses deux étudiants. Leur système a donné naissance à des technologies de plus en plus puissantes, notamment de nouveaux chatbots comme ChatGPT et Google Bard. M. Sutskever est ensuite devenu scientifique en chef chez OpenAI. En 2018, le Dr Hinton et deux autres collaborateurs de longue date ont reçu le prix Turing, souvent appelé « le prix Nobel de l’informatique », pour leurs travaux sur les réseaux neuronaux.

➤ Ilya Sutskever, scientifique en chef d’OpenAi, a travaillé avec le Dr Hinton sur ses recherches à Toronto. Crédit : Jim Wilson/The New York Times.

À la même époque, Google, OpenAI et d’autres entreprises ont commencé à créer des réseaux neuronaux capables d’apprendre à partir d’énormes quantités de textes numériques. Le Dr Hinton pensait que c’était un moyen puissant pour les machines de comprendre et de générer du langage, mais que c’était inférieur à la façon dont les humains géraient le langage. En 2022, alors que Google et OpenAI ont développé des systèmes utilisant des volumes de données bien plus importants, son point de vue a changé. Il pensait toujours que ces systèmes étaient inférieurs au cerveau humain sur certains points, mais qu’ils éclipsaient l’intelligence humaine sur d’autres. « Peut-être que ce qui se passe dans ces systèmes est bien meilleur que ce qui se passe dans le cerveau », a-t-il déclaré.

Selon lui, à mesure que les entreprises améliorent leurs systèmes d’IA, ces derniers deviennent de plus en plus dangereux. « Regardez comment c’était il y a cinq ans et comment c’est aujourd’hui », a-t-il déclaré à propos de la technologie de l’IA. « Prenez la différence et propagez-la. C’est effrayant. » Jusqu’à l’année 2022, a-t-il dit, Google s’est comporté comme un « intendant approprié » de la technologie, veillant à ne pas publier quelque chose qui pourrait causer du tort. Mais maintenant que Microsoft a enrichi son moteur de recherche Bing avec un chatbot – remettant en cause le cœur de métier de Google – Google se précipite pour déployer le même type de technologie. Les géants de la technologie sont engagés dans une compétition qui pourrait être impossible à arrêter, a déclaré le Dr Hinton.

Sa préoccupation immédiate est que l’Internet soit inondé de fausses photos, vidéos et textes, et que le citoyen moyen « ne puisse plus savoir ce qui est vrai ».

Il craint également que les technologies d’intelligence artificielle ne bouleversent à terme le marché du travail. Aujourd’hui, les chatbots comme ChatGPT tendent à compléter les travailleurs humains, mais ils pourraient remplacer les assistants juridiques, les assistants personnels, les traducteurs et autres personnes qui effectuent des tâches routinières. « Cela supprime le travail fastidieux », a-t-il déclaré. « Cela pourrait supprimer bien plus que cela. » Il craint que les futures versions de cette technologie ne constituent une menace pour l’humanité, car elles apprennent souvent des comportements inattendus à partir des énormes quantités de données qu’elles analysent. Cela devient un problème, dit-il, lorsque des particuliers et des entreprises permettent aux systèmes d’IA non seulement de générer leur propre code informatique, mais aussi d’exécuter ce code eux-mêmes. Et il craint qu’un jour des armes véritablement autonomes – ces robots tueurs – deviennent une réalité. « L’idée que ces objets puissent devenir plus intelligents que les gens – peu de gens y croyaient », a-t-il déclaré. « Mais la plupart des gens pensaient que c’était très loin. Et moi aussi, je pensais que c’était très loin. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »

De nombreux autres experts, dont nombre de ses étudiants et collègues, estiment que cette menace est hypothétique. Mais le Dr Hinton estime que la course entre Google et Microsoft et d’autres va se transformer en une course mondiale qui ne s’arrêtera pas sans une forme de régulation mondiale. Mais cela pourrait être impossible, a-t-il dit. Contrairement aux armes nucléaires, il n’existe aucun moyen de savoir si des entreprises ou des pays travaillent en secret sur cette technologie. Le meilleur espoir est que les meilleurs scientifiques du monde collaborent pour trouver des moyens de contrôler cette technologie. « Je ne pense pas qu’ils devraient étendre cette technologie tant qu’ils n’auront pas compris s’ils peuvent la contrôler », a-t-il dit.

Le Dr Hinton a déclaré que lorsqu’on lui demandait comment il pouvait travailler sur une technologie potentiellement dangereuse, il paraphrasait Robert Oppenheimer, qui a dirigé les efforts américains pour construire la bombe atomique : « Quand vous voyez quelque chose qui est techniquement intéressant, vous allez de l’avant et vous le faites. » Il ne dit plus ça.



➽ Un autre parrain de l’intelligence artificielle, Yoshua Bengio, dit qu’il faut prendre du recul

Yoshua Bengio, chercheur québécois d’origine marocaine, spécialisé en IA.

Le 22 mars 2023, une lettre ouverte ― cosignée par des dizaines de personnes dans le domaine de l’IA, dont le milliardaire de la technologie Elon Musk ― appelait à une pause sur tous les développements plus avancés que la version actuelle du chatbot IA ChatGPT afin que des mesures de sécurité robustes puissent être conçues et mises en œuvre.

Yoshua Bengio, un autre soi-disant parrain de l’IA, qui, avec le Dr Hinton et Yann LeCun, a remporté le prix Turing 2018 pour leurs travaux sur l’apprentissage profond, a également signé la lettre. M. Bengio a écrit que c’est en raison de « l’accélération inattendue » des systèmes d’intelligence artificielle que « nous devons prendre du recul ». Mais le Dr Hinton a déclaré à la BBC qu’à « court terme », il pensait que l’IA apporterait beaucoup plus d’avantages que de risques, « donc je ne pense pas que nous devrions arrêter de développer ce genre de choses », a-t-il ajouté.

Il a également déclaré que la concurrence internationale rendrait difficile une pause. « Même si tout le monde aux États-Unis arrêtait de développer ce produit, la Chine aurait une grande avance », a-t-il déclaré. Le Dr Hinton a également déclaré qu’il était un expert en science, et non en politique, et qu’il était de la responsabilité du gouvernement de veiller à ce que l’IA soit développée « avec beaucoup de réflexion sur la manière d’empêcher qu’elle ne devienne un fléau ».

« Approche responsable »

Le Dr Hinton a souligné qu’il ne voulait pas critiquer Google et que le géant de la technologie avait été très responsable : « En fait, je voudrais dire quelques bonnes choses à propos de Google. Et elles sont plus crédibles si je ne travaille pas pour Google ».

Dans un communiqué, Jeff Dean, responsable scientifique de Google, a déclaré : « Nous restons engagés dans une approche responsable de l’intelligence artificielle. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »



➽ Stoppons les expérimentations sur les IA : Lettre Ouverte

Future of Life Institute, 22 mars 2023

➤ Nous appelons tous les laboratoires à stopper immédiatement le développement des IA plus puissantes que GPT-4 pour une durée d’au moins 6 mois.

Les Intelligences Artificielles capables de rivaliser avec l’intelligence humaine peuvent poser de sérieuses menaces pour la société et l’humanité, comme l’ont démontré des recherches approfondies et comme l’ont approuvé les laboratoires d’IA les plus proéminents. Les Principes d’Asilomar l’ayant ainsi déclaré, la technologie de l’IA avancée est en passe de changer radicalement l’histoire de la vie sur Terre, et doit donc être planifiée et gérée avec beaucoup de soin, de recul et de ressources. Hélas, nous n’avons pas encore pris les précautions nécessaires, alors même que ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des puissances numériques toujours plus titanesques sur lesquelles personne – pas même leurs créateurs – n’a une capacité totale de compréhension, d’anticipation ou de contrôle.

Les systèmes d’’intelligence artificielle contemporains rivalisent avec l’homme pour toutes sortes de tâches, et nous devons nous poser la question : devons-nous laisser des machines inonder nos moyens d’information de propagande et de vérités subjectives ? Devons-nous automatiser tous les emplois, même ceux qui nous permettent à nous, être humains, de nous réaliser ? Devons-nous développer des esprit artificiels qui pourraient devenir plus nombreux, plus intelligents, au point que nos esprit humains deviendraient obsolètes ? Sommes-nous prêts à mettre le contrôle de notre civilisation en péril ? Une telle décision ne doit pas, ne peut pas être prise par des leaders de la technologie qui n’ont pas été élus ou qui ne sont pas qualifiés sur le sujet. Des ’intelligences artificielles aussi puissantes ne devraient être développées seulement après avoir obtenu la certitude que leur impact sera positif et que les risques en découlant sont sous contrôle. Cette certitude doit être assurée et son importance doit aller de paire avec l’importance des potentiels effets négatifs générés par ces systèmes. La déclaration sur l’’intelligence artificielle générale d’OpenAI indique qu’« à un moment donné, il est vital que les créateurs aient l’approbation d’une entité indépendante avant de commencer le développement de futurs systèmes, et pour les plus avancés, que leur puissance de processing soit limitée lorsqu’il s’agit de créer de nouveaux modèles ». Cela semble évident. Ce « moment donné » est maintenant.

C’est pourquoi, nous appelons tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissantes que GPT-4. Cette halte devrait être publique et vérifiable, et doit inclure tous les acteurs essentiels dans ce domaine. Si une telle pause ne peut pas être appliquée rapidement, les gouvernements doivent entrer en jeu et instituer un moratoire.

Les laboratoires et les experts indépendants devraient utiliser ce temps de pause pour co-développer et élaborer un ensemble de protocoles de sécurité pour la conception et le développement d’IA avancées qui devront être rigoureusement vérifiés par des experts indépendants. Ces protocoles ont pour effet d’assurer que les systèmes y adhérant sont sûrs sans l’ombre d’un doute. Cela ne signifie aucunement la fin du développement de l’IA, mais simplement un retrait de cette course dangereuse aux Black-box toujours plus grandes dont nous ne prendrions conscience des effets négatifs que trop tard.

La recherche et le développement de l’’intelligence artificielle doit être réorienté et avoir pour objectif de rendre les puissants systèmes actuels plus précis, fiables, compréhensibles, transparents, robustes, dignes de confiance et loyaux.

En outre, les développeurs d’’intelligence artificielle doivent, en union avec les responsables politiques, travailler pour accélérer drastiquement le développement de systèmes de contrôle des AI robustes. Cela doit inclure à minima : de nouvelles et réelles autorités de régulation sur le sujet de l’IA ; la surveillance et le suivi des systèmes artificiels les plus performants et les plus puissants ; une clarté de la provenance et un filigrane pour ces systèmes de manière à pouvoir différencier un modèle authentique d’une contrefaçon ; un écosystème de vérification et de certification fiable ; ainsi que des institutions dotées de ressources suffisantes pour compenser les perturbations économiques et politiques (surtout pour la démocratie) que les ’intelligences artificielles causeront.

L’humanité pourra ainsi profiter d’un avenir florissant avec l’IA. Après avoir réussi à créé des systèmes artificiels puissants et performants, nous pourrons ainsi récolter les fruits de notre labeur, continuer de créer ces systèmes pour le bien commun, et donner une bonne chance à la société de s’adapter et prospérer. La société a justement su fixer des limites pour d’autres technologies aux effets potentiellement dévastateurs, nous pouvons faire de même avec l’IA. Profitons des bénéfices de l’’intelligence artificielle actuelle sans nous précipiter vers un désastre.



Abonnez-vous à ma lettre d'information
Ne ratez rien de ce site ! Soyez alerté(e) dès la publication d’un nouvel article.
* Ajoutez newsletter@guyboulianne.info à votre carnet d'adresse.
icon

Janet Knight
5

« Votre blog est une mine d'or. Je vous suis sur VK. Félicitation monsieur Boulianne et merci d'exister. »

💛 😁 Vous avez apprécié cet article ? Je vous remercie de m’offrir un café. 😃 💛
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
1154510cookie-checkGeoffrey Hinton, le « parrain » de l’intelligence artificielle, nous mettait en garde contre cette technologie avant son départ de Google en 2023
Suivez-moi sur le réseau X | guy.boulianne@gmail.com | Website | + posts

En tant qu’auteur et chroniqueur indépendant, Guy Boulianne est membre du réseau d’auteurs et d’éditeurs Authorsden aux États-Unis, de la Nonfiction Authors Association (NFAA), ainsi que de la Society of Professional Journalists (SPJ). Il adhère de ce fait à la Charte d’éthique mondiale des journalistes de la Fédération internationale des journalistes (FJI).

Partager cet article sur les réseaux sociaux :
S’abonner
Notification pour
guest

8 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Traduire/Translate
Ce contenu est protégé ! Merci.
8
0
J'aimerais bien avoir votre avis concernant cet article. Veuillez laisser un commentaire.x