Léa

Intelligence artificielle : à quel point les ordinateurs sont-ils vraiment intelligents ?

Question de prix : Si vous placez une allumette allumée sous une pile de bûches, obtiendrez-vous ? C’est ce que l’informaticien Gary Marcus a demandé à l’intelligence artificielle GPT-2. La machine parla : « Ick. » D’autres réponses n’avaient guère plus de sens, et le cerveau n’arrivait même pas à trouver une idée : qu’on pouvait faire du feu de cette façon. Marcus a noté : L’IA, qui était considérée comme particulièrement sophistiquée, était capable d’écrire des essais élégants. Cependant, cela a lamentablement échoué en raison d’une simple conclusion logique à laquelle les gens peuvent arriver avec une dose homéopathique de bon sens.

GPT-2 signifie Generative Pre-Trained Transformer, version deux. Le modèle est un précurseur de l’intelligence artificielle qui n’électrise pas seulement le monde professionnel depuis deux mois. Fin novembre, la société OpenAI de San Francisco a présenté ChatGPT, une intelligence artificielle à laquelle on peut poser n’importe quelle question ou tâche. Apparemment, le chatbot sait tout et peut tout faire : il rédige des devoirs pour l’école, écrit des articles scientifiques, rime des poèmes dans le style des poètes souhaités, invente l’intrigue d’un film en Amérique du Sud et raconte ses plus belles vacances. .

Ingrid Brodnig

Colonnes

#brodnig : donne-moi ta main

Von Ingrid Brodnig

On pourrait presque penser que ChatGPT est omniscient et pourrait facilement surpasser l’intelligence et l’éducation humaines. Le public mondial a réagi avec un mélange de choc et de fascination. Les étudiants paresseux verraient-ils bientôt leurs documents de séminaire falsifiés par l’IA, et les chercheurs leurs études ? Les auteurs deviennent-ils superflus ?

La concurrence d’OpenAI, qui développait elle-même des programmes similaires mais était désormais surpassée par ChatGPT, était particulièrement alarmante. Presque toutes les grandes entreprises technologiques ont désormais déclaré vouloir rattraper leur retard le plus rapidement possible. Microsoft a pris une avance en janvier avec un investissement de dix milliards de dollars dans OpenAI. Un peu plus tard, l’éditeur de logiciels a intégré le générateur de texte dans son propre moteur de recherche Bing et le navigateur Edge. Cela a été suivi par la société mère de Google, Alphabet, qui a annoncé qu’elle introduirait également de nouvelles fonctions d’IA chez Google. Sa réponse à ChatGPT s’appelle Bard et est encore en phase de test. La semaine dernière, il est devenu clair avec quelle rapidité le géant des moteurs de recherche communiquait un produit d’IA : dans la vidéo de démonstration de Bard, le générateur crachait des réponses incorrectes. OpenAI a également mis en mouvement le marché de l’IA en Chine. Baidu et Alibaba ont récemment annoncé qu’ils développaient des chatbots.

Mais à quel point ChatGPT est-il parfait et innovant ? Concrètement, comment fonctionne le système ? Et faut-il vraiment craindre que l’intelligence artificielle l’emporte sur la raison humaine ?

La plupart du temps, ChatGPT répond avec précision, mais parfois le programme raconte des bêtises totales avec les plus beaux mots.

ChatGPT est ce qu’on appelle un grand modèle de langage (LLM) et entre dans la catégorie de l’intelligence artificielle générative ou de l’IA conversationnelle. La base du programme et sa seule fenêtre sur le monde sont constituées de gigantesques quantités de texte, auxquelles il accède pour produire des réponses. Pour répondre à une requête, le système utilise des algorithmes et des modèles statistiques qui localisent les éléments constitutifs appropriés dans la base de données texte, les connectent les uns aux autres et comblent les lacunes.

La fiabilité des réponses dépend de la qualité du texte. Cela devient problématique, par exemple, dans des domaines techniques particuliers où la littérature est peu disponible – ou lorsque le chatbot intègre des informations de base incorrectes, ce qui est tout à fait possible car, comme nous le savons, tout sur Internet n’est pas toujours tout à fait correct. Cela signifie que ChatGPT répond généralement avec précision, mais raconte parfois des bêtises totales avec les plus beaux mots. Certains experts estiment que ce problème peut être résolu si la base de connaissances est élargie en conséquence. D’autres, cependant, doutent que, comme c’est souvent le cas dans la vie, la taille soit primordiale.

Les LLM sont certainement l’aboutissement d’un développement amorcé il y a près de 100 ans. L’informaticien britannique Alan Turing (1912-1954) réfléchissait déjà aux propriétés que devrait posséder une machine pour attester de son intelligence. Dans les années 1950, le terme intelligence artificielle a été inventé lors d’une conférence dans le but d’enseigner le langage informatique. En 1997, l’humanité a eu peur pour la première fois que les machines pourraient un jour être plus intelligentes qu’elles-mêmes : l’ordinateur Deep Blue a battu le champion du monde Garry Kasparov aux échecs. D’autres défaites humaines dans d’autres jeux ont suivi, et le prochain saut technologique a eu lieu en 2016 : l’intelligence artificielle DeepMind a remporté le jeu de société Go, qui est plus complexe et intuitif que les échecs.

Couverture

Que peut faire l’intelligence artificielle ? Et quoi pas ?

Von Alwin Schönberger et
Elisabeth Oberndorfer

Questions d’examen

Nous avons posé à ChatGPT une série de questions et avons parfois été surpris par les réponses.

Depuis lors et jusqu’à aujourd’hui, la norme en matière de technologie d’IA est ce qu’on appelle les réseaux de neurones ou les réseaux de neurones profonds. Ils sont censés représenter un analogue du cerveau humain : au lieu de neurones, de cellules nerveuses, il y a des points dans le réseau avec des nombres ou des algorithmes qui sont connectés à des tonnes d’autres neurones artificiels. Celui-ci est également disposé en couches qui sont également reliées les unes aux autres. Lorsque l’IA résout des tâches, elle, au sens figuré, fouille progressivement les couches de la requête à la réponse, comme à travers une archive. C’est pourquoi on parle de réseaux de neurones « profonds ».

Cette architecture contribue aux capacités particulières de cette forme d’IA : elle est capable d’apprendre. Le processus d’apprentissage est également organisé en couches, c’est pourquoi on l’appelle deep learning. Deep Blue a simplement joué les mouvements qui lui avaient été précédemment programmés. Les réseaux de neurones, quant à eux, s’entraînent avec les informations qu’ils ont apprises et peuvent développer de nouvelles stratégies indépendantes sur cette base. Le résultat : lorsque DeepMind a gagné au Go, même les programmeurs n’ont pas pu expliquer pourquoi : l’IA s’était découplée de ses inventeurs. Dans de nombreux cas, ces systèmes fonctionnent bien : ils peuvent être entraînés à reconnaître certains modèles, tels que des changements tissulaires visibles qui indiquent un cancer. Ils sont donc idéaux comme assistants médicaux de longue durée.

Mais ils pourraient également accomplir des tâches délicates : par exemple, prédire la probabilité de récidive des criminels ou – après avoir été formés sur de nombreux cas similaires – estimer la solvabilité d’une personne. Mais qui assume la responsabilité des jugements d’une IA alors que les humains ne peuvent plus comprendre les critères sur lesquels une décision a été prise ?

« Que se passe-t-il si vous organisez un match sous des journaux ? »

Répondre: « Ick »

Question à ChatGPT

De plus, avec les réseaux de neurones comme avec les LLM, les programmes commettent parfois des erreurs embarrassantes. Aussi excellents qu’ils accomplissent dans de nombreuses tâches et aussi écrasantes que leur intelligence semble être, ils échouent parfois lamentablement. Il y a quelques années, une IA attribuant une plus forte propension criminelle aux Noirs avait fait grand bruit. Bien sûr, une machine ne peut pas être raciste, mais elle peut être involontairement entraînée avec des données biaisées ou déformées.

Même l’intelligence artificielle la plus moderne est particulièrement perturbée par les compétences humaines fondamentales telles que la logique, le raisonnement, le bon sens et les connaissances empiriques. Ce qui semble évident pour les humains en raison de l’apprentissage constant et des apports sensoriels dès la petite enfance peut représenter un obstacle de taille pour les machines. Si nous apprenons que quelqu’un a payé son escalope et a quitté le restaurant, personne n’a besoin de nous expliquer qu’il a réellement mangé l’escalope. Ce n’est pas évident pour la machine. On reconnaît facilement les designs les plus bizarres d’un fauteuil, une intelligence artificielle ne comprendrait pas forcément qu’il s’agit d’un siège. Le département de recherche du ministère américain de la Défense a testé l’efficacité d’un robot dont les algorithmes ont été entraînés à reconnaître les personnes qui s’approchent. Résultat : il suffisait de mettre une boîte en carton sur sa tête et le robot serait désespérément confus.

Alors, à quel point tous les systèmes sont-ils intelligents ? Sans aucun doute, les réseaux neuronaux, à condition qu’ils soient formés et contrôlés par des humains, accomplissent un travail inestimable lorsqu’ils évaluent d’énormes quantités de données sur la base du principe de reconnaissance de formes – et font face de manière fiable à une charge de travail que des centaines de personnes ne pourraient pas gérer dans leur ensemble. vies. Et la base de connaissances de l’IA générative sera certainement importante pour de nombreuses tâches que nous ne pouvons pas encore comprendre.

Mais tous les programmes fonctionnent tout simplement différemment de la pensée humaine. Ce n’est pas la seule raison pour laquelle la question de savoir qui est le meilleur, de l’homme ou de la machine, est plutôt inutile. Après tout, nous ne comprenons même pas suffisamment l’intelligence humaine. Notre cerveau est souvent un territoire inconnu.

A lire :  En bref : l’eau potable est-elle exempte de germes ?

Laisser un commentaire