Léa

L’expert en IA Trappl : « L’ironie est très difficile »

Est-ce que ChatGPT vous plait ?
Piège
Je pense que c’est super. Les concurrents comme Google doivent maintenant voir comment ils peuvent suivre le rythme. Il faut dire que c’est une évolution vraiment impressionnante.
Pourquoi au fait ?
Piège
Parce qu’il est si polyvalent. Les développeurs d’OpenAI auraient stocké 360 milliards de mots. Ils ont créé une énorme base de connaissances, un modèle de relations de sens qui génère des résultats en utilisant plus que de simples probabilités. Les gens doivent ensuite l’entraîner à exprimer des réponses appropriées.

Mais il fonctionne avec des modèles statistiques et calcule quels composants de mots correspondent le plus probablement à une question ?
Piège
Bien sûr aussi, mais pas seulement. Il dispose simplement d’une base de connaissances. Sinon, cela produirait trop de bêtises.
ChatGPT ne produit-il pas beaucoup de faux résultats ?
Piège
Bien entendu, ce travail est loin d’être terminé ; il existe certainement de grandes lacunes. Par exemple, il pourrait y avoir de l’ironie ou une blague dans les phrases enregistrées, auquel cas le système donnerait peut-être des interprétations erronées. Mais si un tel programme est capable de passer un examen du barreau aux États-Unis, il doit posséder de nombreuses connaissances.
C’est ça qui l’a fait ?
Piège
Oui. Il n’a pas répondu correctement à toutes les questions, mais suffisamment pour qu’il soit réussi.
Lorsqu’il s’agissait de rédiger des articles médicaux, cela échouait souvent.
Piège
Oui, mais le programme ne peut pas avoir des connaissances spécialisées dans tous les domaines. En médecine, de nombreux articles spécialisés ne sont pas accessibles gratuitement et des illustrations sont nécessaires pour les comprendre.
Si la base de connaissances était beaucoup plus vaste, GPT serait-il parfait ?
Piège
Pas parfait, mais c’est proche.
Mais un tel programme ne pouvait-il pas supporter l’ironie ?
Piège
Apparemment, il y a des problèmes avec ça. Mais c’est aussi un défi très difficile. Nous avons nous-mêmes à l’institut un spécialiste qui s’occupe de l’humour. Sa question est de savoir comment une machine peut comprendre si un énoncé contient de l’humour.
Et est-ce que ça marche ?
Piège
Dans certains domaines, oui. Notre spécialiste Tristan Miller y travaille depuis des années. Il s’intéresse au sujet en tant que linguiste.

Robert Trappl

est l’un des pionniers internationaux dans le domaine de l’intelligence artificielle. En 1969, Trappl a participé à la création de la Société autrichienne d’études sur la cybernétique et a lui-même fondé l’Institut autrichien de recherche sur l’intelligence artificielle (OFAI), avec une trentaine de chercheurs, qu’il dirige encore aujourd’hui. De plus, en tant que professeur émérite de longue date, il occupe actuellement quatre postes d’enseignant dans trois universités.

À quoi ChatGPT peut-il être utilement utilisé à l’avenir ? Vous pouvez simuler les devoirs, mais ce ne sera pas l’application principale.
Piège
La question principale est : à qui faites-vous du mal ? Un programme comme celui-ci rend beaucoup de texte superflu lors du développement ultérieur…
… le nôtre, par exemple.
Piège
Oui. Je pense aussi aux procès où le verdict est formulé sur 250 pages. Je serais curieux de voir ce qui pourrait être fait dans ce domaine avec un ChatGPT plus développé. Je pense aussi aux actes d’accusation ou aux mémoires de la défense, ainsi qu’aux articles spécialisés. Certains auteurs scientifiques ont déjà écrit ChatGPT en tant que co-auteur. Mais les éditeurs n’ont pas accepté cela parce qu’il ne s’agissait pas d’une personne.
Et parce qu’un programme ne peut pas prendre ses responsabilités.
Piège
C’est en plus de ça.
Cela serait encore plus critique en cas de décision de justice. Qui est responsable des formulations d’une IA ?
Piège
Oui, mais vous pouvez aussi faire rédiger d’abord un texte long, très laborieux et qui prend beaucoup de temps, puis le vérifier et le corriger. Nous avons automatisé les rapports météorologiques il y a de nombreuses années. Dans le cadre d’un projet européen, nous avons développé des programmes pour les lettres de médecin et les avis de pension. De nombreux ensembles debout et blocs de construction sont utilisés.
Un texte littéraire est quelque chose de différent. Le lecteur ne peut-il pas faire la différence ?
Piège
Il n’est certainement pas si difficile d’intégrer la structure littéraire des livres dans un tel programme.
D’une certaine manière, l’écrivain crée quelque chose de nouveau. Un système comme celui-ci n’est-il pas simplement un puzzle de quelque chose qui existe déjà ?
Piège
Les auteurs ont essentiellement deux approches. Certains disposent d’une description précise de l’intrigue et des personnages et construisent une histoire selon les lois dramaturgiques habituelles. Vous pouvez également demander au programme d’écrire comme Hemingway ou de suivre un philosophe allemand de la fin du XVIIIe siècle. D’autres auteurs se surprennent lorsqu’ils écrivent, et cela arrive aussi aux compositeurs. C’est alors certainement un défi pour un programme.
Et la question est : voulons-nous vraiment quelque chose comme ça ?
Piège
Faut-il l’interdire ? Je pense que c’est difficile. Faut-il tirer un trait et dire, par exemple, que seules les personnes sont autorisées à écrire ou à composer des romans ? Je n’ose pas répondre à ça. Mais dans l’histoire, il n’a jamais été possible de dire à long terme que les choses ne peuvent plus continuer à partir de là. Seules les religions ont ça.
Des systèmes fermés qui sont intrinsèquement immunisés contre l’innovation.
Piège
Même. Mais peut-être que de toute façon, personne ne veut lire de la littérature sur l’IA.
Ou encore, à l’avenir, le fait qu’un livre soit écrit par un être humain sera considéré comme une caractéristique de qualité particulière.
Piège
Ou vous voulez savoir quelles nouveautés ce programme d’écriture fou d’OpenAI a maintenant publié.
Quoi qu’il en soit, le développement ne s’arrêtera pas.
Piège
Je ne crois pas. Cela va certainement s’améliorer, mais je ne sais pas s’il y a des limites. C’est ce qu’on appelle souvent la créativité, la spontanéité ou l’expérience humaine.
Certains systèmes d’IA sont si avancés qu’ils apprennent et prennent des décisions par eux-mêmes. Peuvent-ils nous échapper ?
Piège
C’est le problème de l’explicabilité. Avec l’avènement du deep learning, il devient de plus en plus difficile d’expliquer comment un programme arrive à ses résultats et pourquoi certains résultats sont faux et d’autres non. Lorsqu’il existe des centaines de milliers de neurones avec des millions de connexions à 20 niveaux, il n’est plus possible de dire quelle est la raison d’un résultat particulier.
Alors vous ne sauriez pas comment une IA parvient à un diagnostic médical ou décide de la solvabilité d’une personne ? Et s’il commet de graves erreurs dans le processus ?
Piège
C’est certainement formidable de voir à quelle fréquence ces programmes réussissent. Mais dans quels cas individuels ils ont complètement tort, nous ne le savons tout simplement pas. Et certainement pas pourquoi.
Ce ne sont pas de bonnes perspectives si vous recevez un diagnostic de cancer.
Piège
Il est toujours irresponsable de les utiliser pour quelque chose comme ça sans contrôle humain. Il ne suffit pas qu’ils soient presque toujours géniaux, mais dans de rares cas, ils ont complètement tort.

A lire :  Échantillons

Laisser un commentaire