Léa

Cyberama : Superintelligence

Imaginez une sorte de superintelligence, une intelligence supérieure à l’humain à tous points de vue. Que ferait une telle intelligence à nous, les humains ? Voudriez-vous coopérer avec nous – ou simplement nous détruire ? Le philosophe numérique d’Oxford, Nick Bostrom, a développé un scénario inquiétant. Une usine contrôlée par une superintelligence est programmée pour maximiser la production de trombones. Elle ne s’arrête jamais jusqu’à ce qu’elle finisse par transformer toute la matière de l’univers en trombones. Et même si cette superintelligence était programmée pour produire seulement un certain nombre de trombones, il y aurait un problème. Parce que le programme vérifierait en permanence s’il a effectivement atteint son objectif – et utiliserait pour cela toute l’énergie de l’univers. Dans les deux cas, le résultat serait la fin du monde.

Aussi absurde que puisse paraître le scénario, il nous fait réfléchir à une question cruciale dans le développement des machines intelligentes. Il ne s’agit pas de savoir comment empêcher les machines de devenir plus intelligentes que nous – elles le sont déjà dans de nombreux domaines. La question est plutôt de savoir comment développer des systèmes intelligents dans lesquels nous, les humains, continuons à jouer un rôle crucial, même si nous sommes bien plus bêtes que les machines. Les gens doivent être capables d’arrêter les machines intelligentes même si celles-ci savent mieux faire. Sinon, les machines nous détruiront un jour parce qu’elles n’ont tout simplement plus besoin de nous, les humains. C’est une décision que nous pouvons encore prendre aujourd’hui. Dans 20 ou 30 ans, il sera peut-être trop tard. Ensuite, les superintelligences décident pour nous.

A lire :  Prix ​​de la Coopération ACR 2015 : L'innovation ciblée renforce les PME dans la compétition

Qu’est-ce que tu en penses? S’il vous plait, écrivez moi [email protected]

Laisser un commentaire