Le groupe Prevent Killer Robots a explicitement rejeté le scénario Terminator.
Les avertissements fusent de toutes portions : l’intelligence artificielle constitue une risk existentielle pour l’humanité et doit être maîtrisée avant qu’il ne soit trop tard.
Mais quels sont ces scénarios catastrophes et remark les machines sont-elles censées anéantir l’humanité ?
Trombone d’agonie
L. a. plupart des scénarios de disaster commencent au même endroit : les machines dépasseront les capacités humaines, échapperont au contrôle humain et refuseront d’être éteintes.
“Dès que nous disposons de machines destinées à l’auto-préservation, nous avons un problème”, a déclaré Yoshua Bengio, un universitaire en intelligence artificielle, lors d’un événement ce mois-ci.
Mais comme de telles machines n’existent pas encore, imaginer remark l’humanité sera condamnée est souvent laissé à l. a. philosophie et à l. a. science-fiction.
Le philosophe Nick Bostrom a écrit sur une « explosion de l’intelligence » qui, selon lui, se produira lorsque les machines superintelligentes commenceront à concevoir leurs propres machines.
Il a illustré l’idée à travers l’histoire de l. a. super-IA dans une usine de trombones.
L’IA a pour objectif ultime de maximiser l. a. manufacturing de trombones et “begin donc par convertir d’abord l. a. Terre, puis des events de plus en plus grandes de l’univers observable en trombones”.
Les idées de Bostrom ont été rejetées par beaucoup comme de l. a. science-fiction, notamment parce qu’il a soutenu séparément que l’humanité est une simulation informatique et soutenu des théories proches de l’eugénisme.
Le philosophe Nick Bostrom a imaginé une intelligence artificielle tremendous intelligente qui transforme l. a. Terre en trombone.
Il a également récemment présenté ses excuses après l. a. découverte d’un message raciste qu’il avait envoyé dans les années 1990.
Cependant, ses idées sur l’intelligence artificielle ont european une affect considérable, inspirant à l. a. fois Elon Musk et le professeur Stephen Hawking.
L. a. scenario ou l. a. fin
Si les machines superintelligentes veulent détruire l’humanité, elles ont certainement besoin d’une forme body.
Le robotic aux yeux rouges d’Arnold Schwarzenegger envoyé du futur pour mettre fin à l. a. résistance humaine grâce à l’intelligence artificielle dans “The Terminator” s’est révélé être une symbol tentante, notamment pour les médias.
Mais les mavens ont rejeté cette idée.
« Il est peu possible que ce thought de science-fiction devienne une réalité dans les décennies à venir, voire pas du tout », a écrit le groupe de campagne Prevent Killer Robots dans un rapport de 2021.
Cependant, le groupe a averti que donner aux machines le pouvoir de prendre des décisions de vie ou de mort présente un risque existentiel.
L’skilled en robotique Kirsten Dutenhahn, de l’Université de Waterloo au Canada, a minimisé ces préoccupations.
Le scientifique en intelligence artificielle Stuart Russell pense que les vrais robots tueurs seront petits, aériens et viendront en essaims.
Elle a déclaré à l’AFP qu’il est peu possible que l’intelligence artificielle donne aux machines des capacités de réflexion plus élevées ou leur donne le désir de tuer tous les humains.
« Les robots ne sont pas mauvais », a-t-elle déclaré, tout en reconnaissant que les programmeurs pouvaient leur faire faire des choses mauvaises.
Des produits chimiques plus mortels
Un scénario de science-fiction moins évident voit des « mauvais acteurs » utiliser l’IA pour créer de nouvelles toxines ou virus et les libérer sur le monde.
Il s’avère que les grands modèles de langage comme GPT-3, qui a été utilisé pour créer ChatGPT, sont très efficaces pour inventer de nouveaux brokers chimiques choquants.
Un groupe de scientifiques qui utilisaient l’IA pour découvrir de nouveaux médicaments ont mené une expérience dans laquelle ils ont modifié leur IA pour rechercher des molécules nocives.
Ils ont pu produire 40 000 elements toxiques en moins de six heures, comme le rapporte l. a. revue Nature Gadget Intelligence.
Joanna Bryson, experte en IA de l’école Hertie de Berlin, a déclaré qu’elle pouvait imaginer quelqu’un travaillant sur un moyen de propager plus rapidement une toxine comme l’anthrax.
“Mais cela ne constitue pas une risk existentielle”, a-t-elle déclaré à l’AFP. “C’est juste une arme horrible, horrible.”
Stephen Hawking a déclaré en 2014 qu’à un second donné dans le futur, les machines tremendous intelligentes dépasseront les capacités humaines et qu’à terme, notre espèce ne sera plus en mesure de rivaliser.
Ça transcende les genres
Les règles hollywoodiennes dictent que les catastrophes historiques doivent être soudaines, massives et dramatiques, mais que se passerait-il si l. a. fin de l’humanité était lente, calme et infinie ?
“Dans le pire des cas, notre espèce pourrait disparaître sans successeur”, déclare le philosophe Hugh Worth dans une vidéo promotionnelle pour le Centre d’étude du risque existentiel de l’Université de Cambridge.
Mais il a ajouté qu’il existait des “possibilités moins sombres” que des humains améliorés par une technologie avancée puissent survivre.
« Les espèces purement biologiques finiront par disparaître, automotive il n’y a aucun être humain qui n’ait pas accès à cette technologie », a-t-il déclaré.
L’apocalypse imaginée est souvent formulée en termes d’évolution.
Stephen Hawking a soutenu en 2014 que notre espèce serait finalement incapable de rivaliser avec les machines artificiellement intelligentes, déclarant à l. a. BBC que cela pourrait « signifier l. a. fin de l. a. race humaine ».
Geoffrey Hinton, qui a récemment passé sa carrière à construire des machines de kind cerveau pour Google, a parlé en termes similaires de l. a. « superintelligence » qui est tout simplement supérieure aux humains.
Il a récemment déclaré à l. a. chaîne américaine PBS qu’il était imaginable que “l’humanité ne soit qu’une étape passagère dans l’évolution du renseignement”.
© 2023 Agence France-Presse
l. a. quotation: L’intelligence artificielle va-t-elle vraiment détruire l’humanité ? (27 juin 2023) Récupéré le 1er novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.