Crédit : U.S. Air Power/Airman 1re classe Isaiah Pedrazzini
L’intérêt pour l’intégration de robots dans les opérations de sécurité, de police et militaires n’a cessé de croître au cours des dernières années. C’est une voie déjà explorée en Amérique du Nord et en Europe.
L’incorporation de robots dans ces domaines peut être considérée comme similaire à l’inclusion de chiens dans les rôles policiers et militaires au XXe siècle. Les chiens servaient, entre autres, de gardes, de sentinelles, de porteurs de messages et de détecteurs de mines.
Les robots d’help, conçus pour jouer un rôle de soutien auprès des humains, imitent nos compagnons à quatre pattes non seulement dans leur forme, mais également dans leur fonction. Equipé d’une technologie de surveillance et succesful de transporter du matériel, des munitions, and many others. dans le cadre des chaînes de réapprovisionnement, il peut réduire considérablement le risque de préjudice pour les soldats humains sur le champ de bataille.
Cependant, les robots d’help prendront sans doute une autre size si on leur ajoute des systèmes d’armes. Essentiellement, ces avions deviendront des variantes au sol des drones MQ-9 Predator actuellement utilisés par l’armée américaine.
En 2021, Ghost Robotics a présenté l’un de ses robots à quatre pattes, appelé Q-UGV, qui était armé d’un fusil sans pilote à utilization spécial 4. L’événement de démonstration était centré sur l’armement de robots d’help.
Il est necessary de noter remark chaque side de cette fusion d’armes et de robots fonctionne différemment. Bien que le robotic lui-même soit semi-autonome et puisse être contrôlé à distance, l’arme montée n’a aucune capacité autonome et est entièrement contrôlée par l’opérateur.
En septembre 2023, le Corps des Marines des États-Unis a mené un check de validation de principe impliquant un autre robotic à quatre pattes. Ils ont mesuré ses capacités à « acquérir et poursuivre des cibles à l’aide d’une arme antichar légère M72 ».
Ce check a relancé le débat éthique sur l’utilisation de systèmes d’armes automatiques et semi-automatiques en temps de guerre. Ce ne serait pas un grand pas pour aucune de ces plates-formes d’intégrer los angeles détection des menaces basée sur l’IA et los angeles capacité de « se verrouiller » sur des cibles. En fait, des systèmes de imaginative and prescient de ce kind sont déjà disponibles sur le marché libre.
En 2022, 12 grandes entreprises de robotique ont signé une lettre ouverte hébergée sur le web site Internet de Boston Dynamics, qui a créé un robotic polyvalent ressemblant à un chien appelé Spot. Dans los angeles lettre, les entreprises s’opposent à los angeles militarisation des robots disponibles dans le trade.
Cependant, los angeles lettre indique également que les entreprises ne s’opposent pas aux « applied sciences existantes utilisées par les États et leurs agences gouvernementales pour se défendre et faire respecter leurs lois ». À ce stade, il convient de se demander si le cheval n’a pas déjà pris du retard en termes d’armement de l’IA. Des systèmes d’armes dotés de applied sciences intelligentes intégrées dans des robots sont déjà utilisés au battle.
Ce mois-ci, Boston Dynamics a publié une vidéo montrant remark los angeles société a ajouté le chatbot ChatGPT alimenté par l’IA à son robotic Spot. On peut voir los angeles gadget répondre aux questions et aux conversations menées par l’un des ingénieurs de l’entreprise en utilisant plusieurs « personnalités » différentes, comme un majordome anglais. Les réponses viennent du chatbot IA, mais Spot prononce les mots.
Il s’agit d’une avancée majeure pour l’industrie, et potentiellement certain. Mais même si Boston Dynamics tient sa promesse de ne pas utiliser ses robots comme armes, d’autres sociétés pourraient ne pas ressentir los angeles même selected. Il existe également un risque que ces robots soient utilisés à mauvais escient par des personnes ou des organisations dépourvues de sens ethical. Comme le observe los angeles lettre ouverte : « Dans los angeles mesure du conceivable, nous examinerons attentivement les packages prévues par nos shoppers pour éviter une militarisation potentielle. »
Place du Royaume-Uni
Le Royaume-Uni a déjà pris place sur los angeles militarisation de l’IA à travers los angeles Protection AI Technique, publiée en 2022. Le report exprime l’aim d’intégrer rapidement l’IA dans les systèmes du ministère de los angeles Défense pour renforcer los angeles sécurité et moderniser les forces armées.
Il convient toutefois de noter que l’annexe au report stratégique reconnaît spécifiquement les défis potentiels associés aux systèmes d’armes létaux autonomes.
Par exemple, des données du monde réel sont utilisées pour « former » ou améliorer les systèmes d’IA. Avec ChatGPT, ces informations sont collectées sur Web. Même si elles aident les systèmes d’IA à devenir plus utiles, toutes ces informations du « monde réel » peuvent également transmettre de fausses hypothèses et des préjugés au système lui-même. Cela peut conduire à des biais algorithmiques (où l’IA favorise un groupe ou une choice par rapport à un autre) ou à des réponses inappropriées et disproportionnées de los angeles phase de l’IA. En tant que telles, les données d’entraînement typiques pour les systèmes d’armes doivent être soigneusement examinées dans une optique de guerre éthique.
Cette année, los angeles Chambre des Lords a créé une fee spéciale sur l’intelligence artificielle dans les systèmes d’armes. Sa challenge est de découvrir remark les forces armées peuvent tirer benefit du progrès technologique, tout en minimisant les risques grâce à los angeles mise en œuvre de garanties ways, juridiques et éthiques. L’adéquation de los angeles politique britannique et de l’élaboration des politiques internationales est également examinée.
Les chiens robotiques ne pointent pas encore leurs armes sur les forces opposées. Mais tous les éléments sont réunis pour que ce scénario devienne une réalité, si rien n’est fait. Le rythme rapide du développement de l’intelligence artificielle et de los angeles robotique crée une tempête parfaite qui pourrait déboucher sur de nouvelles armes puissantes.
Le récent sommet sur los angeles sécurité de l’IA qui s’est tenu à Bletchley Park a european des résultats positifs en termes de réglementation de l’IA, tant au Royaume-Uni qu’à l’échelle internationale. Cependant, des signes de divergence philosophique sont apparus entre les objectifs du sommet et ceux du Comité sur l’intelligence artificielle dans les systèmes d’armes.
Le sommet visait à définir l’intelligence artificielle, à évaluer ses capacités et ses limites et à créer un consensus mondial concernant son utilisation éthique. Il a cherché à le faire par le biais d’une annonce, un peu comme los angeles lettre ouverte de Boston Dynamics. Cependant, aucun d’eux n’est contraignant. L. a. Fee cherche à intégrer los angeles technologie de manière claire et rapide, tout en respectant l’éthique, los angeles réglementation et le droit world.
L’utilisation répétée du terme « garde-fous » en relation avec le Sommet de Bletchley et sa Déclaration suggère des engagements volontaires. Le Premier ministre britannique Rishi Sunak a déclaré que les can pay ne devraient pas se précipiter pour réglementer.
L. a. noblesse de telles déclarations diminue à los angeles lumière de l’enthousiasme de certains partis à intégrer los angeles technologie dans les plates-formes d’armes.
Creation à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Inventive Commons. Lisez l’article unique.
los angeles quotation: L’IA est déjà intégrée aux robots – et l’un des résultats pourrait être de nouvelles armes puissantes (16 novembre 2023) Récupéré le 16 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.