Los angeles véritable risk réside peut-être dans los angeles façon dont les gouvernements choisissent de l’utiliser

Crédit : CC0 domaine public

Les risques importants que l’intelligence artificielle fait peser sur los angeles sécurité mondiale deviennent de plus en plus évidents. C’est en partie pour cette raison que le Premier ministre britannique Rishi Sunak accueillera d’autres dirigeants mondiaux lors d’un sommet sur los angeles sécurité de l’IA les 1er et 2 novembre sur le célèbre website de cryptanalyse de los angeles Seconde Guerre mondiale, Bletchley Park. Cependant, même si los angeles technologie de l’IA se développe à un rythme alarmant, los angeles véritable risk pourrait venir des gouvernements eux-mêmes.

Le bilan du développement de l’IA au cours des 20 dernières années fournit un ensemble de preuves de l’utilisation abusive de los angeles technologie par les gouvernements du monde entier. Cela inclut des pratiques de surveillance excessives et l’exploitation de l’intelligence artificielle pour diffuser de los angeles désinformation.

Malgré l’accessory récemment mis sur les entreprises privées développant des produits d’IA, les gouvernements ne sont pas les arbitres neutres qu’ils pourraient paraître lors de ce sommet sur l’IA. Au contraire, ils ont joué un rôle tout aussi necessary dans los angeles manière précise dont l’IA a évolué, et continueront de le faire.

Militarisation de l’intelligence artificielle

Des rapports constants indiquent que les will pay leaders en matière de technologie se lancent dans une route aux armements en matière d’IA. Aucun will pay n’a réellement pris le départ de cette route. Son développement a été complexe et de nombreux groupes – tant à l’intérieur qu’à l’extérieur des gouvernements – y ont joué un rôle.

Pendant los angeles guerre froide, les agences de renseignement américaines se sont intéressées à l’utilisation de l’intelligence artificielle pour los angeles surveillance, los angeles défense nucléaire et l’interrogatoire automatisé des espions. Il n’est donc pas surprenant que ces dernières années, l’intégration de l’IA dans les capacités militaires se soit accélérée dans d’autres will pay, comme au Royaume-Uni.

Les applied sciences automatisées développées pour être utilisées dans los angeles guerre contre le terrorisme ont contribué au développement de puissantes capacités militaires basées sur l’IA, notamment des drones (véhicules aériens sans pilote) alimentés par l’IA qui sont déployés dans les zones de conflit actuelles.

Le président russe Vladimir Poutine a annoncé que le will pay chief en matière de technologie d’intelligence artificielle dirigerait le monde. Los angeles Chine a également annoncé son goal de devenir une superpuissance dans le domaine de l’intelligence artificielle.

États de surveillance

Une autre préoccupation majeure concerne l’utilisation de l’intelligence artificielle par les gouvernements pour surveiller leurs sociétés. Alors que les gouvernements ont été témoins de l’évolution des menaces internes à los angeles sécurité, notamment des menaces terroristes, ils ont de plus en plus déployé l’intelligence artificielle au niveau nationwide pour renforcer los angeles sécurité de l’État.

En Chine, cette scenario a été poussée à l’extrême, avec l’utilisation des applied sciences de reconnaissance faciale, des algorithmes des réseaux sociaux et de los angeles censure d’Web pour contrôler et surveiller los angeles inhabitants, y compris au Xinjiang où l’intelligence artificielle fait partie intégrante de los angeles répression de los angeles inhabitants ouïghoure.

Mais le bilan de l’Occident n’est pas non plus superb. En 2013, il a été révélé que le gouvernement américain avait développé des outils indépendants pour collecter et examiner des quantités massives de données sur l’utilisation d’Web par les gens, apparemment pour lutter contre le terrorisme. Il a également été signalé que le gouvernement britannique avait accès à ces outils. À mesure que l’intelligence artificielle se développe, son utilisation à des fins de surveillance par les gouvernements est devenue une préoccupation majeure pour les défenseurs de los angeles vie privée.

Parallèlement, los angeles surveillance des frontières est assurée grâce à des algorithmes et des applied sciences de reconnaissance faciale, de plus en plus déployés par les forces de police locales. Il existe également des préoccupations plus larges concernant los angeles « police prédictive », l’utilisation d’algorithmes pour prédire les issues chauds de los angeles criminalité (souvent dans les communautés ethniques minoritaires) qui font ensuite l’objet d’efforts de police supplémentaires.

Ces tendances récentes et actuelles suggèrent que les gouvernements ne seront peut-être pas en mesure de résister à los angeles tentation d’utiliser une IA de plus en plus sophistiquée d’une manière qui suscite des inquiétudes en matière de surveillance.

Los angeles règle de l’intelligence artificielle ?

Malgré les bonnes intentions du gouvernement britannique d’organiser son propre sommet sur los angeles sécurité et de devenir un chief mondial dans l’utilisation sûre et responsable de l’IA, los angeles technologie nécessitera des efforts sérieux et soutenus au niveau global pour que tout kind de réglementation soit efficace.

Des mécanismes de gouvernance commencent à émerger, alors que les États-Unis et l’Union européenne ont récemment introduit de nouvelles réglementations importantes dans le domaine de l’intelligence artificielle.

Mais gérer l’IA à l’échelle internationale se heurte à de nombreuses difficultés. Il y air of secrecy bien sûr des will pay qui se joindront à los angeles réglementation de l’IA et l’ignoreront ensuite dans los angeles pratique.

Les gouvernements occidentaux sont également confrontés à des arguments selon lesquels une réglementation trop stricte de l’IA permettrait aux États autoritaires de réaliser leurs aspirations à prendre los angeles tête du secteur technologique. Mais permettre aux entreprises de « se précipiter pour lancer » de nouveaux produits risque de déclencher des réglementations qui pourraient avoir des conséquences désastreuses et imprévues pour los angeles société. Il suffit de voir remark une IA avancée de génération de texte comme ChatGPT peut alimenter los angeles désinformation et los angeles propagande.

Même les développeurs eux-mêmes ne comprennent pas exactement remark fonctionnent les algorithmes avancés. Sortir de cette « boîte noire » de los angeles technologie de l’IA nécessitera des investissements sophistiqués et soutenus de los angeles section des autorités nationales dans les capacités de take a look at et de vérification. Mais les capacités et les pouvoirs n’existent pas à l’heure actuelle.

Politique de peur

Nous avons l’habitude d’entendre parler dans les médias d’une forme d’intelligence artificielle ultra-intelligente qui risk los angeles civilisation humaine. Mais il y a des raisons de se méfier d’une telle mentalité.

Comme le soulignent mes propres recherches, los angeles « sécurisation » de l’IA – c’est-à-dire los angeles présentation de los angeles technologie comme une risk existentielle – peut être utilisée par les gouvernements comme excuse pour prendre le pouvoir, en abuser eux-mêmes ou adopter une approche étroite de l’IA. Ce qui n’exploite pas les avantages potentiels qu’il peut apporter à tous.

Le sommet sur l’IA de Rishi Sunak sera une bonne instance de souligner los angeles nécessité pour les gouvernements de s’éloigner de los angeles politique de los angeles peur dans leurs efforts pour contrôler l’IA.

Creation à los angeles dialog

Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.

los angeles quotation: Intelligence artificielle : los angeles vraie risk pourrait être los angeles façon dont les gouvernements choisissent de l’utiliser (2 novembre 2023) Récupéré le 2 novembre 2023 sur

Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.