Crédit : Cottonbro Studio de Pexels
Le président américain Joe Biden a publié lundi un décret ambitieux et de grande envergure sur l’intelligence artificielle, plaçant les États-Unis à l’avant-garde des discussions sur los angeles réglementation de l’intelligence artificielle.
Ce faisant, les États-Unis devancent les autres can pay dans los angeles direction au contrôle de l’intelligence artificielle. L’Europe a déjà ouvert los angeles voie avec sa loi sur l’IA, qui a été adoptée par le Parlement européen en juin 2023, mais qui n’entrera pleinement en vigueur qu’en 2025.
Le décret présidentiel est un ensemble d’tasks visant à réglementer l’IA, dont certaines sont bonnes et d’autres semblent quelque peu incomplètes. Il vise à remédier aux préjudices qui vont des préjudices directs, tels que les deepfakes générés par l’intelligence artificielle, aux préjudices intermédiaires tels que les pertes d’emploi, en passant par les préjudices à lengthy terme tels que los angeles risk existentielle controversée que l’intelligence artificielle peut représenter pour les humains.
Le plan ambitieux de Biden
Le Congrès américain a mis du temps à adopter des réglementations importantes pour les grandes entreprises technologiques. Ce décret présidentiel est probablement une tentative d’éviter une deadlock fréquente du Congrès, ainsi que de relancer l’motion. Par exemple, l’ordonnance appelle le Congrès à adopter une législation bipartite sur los angeles confidentialité des données.
Un soutien bipartisan dans le climat actuel ? Bonne probability, Monsieur le Président.
Le décret serait mis en œuvre au cours des trois prochains mois à un an. Il couvre huit domaines :
- Normes de sûreté et de sécurité pour l’intelligence artificielle
- Los angeles coverage de los angeles vie privée
- Équité et droits civiques
- Droits du consommateur
- Carrières
- Innovation et concurrence
- Management world
- Gouvernance de l’intelligence artificielle.
D’une section, il répond à bon nombre des préoccupations soulevées par les universitaires et le public. Par exemple, l’une de ses directives consiste à publier des directives officielles sur los angeles manière de filigraner le contenu généré par l’IA afin de réduire les risques liés aux deepfakes.
Cela oblige également les entreprises développant des modèles d’IA à prouver qu’ils sont sûrs avant de pouvoir les diffuser pour une utilisation plus huge. « Cela signifie que les entreprises doivent informer le gouvernement des systèmes d’IA à grande échelle qu’elles développent et partager les résultats de checks indépendants rigoureux pour prouver qu’ils ne présentent aucun risque pour los angeles sécurité nationale ou los angeles sécurité du peuple américain », a déclaré le président Biden.
L’utilisation potentiellement catastrophique de l’intelligence artificielle dans los angeles guerre
Dans le même temps, il n’a pas réussi à résoudre un sure nombre de problèmes urgents. Par exemple, il n’aborde pas directement los angeles manière de lutter contre les robots IA tueurs, un sujet épineux qui a été discuté au cours des deux dernières semaines à l’Assemblée générale des Countries Unies.
Cette préoccupation ne doit pas être ignorée. Le Pentagone développe des essaims de drones autonomes à faible coût dans le cadre de son programme Replicator récemment annoncé. De même, l’Ukraine a développé des drones d’attaque IA de fabrication artisanale, capables d’identifier et d’attaquer les forces russes sans intervention humaine.
Pourrions-nous nous retrouver dans un monde où les machines décident qui vit ou meurt ? Le décret exige uniquement que les militaires utilisent l’IA de manière éthique, mais il ne précise pas ce que cela signifie.
Qu’en est-il de los angeles coverage des élections contre les armes de persuasion de masse utilisées par l’intelligence artificielle ? Un sure nombre de médias ont rapporté à quel level les récentes élections en Slovaquie ont été affectées par les deepfakes. De nombreux professionals, dont moi-même, sont également préoccupés par l’utilisation abusive de l’IA lors de los angeles prochaine élection présidentielle américaine.
À moins que des contrôles stricts ne soient mis en œuvre, nous risquons de vivre à une époque où rien de ce que vous voyez ou entendez en ligne n’est fiable. Si cela vous semble exagéré, gardez à l’esprit que le Parti républicain américain a déjà publié une publicité de campagne qui semble avoir été entièrement générée par l’intelligence artificielle.
Opportunités ratées
De nombreuses tasks du décret peuvent et doivent être reproduites ailleurs, notamment en Australie. Nous devrions également, le cas échéant, fournir des conseils aux propriétaires fonciers, aux programmes gouvernementaux et aux marketers gouvernementaux sur los angeles manière de garantir que les algorithmes d’IA ne sont pas utilisés à des fins discriminatoires à l’égard des individus.
Nous devrions également, le cas échéant, lutter contre los angeles discrimination algorithmique dans le système de justice pénale, automotive l’IA est de plus en plus utilisée dans des contextes à haut risque, notamment dans los angeles détermination de los angeles peine, los angeles libération conditionnelle et los angeles probation, los angeles libération conditionnelle et los angeles détention avant jugement, l’évaluation des risques, los angeles surveillance et los angeles police prédictive. , Par exemple, mais sans s’y limiter.
L’IA a également été utilisée de manière controversée pour de telles programs en Australie, comme dans le cadre du système de gestion du ciblage des suspects utilisé pour surveiller les jeunes en Nouvelle-Galles du Sud.
L’facet le plus controversé du décret est peut-être celui qui aborde les dommages potentiels des modèles d’IA dits « frontières » les plus puissants. Certains professionals estiment que ces modèles – développés par des sociétés telles qu’Open AI, Google et Anthropic – constituent une risk existentielle pour l’humanité.
D’autres, moi y compris, estiment que ces craintes sont exagérées et pourraient détourner l’consideration des préjudices directs, tels que los angeles désinformation et les inégalités, qui nuisent déjà à los angeles société.
L’ordre de Biden invoque des pouvoirs de guerre extraordinaires (en particulier los angeles loi sur los angeles manufacturing de défense de 1950 introduite pendant los angeles guerre de Corée) pour obliger les entreprises à informer le gouvernement fédéral lors de los angeles formation de tels modèles frontaliers. Cela nécessite également de partager les résultats des checks de sécurité de « l’équipe rouge », où les pirates internes utilisent des attaques pour explorer les logiciels à los angeles recherche de bogues et de vulnérabilités.
Je dirais qu’il serait difficile, voire unimaginable, de suivre l’évolution des modèles frontières. Les orientations ci-dessus n’empêcheront pas les entreprises de développer de tels modèles à l’étranger, où le gouvernement américain a une autorité limitée. Los angeles communauté open supply peut également les développer de manière distribuée, rendant ainsi le monde de los angeles technologie « sans frontières ».
L’affect du décret charisma probablement le plus grand affect sur le gouvernement lui-même et sur los angeles manière dont il utilise l’IA, plutôt que sur les entreprises.
Cependant, c’est une motion bienvenue. Le Sommet sur los angeles sécurité de l’IA organisé par le Premier ministre britannique Rishi Sunak, qui se tiendra au cours des deux prochains jours, apparaît désormais comme une sorte de competition de discussions diplomatiques.
Cela fait envie au pouvoir présidentiel de faire avancer les choses.
Creation à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.
los angeles quotation: Les États-Unis viennent de prendre l’motion los angeles plus ferme jamais menée au monde en matière de réglementation de l’intelligence artificielle. Voici à quoi s’attendre (31 octobre 2023) Récupéré le 1er novembre 2023 sur
Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.