Le décret de Biden sur l’intelligence artificielle sensibilise à l. a. technologie émergente mais manque de mécanisme d’utility

Crédit : domaine public Unsplash/CC0

Le président Joe Biden a publié un décret ambitieux visant à guider le développement des applied sciences d’intelligence artificielle. Il s’agit de l. a. première commande du style du gouvernement fédéral directement liée à l. a. réglementation des applied sciences émergentes.

Les nouvelles lignes directrices fournissent des normes et des orientations sur un sure nombre de domaines d’intervention, notamment l. a. sûreté, l. a. sécurité, l. a. vie privée, l’égalité, les droits civils, l. a. coverage des consommateurs et du travail, l. a. recherche, l. a. concurrence, l’innovation, l’emploi offshore et l’utilisation gouvernementale de l’intelligence artificielle.

Dans le cadre de l. a. nouvelle ordonnance et conformément à l. a. loi sur l. a. manufacturing de défense, les entreprises d’IA seront tenues de partager les résultats des assessments de sécurité des nouveaux modèles d’IA avec le gouvernement fédéral avant leur e-newsletter.

En outre, l’Institut nationwide des normes et applied sciences créera de nouvelles « normes, outils et assessments » que les entreprises pourront utiliser lors des assessments de résistance de leurs systèmes d’IA pour détecter les vulnérabilités et autres problèmes de sécurité dans le cadre d’un exercice appelé « équipe rouge ».

Ces normes seront mises en œuvre par le Département de l. a. sécurité intérieure, qui est actuellement en educate de créer un Conseil de sûreté et de sécurité de l’IA dans le cadre de cette ordonnance. Le ministère de l. a. Sécurité intérieure coopérera également avec le ministère de l’Énergie pour « faire face aux menaces des systèmes d’IA sur les infrastructures opinions, ainsi qu’aux risques radiologiques, nucléaires et de cybersécurité », selon l’ordonnance.

En outre, l’ordonnance établit un nouveau programme de sécurité qui sera administré par le ministère américain de l. a. Santé et des Products and services sociaux, conçu pour « recevoir des rapports faisant état de préjudices ou de pratiques de soins de santé dangereuses impliquant l’IA et œuvrer pour y remédier ».

Ce ne sont là que quelques-uns des issues saillants des nouvelles orientations, qui, selon l’management Biden, s’appuient sur des conversations qu’elle a eues avec 15 grandes entreprises d’IA qui se sont volontairement engagées à « diriger le développement sûr, sécurisé et digne de confiance de l’IA ». Google, Microsoft et Open AI font partie des entreprises qui se sont engagées à le faire.

Osama Fayyad, directeur exécutif du Northeastern Institute for Experimental Synthetic Intelligence, s’est entretenu avec Northeastern World Information sur les avantages et les inconvénients du nouveau système. Cette interview a été éditée par souci de concision et de clarté :

Cela couvre de nombreux facets différents du développement et du déploiement de l’IA. Quelles movements spécifiques du classement vous ont marqué ?

Les movements les plus remarquables sont celles qui disent essentiellement : « Élaborons de nouvelles normes pour l. a. sûreté et l. a. sécurité de l’IA. » Ce n’est pas une mauvaise selected. Nous n’y parviendrons pas du premier coup, mais au moins réfléchissez-y, sensibilisez-le et mettez les agences au défi de respecter une certaine sorte de normes et de responsabilité. C’est une très bonne selected.

L. a. segment sur l. a. coverage de l. a. vie privée américaine est également très intéressante automotive elle soulève l. a. query de savoir quand nous violons, ce qui est applicable et ce qui ne l’est pas. C’est un sujet de dialogue valable, automotive le gouvernement ne peut le faire sans réfléchir aux conséquences.

L. a. promotion de l. a. justice et des droits civiques coche l. a. case en termes de sensibilisation de chacun au fait que ces algorithmes peuvent être utilisés à leurs propres fins.

Les éléments liés à l. a. promotion de l. a. recherche, à l’amélioration de l. a. compréhension et à l’amélioration de l’accessibilité peuvent également être positifs.

Dans quels domaines pensez-vous que les orientations sont insuffisantes ?

Il n’a pas réussi à expliquer les chiffres réels. Rien ne peut empêcher l. a. Maison Blanche de dire : « Nous voulons voir au moins, je ne sais pas, certaines ressources – 5 %, 10 %, 20 % – un sure nombre de ressources allouées à ce domaine. » Cela devient très significatif. Vous pourriez facilement émettre quelque selected qui dit : « Je veux voir au moins 5 % des ressources dépensées par cette agence gouvernementale ou chaque agence gouvernementale dans cette catégorie » à titre d’exemple.

Un autre domaine où il échoue est de fournir plus de détails sur l. a. manière dont chaque agence démontrera sa réponse à l. a. directive. À tout le moins, ayez une liste qui dit : « Voici quelques KPI par lesquels nous vous évaluerons. »

L. a. dernière partie est le funds. Il aurait dû y avoir une partie qui disait : « Voici quelques lignes directrices sur le montant du funds à consacrer à ces domaines. » Parce qu’en fin de compte, si vous ne prévoyez pas de funds, vous ne faites pas grand-chose. Je pense que cette directive, bien que bonne sur le plan politique et sur le plan de l. a. sensibilisation du public, n’a pas le pouvoir de contraindre à l’motion. Ce sont plutôt des lignes directrices.

Dans quelle mesure ce décret est-il exécutoire ?

C’est une excellente query automotive elle n’est pas claire. Dans un sens, les agences gouvernementales rendent compte au pouvoir exécutif et le chef du pouvoir exécutif se trouve à l. a. Maison Blanche. Lorsque l. a. Maison Blanche indique que ce sont des domaines auxquels elle souhaite que les agences prêtent consideration, elles sont censées y prêter consideration. Cependant, c’est dans l. a. façon dont cela se traduit en budgets et en réorientant les priorités vers l. a. prise de décision que les choses décollent. C’est là que cet ensemble de lignes directrices reste muet.

Nous savons tous que le diable se cache dans les détails. Vous pouvez toujours dire que vous voulez faire tel bien (motion) ou tel bien (motion), mais si vous ne traduisez pas cela en budgets et en programmes et si vous ne faites pas réellement de sacrifices au benefit d’autres domaines, il sera très difficile de deviner ce que vous voulez faire. le résultat sera.

Cela sera-t-il appliqué rétroactivement aux applied sciences d’IA déjà présentes ?

L. a. portée telle qu’indiquée affecte tout ce qui a déjà été mis en œuvre, est en développement et sera développé. Maintenant encore, pouvons-nous apporter plus de viewpoint sur ce que l’agence devrait faire et combien de ressources elle devrait consacrer ou retirer d’autres domaines ? C’est ce qui manque cruellement ici.

Il ne suffit pas de dire : “Cette région est très importante. Nous ne pouvons pas nous permettre d’être laissés pour compte et nous avons à cœur de l. a. développer de l. a. bonne manière.” Il est également necessary de dire : « C’est ainsi que nous réaffectons les budgets, créons de nouveaux programmes et finançons de nouveaux programmes ».

Que pensez-vous du fait que Biden a créé toutes ces nouvelles règles en matière d’IA par le biais d’un décret au lieu de passer par le Congrès ?

Un décret ne ferait pas de mal. Il s’agit peut-être d’une étape nécessaire pour préparer et attirer l’consideration du Congrès. Lorsque vous soumettez ces questions aux agences fédérales, vous leur dites essentiellement : « L. a. Maison Blanche se penche sur ces questions. Nous y prêtons consideration. Nous prêtons consideration à ces facets. » L’une de mes préoccupations est que les agences varient considérablement dans leur degré d’intérêt ou non.

Est-ce que cela aidera avec l. a. législation ? Je pense certainement que lorsque les agences commenceront à examiner ces choses et à mettre en évidence ces problèmes, cela air of mystery pour fonction de forcer le Congrès à dire essentiellement : « D’accord, il est maintenant temps pour nous de prêter consideration et d’essayer de clarifier ce qui doit être fait. et où se situent les limites entre ce qui devrait être gouverné et ce qui « doit être réglementé ».

Fourni par l’Université Northeastern

l. a. quotation: Q&A : Le décret de Biden sur l’IA sensibilise aux applied sciences émergentes mais manque de mécanisme de mise en œuvre (31 octobre 2023) Récupéré le 31 octobre 2023 sur

Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.