Crédit : CC0 domaine public
Los angeles plupart des packages courantes de l’intelligence artificielle (IA) tirent parti de sa capacité à traiter de grandes quantités de données et à y détecter des modèles et des tendances. Les résultats pourraient aider à prédire le comportement futur des marchés financiers et du trafic urbain, et même aider les médecins à diagnostiquer los angeles maladie avant l’apparition des symptômes.
Mais l’IA peut également être utilisée pour menacer los angeles confidentialité de nos données en ligne, automatiser le travail des gens et saper les élections démocratiques en inondant les réseaux sociaux de désinformation. Les algorithmes peuvent hériter de biais issus des données réelles utilisées pour les améliorer, ce qui pourrait conduire, par exemple, à des discriminations lors de l’embauche.
Los angeles réglementation de l’IA est un ensemble complet de règles qui décrivent remark cette technologie peut être développée et utilisée pour remédier à ses dommages potentiels. Voici quelques-uns des principaux efforts déployés pour y parvenir et en quoi ils diffèrent.
Loi de l’UE sur l’intelligence artificielle et déclaration de Bletchley
Los angeles loi sur l’intelligence artificielle de los angeles Fee européenne vise à atténuer les risques potentiels, tout en encourageant l’entrepreneuriat et l’innovation dans le domaine de l’intelligence artificielle. L’AI Protection Institute du Royaume-Uni, annoncé lors du récent sommet gouvernemental à Bletchley Park, vise à atteindre cet équilibre.
Los angeles législation de l’UE interdit les outils d’IA jugés présenter des risques inacceptables. Cette catégorie comprend les produits de « notation sociale », dans lesquels les personnes sont classées en fonction de leur comportement et de los angeles reconnaissance faciale en temps réel.
Los angeles loi restreint également sévèrement l’IA à haut risque, los angeles catégorie suivante. Cette classification couvre les packages pouvant avoir un affect négatif sur les droits fondamentaux, notamment los angeles sécurité.
Les exemples incluent los angeles conduite autonome et les systèmes de recommandation d’IA utilisés dans le recrutement, les forces de l’ordre et l’éducation. Beaucoup de ces outils doivent être enregistrés dans los angeles base de données de l’UE. Los angeles catégorie à risque limité couvre les chatbots comme ChatGPT ou les générateurs d’pictures comme Dall-E.
Dans l’ensemble, les développeurs d’IA devront garantir los angeles confidentialité de toutes les données personnelles utilisées pour « entraîner » – ou améliorer – leurs algorithmes et faire preuve de transparence sur le fonctionnement de leur technologie. Cependant, l’un des principaux inconvénients de cette loi est qu’elle a été élaborée principalement par des technocrates, sans une huge participation populaire.
Contrairement à l’AI Act, los angeles récente Déclaration de Bletchley n’est pas un cadre réglementaire en soi, mais un appel à développer un cadre réglementaire par le biais de los angeles coopération internationale. Le Sommet sur los angeles sécurité de l’IA de 2023, qui a fait cette annonce, a été salué comme une réussite diplomatique automotive il a poussé les communautés politiques, économiques et scientifiques du monde entier à s’entendre sur un plan commun imitant le droit de l’UE.
États-Unis et Chine
Le paysage industrial de l’IA est dominé par des entreprises d’Amérique du Nord (notamment aux États-Unis) et de Chine. Los angeles plupart de ses sièges sociaux européens sont situés au Royaume-Uni.
Les États-Unis et los angeles Chine rivalisent pour prendre pied dans le domaine de los angeles réglementation. Le président américain Joe Biden a récemment publié un décret exigeant que les fabricants d’IA fournissent au gouvernement fédéral une évaluation de los angeles vulnérabilité de leurs packages aux cyberattaques, les données utilisées pour entraîner et tester l’IA, ainsi que ses mesures de performances.
Le décret américain crée des incitations pour encourager l’innovation et los angeles concurrence en attirant les skills internationaux. Il prévoit los angeles mise en position de programmes éducatifs visant à développer les compétences en intelligence artificielle au sein de los angeles main-d’œuvre américaine. Des fonds gouvernementaux sont également alloués à des partenariats entre le gouvernement et des entreprises privées.
Les risques tels que los angeles discrimination résultant de l’utilisation de l’IA lors de l’embauche, des demandes de prêt hypothécaire et des décisions de justice sont résolus en exigeant que les PDG américains publient des lignes directrices. Cela déterminerait los angeles manière dont les autorités fédérales devraient superviser l’utilisation de l’intelligence artificielle dans ces domaines.
Les réglementations chinoises en matière d’IA révèlent un grand intérêt pour l’IA générative et los angeles coverage contre les deepfakes (footage et vidéos produites artificiellement qui imitent l’apparence et los angeles voix de personnes réelles mais transmettent des événements qui ne se sont jamais produits).
L’accessory est également mis sur los angeles réglementation des systèmes de recommandation en matière d’IA. Il s’agit d’algorithmes qui analysent l’activité en ligne des internautes pour déterminer quel contenu, y compris les publicités, doit être placé en haut de leurs flux.
Pour protéger le public des recommandations jugées mal fondées ou préjudiciables sur le plan émotionnel, los angeles réglementation chinoise interdit les fausses nouvelles et empêche les entreprises de mettre en œuvre une tarification dynamique (fixant des primes plus élevées pour les services and products de base basées sur l’extraction de données personnelles). Il stipule également que toute prise de décision automatisée doit être transparente pour ceux qui l’influencent.
Los angeles voie à suivre
Les efforts de réglementation sont influencés par les contextes nationaux, tels que les préoccupations des États-Unis concernant los angeles cyberdéfense, los angeles position uniqueness de los angeles Chine dans le secteur privé et les tentatives de l’Union européenne et du Royaume-Uni de trouver un équilibre entre le soutien à l’innovation et l’atténuation des risques. Dans leurs tentatives de promouvoir une IA éthique, sûre et digne de confiance, les cadres mondiaux sont confrontés à des défis similaires.
Certaines définitions de termes clés sont vagues et reflètent los angeles contribution d’un petit groupe de events prenantes influentes. Le grand public était sous-représenté dans ce processus.
Les décideurs politiques doivent faire consideration au capital politique élevé des entreprises technologiques. Il est the most important de les inclure dans les discussions sur los angeles réglementation, mais il serait naïf de faire confiance à ces puissants groupes de pression pour se contrôler eux-mêmes.
L’intelligence artificielle fait son chemin dans le tissu économique, orientant les investissements financiers, soutenant les services and products de santé et sociaux nationaux et influençant nos préférences en matière de divertissement. Ainsi, celui qui définit le cadre réglementaire dominant a également le potentiel de modifier l’équilibre des pouvoirs à l’échelle mondiale.
Des questions importantes restent sans réponse. Dans le cas de l’automatisation des tâches, par exemple, l’idée reçue pourrait suggérer que les apprentissages numériques et d’autres formes de recyclage transformeraient los angeles main-d’œuvre en scientifiques des données et en programmeurs d’IA. Mais de nombreuses personnes hautement qualifiées ne sont peut-être pas intéressées par le développement de logiciels.
Alors que le monde est aux prises avec les risques et les opportunités posés par l’intelligence artificielle, nous pouvons prendre des mesures positives pour garantir le développement et l’utilisation responsables de cette technologie. Pour soutenir l’innovation, les systèmes d’IA nouvellement développés pourraient commencer dans los angeles catégorie à haut risque – telle que définie dans los angeles loi européenne sur l’IA – et être rétrogradés vers des catégories à moindre risque à mesure que nous explorons leurs affects.
Les décideurs politiques peuvent également tirer des leçons des industries étroitement réglementées, telles que les industries pharmaceutique et nucléaire. Cela ne ressemble pas directement à l’IA, mais bon nombre des normes de qualité et des procédures opérationnelles qui régissent ces domaines économiques opinions pour los angeles sécurité peuvent fournir des informations utiles.
Enfin, los angeles collaboration entre tous ceux concernés par l’IA est essentielle. Nous ne devrions pas confier los angeles tâche de formuler des règles aux seuls technocrates. Le grand public doit avoir son mot à dire sur les applied sciences qui peuvent avoir de profondes répercussions sur sa vie personnelle et professionnelle.
Creation à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.
los angeles quotation: Le monde start enfin à réglementer l’IA – à quoi s’attendre des nouvelles lois américaines, européennes et chinoises (15 novembre 2023) Extrait le 15 novembre 2023 de
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.