Crédit : ThisIsEngineering de Pexels
L’intelligence artificielle (IA) est un label qui peut couvrir un huge éventail d’activités liées aux machines effectuant des tâches avec ou sans intervention humaine. Notre compréhension des applied sciences d’IA dépend en grande partie de l’endroit où nous les rencontrons, des outils de reconnaissance faciale et chatbots aux logiciels de retouche picture et aux voitures autonomes.
Si vous pensez à l’intelligence artificielle, vous pourriez penser aux entreprises technologiques, depuis les géants existants comme Google, Meta, Alibaba et Baidu, jusqu’aux nouveaux acteurs comme OpenAI, Anthropic et d’autres. Ce qui est moins évident, ce sont les gouvernements du monde entier, qui façonnent le paysage des règles selon lesquelles les systèmes d’IA fonctionneront.
Depuis 2016, les régions et will pay intéressés par cette technologie en Europe, en Asie-Pacifique et en Amérique du Nord ont établi des réglementations ciblant les applied sciences d’IA. (L’Australie est à los angeles traîne et étudie actuellement los angeles possibilité d’imposer de telles règles.)
Il existe actuellement plus de 1 600 politiques et stratégies en matière d’IA dans le monde. L’Union européenne, los angeles Chine, les États-Unis et le Royaume-Uni sont devenus des figures déterminantes dans le développement et los angeles gestion de l’intelligence artificielle dans le paysage mondial.
Intensifier los angeles réglementation sur l’IA
Les efforts visant à réglementer l’IA ont commencé à s’accélérer en avril 2021, lorsque l’Union européenne a proposé un premier cadre de réglementation appelé loi sur l’intelligence artificielle. Ces règles visent à définir les duties des prestataires de products and services et des utilisateurs, en fonction des différents risques liés aux différentes applied sciences d’IA.
Alors que los angeles loi européenne sur l’IA était à l’étude, los angeles Chine a proposé sa propre réglementation sur l’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur désir d’être les premiers à jouer un rôle de premier plan et d’assurer un management mondial en matière de développement et de gouvernance de l’IA.
Alors que l’Union européenne a adopté une approche globale, los angeles Chine a réglementé un à un certains sides spécifiques de l’IA. Ces recommandations vont des recommandations algorithmiques à los angeles technologie de synthèse profonde et à l’intelligence artificielle générative.
L’ensemble du cadre de gouvernance de l’IA en Chine sera constitué de ces politiques et d’autres à l’avenir. Le processus itératif permet aux régulateurs de renforcer leurs connaissances bureaucratiques et leurs capacités réglementaires, et laisse los angeles flexibilité nécessaire pour mettre en œuvre une nouvelle législation face aux risques émergents.
“Réveil”
L. a. réglementation chinoise sur l’IA a peut-être été un sign d’alarme pour les États-Unis. En avril, l’influent législateur Chuck Schumer a déclaré que son will pay “ne doit pas permettre à los angeles Chine de diriger l’innovation ou d’écrire les règles de los angeles direction” en matière d’intelligence artificielle.
Le 30 octobre 2023, los angeles Maison Blanche a publié un décret sur une IA sûre et digne de confiance. L’ordre tente d’aborder des questions plus larges d’égalité et de droits civils, tout en se concentrant également sur des programs spécifiques de los angeles technologie.
Outre les acteurs dominants, des will pay dont le secteur informatique est en croissance, notamment le Japon, Taiwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels associés à l’intégration généralisée de l’IA.
Les réglementations sur l’IA dans le monde reflètent une direction contre l’affect étrangère. Sur le plan géopolitique, les États-Unis sont en concurrence économique et militaire avec los angeles Chine. L’Union européenne met l’accessory sur l’établissement de sa souveraineté numérique et los angeles lutte pour l’indépendance vis-à-vis des États-Unis.
Au niveau native, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques établies par rapport aux concurrents émergents. En effet, se conformer à los angeles législation coûte souvent cher et nécessite des ressources qui peuvent manquer aux petites entreprises.
Alphabet, Meta et Tesla ont soutenu les appels à réglementer l’IA. Pendant ce temps, Google, propriété d’Alphabet, a rejoint Amazon pour investir des milliards dans Anthropic, son rival d’OpenAI, et los angeles société Tesla d’Elon Musk, xAI, vient de lancer son premier produit, un chatbot appelé Grok.
Imaginative and prescient partagée
L. a. loi de l’Union européenne sur l’IA, los angeles réglementation chinoise sur l’IA et le décret de los angeles Maison Blanche démontrent les intérêts partagés entre les will pay concernés. Ensemble, ils ont ouvert los angeles voie à los angeles Déclaration de Bletchley de los angeles semaine dernière, dans laquelle 28 will pay, dont les États-Unis, le Royaume-Uni, los angeles Chine, l’Australie et plusieurs membres de l’UE, se sont engagés à coopérer en matière de sécurité de l’IA.
Les will pay ou régions considèrent l’IA comme un contributeur à leur développement économique, à leur sécurité nationale et à leur management global. Malgré les risques reconnus, toutes les juridictions tentent de soutenir le développement et l’innovation de l’IA.
D’ici 2026, les dépenses mondiales consacrées aux systèmes axés sur l’IA pourraient dépasser 300 milliards de bucks, selon une estimation. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait à lui seul valoir 1 300 milliards de bucks.
Des chiffres comme ceux-ci, ainsi que les discussions sur les avantages perçus de los angeles phase des entreprises technologiques, des gouvernements nationaux et des sociétés de conseil, ont tendance à dominer los angeles couverture médiatique de l’IA. Les voix opinions sont souvent marginalisées.
Des intérêts concurrents
Au-delà des avantages économiques, les will pay se tournent également vers les systèmes d’IA pour les programs de défense, de cybersécurité et militaires.
Lors du Sommet sur los angeles sécurité de l’IA organisé au Royaume-Uni, les tensions internationales étaient évidentes. Bien que los angeles Chine ait accepté los angeles Déclaration de Bletchley publiée le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.
Un level de discorde concerne le système de crédit social chinois, qui fonctionne avec peu de transparence. L. a. législation européenne en matière d’IA considère que les systèmes d’enregistrement social de ce sort créent des risques inacceptables.
Les États-Unis considèrent les investissements chinois dans l’intelligence artificielle comme une threat pour los angeles sécurité nationale et économique du will pay, notamment en ce qui concerne les cyberattaques et les campagnes de désinformation.
Ces tensions sont susceptibles d’entraver los angeles coopération mondiale sur des réglementations contraignantes en matière d’IA.
Limites des règles existantes
Les réglementations actuelles en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas d’ensemble clair et commun de définitions pour les différents sorts de applied sciences d’IA dans les réglementations actuelles des différentes juridictions.
Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur caractère pratique. Ce huge champ d’software signifie que les réglementations couvrent un huge éventail de systèmes qui présentent des risques différents et peuvent mériter des traitements différents. De nombreux systèmes manquent de définitions claires du risque, de los angeles sécurité, de los angeles transparence, de l’équité et de los angeles non-discrimination, ce qui rend difficile los angeles garantie d’une conformité juridique précise.
Nous voyons également des juridictions locales lancer leurs propres réglementations dans des cadres nationaux. Cela pourrait répondre à ces préoccupations spécifiques et contribuer à équilibrer los angeles réglementation et le développement de l’IA.
L. a. Californie a présenté deux projets de loi visant à réglementer l’intelligence artificielle dans l’emploi. Shanghai a proposé un système pour classer, gérer et surveiller le développement de l’IA au niveau municipal.
Cependant, une définition trop étroite des applied sciences de l’IA, comme l’a fait los angeles Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.
Avance
Des recueils de « meilleures pratiques » pour los angeles gestion de l’IA émergent de juridictions locales, nationales et transnationales, sous los angeles surveillance de groupes tels que le Conseil consultatif des Countries Unies sur l’IA et le Nationwide Institute of Requirements and Era des États-Unis. Les cadres de gouvernance de l’IA existants au Royaume-Uni, aux États-Unis, dans l’UE et, dans une mesure limitée, en Chine sont susceptibles d’être considérés comme des directives.
L. a. coopération mondiale sera fondée sur un consensus ethical et, plus vital encore, sur les intérêts nationaux et géopolitiques.
Creation à los angeles dialog
Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.
los angeles quotation: Qui écrira les règles de l’intelligence artificielle ? Remark les will pay s’efforcent de réglementer l’IA (8 novembre 2023) Récupéré le 8 novembre 2023 sur
Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.