Crédit : Symbol générée par l’intelligence artificielle
De mauvaises données ne conduisent pas seulement à de mauvais résultats. Cela peut également contribuer à opprimer des secteurs de l. a. société, par exemple les femmes et les minorités vulnérables.
C’est l’argument que mon nouveau livre avance sur l. a. relation entre les différentes formes de racisme, de sexisme et d’intelligence artificielle. Le problème est grave. Les algorithmes ont généralement besoin d’être exposés à des données – souvent provenant d’Web – afin d’améliorer tout ce qu’ils font, comme l. a. sélection des candidatures à un emploi ou l. a. souscription de prêts hypothécaires.
Mais les données de formation contiennent souvent de nombreux biais qui existent dans le monde réel. Par exemple, les algorithmes peuvent apprendre que l. a. plupart des personnes occupant un poste particulier sont des hommes et préfèrent donc les hommes dans les candidatures. Nos données sont entachées par une multitude de mythes du siècle des Lumières, notamment des préjugés qui conduisent à une discrimination fondée sur le sexe et l’identité de style.
Compte tenu de l’histoire des sociétés dans lesquelles le racisme a joué un rôle dans l’établissement de l’ordre social et politique et dans l’octroi de privilèges aux hommes blancs – en Europe, en Amérique du Nord et en Australie, par exemple – il est facile pour l. a. science de supposer que les vestiges de l. a. discrimination raciale alimentent notre technologie. .
Dans mes recherches pour le livre, j’ai documenté quelques exemples notables. Il est courant que les logiciels de reconnaissance faciale identifient mal les minorités noires et asiatiques, ce qui conduit à de fausses arrestations aux États-Unis et ailleurs.
Les programmes utilisés dans le système de justice pénale prévoyaient que les criminels noirs auraient des taux de récidive plus élevés qu’eux. Il y a ecu de mauvaises décisions en matière de soins de santé. Une étude a révélé que parmi les sufferers noirs et blancs ayant reçu le même ranking de risque pour l. a. santé selon un algorithme utilisé par le ministère américain de l. a. Santé, les sufferers noirs étaient plus souvent plus malades que leurs homologues blancs.
Cela a réduit de plus de moitié le nombre de sufferers noirs identifiés pour des soins supplémentaires. Parce que moins d’argent était dépensé pour les sufferers noirs qui avaient le même niveau de besoins que les sufferers blancs, l’algorithme a conclu à tort que les sufferers noirs étaient en meilleure santé que les sufferers blancs ayant le même besoin. Les refus de prêts hypothécaires aux minorités sont facilités par des ensembles de données biaisés. Los angeles liste proceed.
Les machines ne mentent pas ?
De tels algorithmes oppressifs interfèrent dans presque tous les domaines de nos vies. L’IA ne fait qu’empirer les choses, automotive elle nous est présentée comme étant essentiellement impartiale. On nous a dit que les machines ne mentent pas. Los angeles logique dit donc que personne n’en porte l. a. responsabilité.
Cette fausse objectivité est au cœur du battage médiatique autour de l’intelligence artificielle créé par les géants technologiques de l. a. Silicon Valley. Cela se voit facilement dans les discours d’Elon Musk, Mark Zuckerberg et Invoice Gates, même s’ils nous mettent de temps à autre en garde sur les projets dont ils sont responsables.
De nombreuses questions juridiques et éthiques restent en jeu. Qui est responsable des erreurs ? Une personne peut-elle réclamer une indemnisation pour un algorithme qui lui refuse une libération conditionnelle en raison de son origine raciale, de l. a. même manière qu’on peut réclamer une indemnisation pour un grille-pain qui a explosé dans l. a. delicacies ?
Los angeles nature ambiguë de l. a. technologie de l’IA pose de sérieux défis aux systèmes juridiques fondés sur l. a. responsabilité individuelle ou humaine. À un niveau plus fondamental, les droits humains fondamentaux sont menacés, à mesure que l. a. responsabilité juridique devient floue en raison du labyrinthe technologique placé entre les auteurs et des diverses formes de discrimination qui peuvent facilement être imputées aux machines.
Le racisme a toujours été une stratégie systématique d’organisation de l. a. société. Il construit, légitime et renforce les hiérarchies entre les « nantis » et les « démunis ».
Vide ethical et juridique
Dans un tel monde, où il est difficile de séparer l. a. vérité de l. a. réalité du mensonge, notre vie privée a besoin d’une coverage juridique. Le droit à l. a. vie privée et à l. a. propriété de nos données virtuelles et réelles doit être codifié en tant que droit de l’homme, notamment afin de profiter des réelles opportunités qu’une bonne IA offre pour l. a. sécurité humaine.
Mais à l’heure actuelle, les innovateurs sont bien en avance sur nous. Los angeles technologie a dépassé l. a. législation. Le vide ethical et juridique qui en résulte est facilement exploité par les criminels, automotive ce nouveau monde de l’IA est largement chaotique.
Aveuglés par les erreurs du passé, nous sommes entrés dans le Some distance West sans aucun shérif pour surveiller l. a. violence du monde numérique qui enveloppe notre vie quotidienne. Des tragédies surviennent quotidiennement.
Il est temps d’affronter les coûts moraux, politiques et sociaux à travers un mouvement social coordonné en faveur de l. a. législation. Los angeles première étape consiste à nous informer sur ce qui se passe actuellement, automotive nos vies ne seront plus jamais les mêmes. Il est de notre responsabilité de planifier l. a. marche à suivre pour le nouvel avenir de l’IA. Ce n’est qu’ainsi que le bon utilization de l’IA pourra être codifié dans les establishments locales, nationales et mondiales.
Advent à l. a. dialog
Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article unique.
l. a. quotation:Level de vue : Pour les minorités, les algorithmes d’IA biaisés peuvent nuire à presque toutes les events de l. a. vie (25 août 2023) Récupéré le 2 novembre 2023 sur
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.