Le travail humain est ce qui soutient le développement de l’intelligence artificielle

Crédit : Pixabay/CC0 Domaine public

L’entreprise technologique finlandaise Metroc a récemment commencé à utiliser le travail pénitentiaire pour former un grand modèle de langage afin d’améliorer sa technologie d’IA. Pour 1,54 € de l’heure, les détenus répondent à des questions simples sur des extraits de texte selon un processus appelé étiquetage des données.

Le profilage des données est souvent externalisé vers les marchés du travail des will pay du Sud, où les entreprises peuvent trouver des travailleurs parlant couramment l’anglais et disposés à travailler pour de bas salaires.

Cependant, comme il y avait peu de finnophones dans ces will pay, Mitruk exploitait une supply locale de main-d’œuvre bon marché. Sans le programme de travail pénitentiaire, Mitruk aurait probablement ecu du mal à trouver des Finlandais disposés à accepter des emplois de classification de données qui paient une fraction du salaire moyen en Finlande.

Non seulement ces stratégies de réduction des coûts mettent en évidence l. a. quantité importante de travail humain encore nécessaire pour affiner l’IA, mais elles soulèvent également d’importantes questions sur l. a. durabilité à lengthy terme de ces modèles et pratiques économiques.

Le problème du travail à Amnesty World

L’ambiguïté morale de l’intelligence artificielle résultant du travail en jail fait partie d’une histoire plus vaste sur le coût humain derrière l. a. croissance spectaculaire de l’intelligence artificielle ces dernières années. Un problème qui est devenu plus obvious au cours de l. a. dernière année concerne l. a. query du travail.

Les grandes entreprises d’IA ne nient pas avoir recours à une main-d’œuvre externalisée et mal rémunérée pour effectuer des tâches telles que l. a. classification des données. Cependant, le battage médiatique autour d’outils tels que ChatGPT d’OpenAI a détourné l’consideration de cet side du développement de l. a. technologie.

Alors que les chercheurs, dont moi-même, tentent de comprendre les perceptions et l’utilisation de l’IA dans l’enseignement supérieur, les problèmes éthiques associés aux modèles d’IA actuels continuent de s’accumuler. Il s’agit notamment des préjugés que l’IA a tendance à reproduire, de l’affect environnemental des centres de données d’IA et des problèmes de confidentialité et de sécurité.

Les pratiques actuelles de classification des données d’externalisation révèlent une répartition mondiale inégale des coûts et des avantages de l’IA, avec peu de answers proposées.

Les implications de cette scenario sont doubles.

Premièrement, l’énorme quantité de travail humain encore nécessaire pour façonner « l’intelligence » des outils d’IA devrait inciter les utilisateurs à réfléchir lorsqu’ils évaluent les résultats de ces outils.

Deuxièmement, jusqu’à ce que les entreprises d’IA prennent des mesures sérieuses pour lutter contre leurs pratiques de travail abusives, les utilisateurs et les organisations voudront peut-être reconsidérer les soi-disant valeurs ou avantages des outils d’IA.

Qu’est-ce que l. a. classification des données ?

Los angeles composante « intelligence » de l’IA nécessite encore un apport humain essential pour développer ses capacités de traitement des données. Les chatbots populaires comme ChatGPT sont pré-entraînés (d’où PT dans GPT). Los angeles segment critique du processus de pré-formation consiste en un apprentissage supervisé.

Au cours de l’apprentissage supervisé, les modèles d’IA apprennent à générer des sorties à partir d’ensembles de données étiquetés par des humains. Les compilateurs de données, comme les prisonniers finlandais, accomplissent différentes tâches. Par exemple, les évaluateurs peuvent avoir besoin de vérifier si une symbol contient une certaine fonctionnalité ou de signaler un langage offensant.

En plus d’améliorer l. a. précision, l. a. classification des données est essentielle pour améliorer l. a. « sécurité » des systèmes d’IA. Los angeles sécurité est définie selon les objectifs et principes de chaque entreprise d’IA. Un modèle « sécurisé » pour une entreprise peut signifier éviter le risque de violation du droit d’auteur. D’un autre côté, cela peut impliquer de minimiser les fausses informations ou les contenus biaisés et stéréotypés.

Pour les modèles les plus populaires, l. a. sécurité signifie que le modèle ne doit pas créer de contenu basé sur des idéologies biaisées. Ceci est réalisé en partie grâce à un ensemble de données de formation correctement étiqueté.

Qui sont les auteurs des données ?

Los angeles tâche de parcourir des milliers d’pictures graphiques et d’extraits de texte incombait aux compilateurs de données largement basés dans les will pay du Sud.

Début 2023, le mag Time a fait état du contrat d’OpenAI avec Sama, une société de classification de données basée à San Francisco. Le rapport révèle que le body of workers d’un bureau satellite tv for pc kenyan n’est payé que 1,32 greenbacks de l’heure pour lire des textes qui « semblent avoir été tirés des recoins les plus sombres d’Web ».

Stressed out a également étudié l. a. réalité économique mondiale des sociétés de données en Amérique du Sud et en Asie de l’Est, dont certaines travaillaient plus de 18 heures par jour pour gagner moins que le salaire minimal dans leur will pay.

Le Washington Submit s’est penché de plus près sur ScaleAI, qui emploie au moins 10 000 personnes aux Philippines. L’entreprise basée à San Francisco “payait ses travailleurs à des tarifs extrêmement bas, retardait ou retenait régulièrement les paiements et offrait peu de voies permettant aux travailleurs de demander l’asile”, a révélé le magazine.

Le secteur de l. a. classification des données et l. a. main-d’œuvre nécessaire devraient se développer considérablement dans les années à venir. Les consommateurs qui utilisent les systèmes d’IA ont de plus en plus besoin de savoir remark ils sont construits ainsi que les dommages et les inégalités qui les perpétuent.

Los angeles transparence est requise

Des prisonniers aux travailleurs de chantier, le potentiel d’exploitation est réel pour toutes les personnes impliquées dans l. a. soif large de données de l’IA pour alimenter des modèles plus vastes (et peut-être imprévisibles).

À mesure que l’élan de l’IA et toutes les promesses qu’elle recèle emportent les organisations et les individus, le grand public a tendance à accorder moins d’consideration aux sides éthiques du développement technologique.

Des chercheurs de l’Université de Stanford ont récemment lancé un web site Internet présentant leur modèle d’indice de transparence. L’index fournit des mesures sur les mesures de transparence pour les modèles d’IA les plus couramment utilisés. Ces mesures vont du degré de transparence des entreprises quant à l. a. supply de leurs données jusqu’à leur clarté quant aux risques potentiels de leurs modèles.

Dix modèles d’IA ont été examinés sur l. a. base de critères de transparence de l’entreprise qu’elle dirige concernant ses pratiques commerciales. L’indice montre que les entreprises technologiques ont beaucoup de travail à faire pour améliorer l. a. transparence.

L’intelligence artificielle prend une position croissante dans nos vies de plus en plus numériques. Pour cette raison, nous devons rester opinions à l’égard d’une série de applied sciences qui, si elles ne sont pas contrôlées, pourraient causer plus de problèmes qu’elles n’en résoudraient et pourraient contribuer à aggraver les divisions du monde plutôt qu’à les éliminer.

Creation à l. a. dialog

Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article authentic.

l. a. quotation: De longues heures, des salaires bas : le travail humain soutient le développement de l’intelligence artificielle (16 novembre 2023) Récupéré le 16 novembre 2023 sur

Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.