Remplacer les travailleurs de première ligne par l’intelligence artificielle pourrait être une mauvaise idée. C’est pourquoi

Crédit : Sanket Mishra de Pexels

Les entreprises utilisent déjà largement les chatbots IA pour accueillir les shoppers et répondre à leurs questions, que ce soit par téléphone ou sur des websites Internet. Certaines entreprises ont découvert qu’elles pouvaient, dans une certaine mesure, remplacer les humains par des machines dans les fonctions des centres d’appels.

Cependant, les données disponibles suggèrent que certains secteurs – tels que les soins de santé et les ressources humaines – doivent être très prudents quant à l’utilisation de ces outils de première ligne, et qu’une surveillance éthique peut s’avérer nécessaire.

Un exemple récent et très médiatisé est celui du chatbot appelé « Tessa », utilisé par los angeles Nationwide Consuming Problems Affiliation (NEDA) aux États-Unis. L’organisation maintenait initialement une ligne d’help téléphonique gérée par un groupe d’employés rémunérés et de bénévoles. Celui-ci avait pour objectif exprès d’aider les personnes vulnérables souffrant de troubles de l’alimentation.

Cependant, cette année, l’organisation a licencié son team of workers d’help téléphonique, annonçant qu’elle les remplacerait par le chatbot Tessa. Les raisons de cela sont contestées. Les anciens travailleurs affirment que ce changement est intervenu après los angeles décision des employés de los angeles ligne d’help téléphonique d’adhérer au syndicat. Le vice-président de los angeles NEDA a évoqué l’augmentation du nombre d’appels et des temps d’attente, ainsi que les responsabilités juridiques liées au recours à du team of workers bénévole.

Quoi qu’il en soit, très peu de temps après l’intervention, Tessa a été mise hors ligne en raison d’informations selon lesquelles le chatbot avait émis des conseils problématiques qui auraient pu aggraver les symptômes des personnes cherchant de l’aide pour des troubles de l’alimentation.

Il a également été rapporté que le Dr Ellen Fitzsimmons-Craft et le Dr C. Barr Taylor, deux chercheurs hautement qualifiés qui ont contribué à los angeles création de TESA, ont déclaré que le chatbot n’avait jamais été destiné à remplacer los angeles ligne d’help existante ou à fournir une help immédiate. . Pour ceux qui présentent des symptômes de troubles alimentaires graves.

Tremendous promotion

Alors, pourquoi Tessa a-t-elle été conçue ? Les chercheurs, avec leurs collègues, ont créé une étude observationnelle qui met en évidence les défis auxquels ils ont été confrontés lors de los angeles conception d’un chatbot basé sur des règles pour interagir avec les utilisateurs préoccupés par les troubles de l’alimentation. C’est une lecture très fascinante, expliquant les choix de conception, les processus, les pièges et les changes.

Los angeles model originale de Tessa était un chatbot traditionnel basé sur des règles, quoique très répétitif, qui suivait une structure prédéfinie et basée sur une logique. Il ne peut s’écarter des réponses standardisées et préprogrammées qui ont été calibrées par ses créateurs.

Leur conclusion incluait le level suivant : « Les chatbots basés sur des règles ont le potentiel d’atteindre de larges populations à faible coût en fournissant des informations et des interactions simples, mais sont limités dans leur compréhension et leur réponse appropriée aux réponses inattendues des utilisateurs. »

Cela semblerait limiter les utilisations auxquelles Tessa était adaptée. Alors, remark NEDA a-t-elle fini par remplacer los angeles ligne d’help téléphonique précédemment utilisée ? Los angeles séquence exacte des événements est sujette à débat parmi différents comptes, mais selon NPR, los angeles société hébergeant le chatbot a fait passer Tessa d’un chatbot basé sur des règles avec des réponses préprogrammées à un chatbot doté d’une “fonctionnalité de questions-réponses améliorée”.

Los angeles dernière model de Tessa utilisait l’IA générative, comme ChatGPT et des produits similaires. Ces chatbots avancés basés sur l’IA sont conçus pour imiter les modèles de dialog humaine dans le however de fournir des réponses plus réalistes et plus utiles. Los angeles génération de ces réponses personnalisées repose sur de vastes bases de données d’informations, que les modèles d’IA ont été entraînés à « comprendre » grâce à divers processus technologiques : apprentissage automatique, apprentissage profond et traitement du langage naturel.

Apprendre des leçons

En fin de compte, le chatbot a généré ce qui a été décrit comme des réponses potentiellement dangereuses aux questions de certains utilisateurs. Les discussions qui ont suivi ont fait basculer los angeles faute d’une establishment à l’autre. Il n’en demeure pas moins que les circonstances qui ont suivi auraient pu être évitées s’il y avait european un organisme assurant une surveillance éthique, un « être humain informé » et un engagement envers l’objectif clair de los angeles conception originale de TESA.

Il est essential de tirer les leçons de tels cas dans le contexte de los angeles ruée vers l’intégration de l’IA dans une variété de systèmes. Bien que ces événements se soient produits aux États-Unis, ils contiennent des leçons pour ceux qui cherchent à faire de même dans d’autres can pay.

Le Royaume-Uni semble avoir une approche quelque peu fragmentée sur cette query. Le conseil consultatif du Centre pour l’éthique et l’innovation des données (CDEI) a été récemment dissous et son siège à los angeles desk a été occupé par le nouveau groupe de travail Frontier AI. Selon certaines informations, des systèmes d’IA seraient déjà testés à Londres comme outils d’aide aux travailleurs, mais pas pour remplacer los angeles ligne d’help téléphonique.

Les deux exemples mettent en évidence los angeles stress potentielle entre les considérations éthiques et les intérêts commerciaux. Nous devons espérer que les deux finiront par s’aligner, équilibrant le bien-être des individus avec l’efficacité et les avantages que l’IA peut apporter.

Cependant, dans certains domaines où les organisations interagissent avec le public, les réponses générées par l’IA et les simulations empathiques pourraient ne jamais suffire à remplacer los angeles véritable humanité et los angeles véritable compassion – en particulier dans les domaines de los angeles médecine et de los angeles santé mentale.

Creation à los angeles dialog

Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article unique.

los angeles quotationRemplacer les travailleurs de première ligne par l’intelligence artificielle pourrait être une mauvaise idée. C’est pourquoi (31 octobre 2023) Récupéré le 1er novembre 2023 sur

Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.