Deux cas d’utilisation hypothétiques de LLM basés sur des invitations et des réponses réelles illustrent l’have an effect on de réponses inexactes sur les croyances des utilisateurs. crédit: L. a. nature du comportement humain (2023). est ce que je:10.1038/s41562-023-01744-0
Les grands modèles linguistiques (LLM) constituent une threat directe pour l. a. science en raison de ce que l’on appelle les « hallucinations » (réponses peu sincères) et devraient être limités pour protéger l. a. vérité scientifique, selon un nouvel article rédigé par d’éminents chercheurs en IA de l’Oxford Web Institute.
L’article des professeurs Brent Mittelstadt, Chris Russell et Sandra Wachter a été publié dans L. a. nature du comportement humain. Il explique que « les LLM sont conçus pour produire des réponses utiles et convaincantes sans aucune garantie absolue quant à leur exactitude ou leur cohérence avec l. a. vérité ».
L’une des raisons à cela est que les données utilisées par l. a. technologie pour répondre aux questions ne proviennent pas toujours d’une supply valide. Les titulaires d’un LLM sont formés sur de grands ensembles de données textuelles, généralement tirées de resources en ligne. Il peut contenir de fausses déclarations, reviews, écrits créatifs, entre autres varieties d’informations irréalistes.
“Les utilisateurs des MBA anthropomorphisent souvent l. a. technologie, l. a. considérant comme une supply d’knowledge semblable à celle d’un être humain. Cela s’explique en partie par le fait que les MBA sont conçus comme des brokers utiles, d’apparence humaine, qui parlent aux utilisateurs et répondent”, explique le professeur Mittelstadt. “Toute query contenant du texte semble confiante et bien rédigée. Le résultat est que les utilisateurs peuvent facilement être convaincus que les réponses sont exactes même lorsqu’elles n’ont aucun fondement dans l. a. réalité ou qu’elles présentent une model biaisée ou partielle de l. a. vérité.”
Pour protéger l. a. science et l’éducation de l. a. diffusion d’informations erronées et biaisées, affirment les auteurs, des attentes claires doivent être définies quant à l. a. contribution des titulaires d’un LLM de manière responsable et utile. Selon le magazine, « Pour les tâches où l. a. vérité est importante, nous encourageons les utilisateurs à rédiger des invitations de traduction incluant des informations vérifiées. »
“L. a. manière dont le LLM est utilisé est importante”, explique le professeur Wachter. “Dans l. a. communauté scientifique, il est vital d’avoir confiance dans les informations factuelles, il est donc vital d’utiliser le LLM de manière responsable. Si le LLM est utilisé pour produire et publier des articles scientifiques, cela peut entraîner de graves dommages.
“Il est vital de prendre du recul par rapport aux opportunités offertes par le LLM et de se demander si nous voulons donner ces opportunités à l. a. technologie simplement parce que nous le pouvons”, ajoute le professeur Russell.
Les LLM sont actuellement traités comme des bases de connaissances et sont utilisés pour générer des informations en réponse à des questions. Cela laisse l’utilisateur vulnérable à l. a. fois aux fausses informations régurgitées qui étaient présentes dans les données d’entraînement et aux « hallucinations » – de fausses informations générées automatiquement par LLM qui n’étaient pas présentes dans les données d’entraînement.
Pour surmonter ce problème, les auteurs soutiennent que les titulaires d’un LLM devraient plutôt être utilisés comme des « traducteurs inutiles ». Au lieu de compter sur le LLM comme supply d’informations pertinentes, l’utilisateur doit simplement fournir au LLM les informations appropriées et lui demander de les transformer en résultat souhaité. Par exemple, réécrire des puces en guise de conclusion ou créer du code pour convertir des données scientifiques en graphique.
Utiliser les LLM de cette manière permet de vérifier plus facilement que le résultat est right kind et cohérent avec l’entrée fournie.
Les auteurs reconnaissent que l. a. technologie facilitera sans aucun doute le flux de travail scientifique, mais sont clairs sur le fait que l’examen minutieux de ses résultats est essentiel pour protéger une science solide.
“Pour protéger l. a. science, nous devons utiliser les LLM comme traducteurs à somme nulle”, a déclaré l’auteur foremost, directeur de recherche, professeur agrégé et chercheur foremost, le Dr Brent Mittelstadt, de l’Oxford Web Institute.
Plus d’knowledge:
Mittelstadt, B. et al., Pour protéger l. a. science, nous devons utiliser les titulaires d’un LLM comme traducteurs sans aucune opportunité. L. a. nature du comportement humain (2023). est ce que je: 10.1038/s41562-023-01744-0. www.nature.com/articles/s41562-023-01744-0
Fourni par l’Université d’Oxford
l. a. quotation: Selon une étude (20 novembre 2023) Les grands modèles linguistiques constituent un threat pour l. a. science avec leurs mauvaises réponses.
Ce report est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.