L’intelligence artificielle s’inquiète lorsque les ordinateurs deviennent trop intelligents

Avant sa mort, le professeur Stephen Hawking a appelé le monde à éviter les risks de l’intelligence artificielle, avertissant qu’il s’agirait du pire événement de l’histoire de l. a. civilisation.

Depuis le tueur de Terminator à Hollywood jusqu’aux avertissements du génie Stephen Hawking ou des stars de l. a. Silicon Valley, les craintes se sont accrues selon lesquelles l’intelligence artificielle pourrait un jour détruire l’humanité.

Les géants de l. a. technologie se battent pour créer une intelligence artificielle plus intelligente que les humains, incitant le président américain Joe Biden à imposer des réglementations d’urgence et l’Union européenne cherchant à se mettre d’accord sur une législation clé d’ici l. a. fin de cette année.

Un sommet de deux jours qui débutera mercredi à Londres explorera les garanties réglementaires contre les risques liés à l’IA tels que ceux répertoriés ci-dessous.

Voleur d’emploi ?

Le succès de ChatGPT d’OpenAI a suscité un débat sur l. a. query de savoir si « l’IA générative » succesful de produire rapidement du texte, des photographs et de l’audio à partir de commandes simples dans le langage courant constitue une risk large pour les emplois occupés.

Les machines automatisées sont déjà utilisées pour effectuer des travaux dans les usines, les entrepôts et les champs.

Cependant, l’IA générative peut cibler des postes de route tels que les avocats, les médecins, les enseignants, les journalistes et même les programmeurs informatiques.

Un rapport du cupboard de conseil McKinsey estime que d’ici l. a. fin de cette décennie, jusqu’à 30 % des heures de travail aux États-Unis pourraient être automatisées, une tendance accélérée par l’intelligence artificielle générative.

Les partisans de cette technologie ont invoqué l’idée d’un revenu de base universel, où les machines génèrent de l. a. richesse qui serait partagée avec des personnes libérées du fardeau du travail.

Mais il est également conceivable pour les entreprises de bénéficier d’une efficacité accrue, laissant les chômeurs se débrouiller seuls.

imitatif?

Les artistes n’ont pas tardé à protester contre des programmes comme Dall-E, Midjourney et Strong Diffusion, capables de créer des photographs dans presque tous les types à l. a. demande.

Les programmeurs informatiques et les écrivains ont emboîté le pas, critiquant les créateurs de l’intelligence artificielle pour avoir « formé » des programmes dans leur travail, leur permettant de reproduire leurs méthodes ou leurs compétences sans autorisation ni reimbursement.

Les modèles d’IA sont enseignés à l’aide de grandes quantités d’informations et d’photographs trouvées sur Web.

“C’est pour cela que nous nous entraînons, et cela ne représente qu’une petite partie de l. a. manufacturing de masse de l’humanité”, a déclaré Sam Altman, co-fondateur d’OpenAI, lors d’une conférence en septembre.

“Je pense que ce sera un outil qui amplifiera les gens, et non les remplacera.”

Des outils de désinformation ?

Les fausses nouvelles et les deepfakes existent depuis des années, mais l. a. possibilité de les diffuser facilement grâce à l’IA générative fait craindre une tromperie généralisée en ligne.

Les élections risquent d’être remportées par ceux qui sont les plus aptes à diffuser de l. a. désinformation, affirme Gary Marcus, spécialiste des sciences cognitives et skilled en intelligence artificielle.

« L. a. démocratie dépend de l’accès à l’knowledge nécessaire pour prendre les bonnes décisions », a déclaré Marcos.

« Si personne ne sait ce qui est vrai et ce qui est pretend, tout finira. »

arnaque?

L’IA générative permet aux fraudeurs de créer plus facilement des e-mails de phishing convaincants et peut-être d’en apprendre suffisamment sur les cibles pour personnaliser leurs tactiques.

L. a. technologie leur permet de copier un visage ou une voix, incitant ainsi les gens à se laisser prendre à une arnaque, en prétendant par exemple qu’un proche est en threat.

Le président américain Biden a qualifié d’« incroyable » l. a. capacité de l’intelligence artificielle à imiter l. a. voix des gens lorsqu’il a signé son dernier décret ciblant cette technologie.

Il existe même des modèles de langage spécialement formés pour produire de tels contenus malveillants.

Des modèles humains

Comme pour d’autres applied sciences potentiellement bénéfiques ou néfastes, le most important threat réside dans les humains qui les utilisent.

Puisque l’IA est formée à partir des données que les humains mettent sur Web, elle peut refléter les préjugés, les préjugés et les injustices de l. a. société.

L’IA a également le potentiel de faciliter l. a. création d’armes biologiques ; Piratage de banques ou de réseaux électriques ; Gérer l. a. surveillance gouvernementale oppressive, et plus encore.

Suzerain de l’IA ?

Certains acteurs du secteur craignent que l’intelligence artificielle ne devienne si intelligente qu’elle puisse prendre le contrôle des humains.

“Il n’est pas difficile d’imaginer qu’à un second donné dans le futur, nos ordinateurs intelligents deviendront aussi intelligents, voire plus, que les humains”, a déclaré Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI, lors de l. a. récente conférence TED AI.

“L’affect d’une telle intelligence artificielle sera vraiment énorme.”

OpenAI et ses concurrents affirment que l’objectif est que l’intelligence artificielle profite à l’humanité, en résolvant des problèmes longtemps insolubles tels que le changement climatique.

Pendant ce temps, les leaders de l’industrie de l’IA réclament une réglementation réfléchie pour prévenir des risques tels que l’extinction de l’humanité.

© 2023 Agence France-Presse

l. a. quotation: AI Worry As Computer systems Get Too Sensible (1er novembre 2023) Récupéré le 2 novembre 2023 sur

Ce record est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.