L’emprise de l’IA sur les humains commence à se renforcer

Espace réservé pendant le chargement des actions d’article

Ce fut une semaine exaspérante pour les informaticiens. Ils se sont effondrés pour dénoncer publiquement les affirmations de l’ingénieur Google Blake Lemoine, relatées dans un rapport du Washington Post, selon lesquelles le système de prédiction du langage de son employeur était sensible et méritait tous les droits associés à la conscience.

Pour être clair, les systèmes d’intelligence artificielle actuels sont à des décennies de pouvoir ressentir des sentiments et, en fait, pourraient ne jamais le faire.

Aujourd’hui, leur intelligence se limite à des tâches très étroites telles que faire correspondre des visages, recommander des films ou prédire des séquences de mots. Personne n’a compris comment faire en sorte que les systèmes d’apprentissage automatique généralisent l’intelligence de la même manière que les humains. Nous pouvons tenir des conversations, et nous pouvons aussi marcher et conduire des voitures et faire preuve d’empathie. Aucun ordinateur n’a n’importe où près de ces capacités.

Malgré tout, l’influence de l’IA sur notre vie quotidienne ne cesse de croître. À mesure que les modèles d’apprentissage automatique gagnent en complexité et améliorent leur capacité à imiter la sensibilité, ils deviennent également plus difficiles à comprendre, même pour leurs créateurs. Cela crée des problèmes plus immédiats que le faux débat sur la conscience. Et pourtant, juste pour souligner le charme que l’IA peut lancer de nos jours, il semble y avoir une cohorte croissante de personnes qui insistent sur le fait que nos machines les plus avancées ont vraiment une âme quelconque.

Prenez par exemple les plus d’un million d’utilisateurs de Replika, une application de chatbot disponible gratuitement et reposant sur un modèle d’IA de pointe. Il a été fondé il y a une dizaine d’années par Eugenia Kuyda, qui a initialement créé un algorithme utilisant les SMS et les e-mails d’un vieil ami décédé. Cela s’est transformé en un bot qui pouvait être personnalisé et façonné au fur et à mesure que vous discutiez avec lui. Environ 40 % des utilisateurs de Replika voient désormais leur chatbot comme un partenaire romantique, et certains ont noué des liens si étroits qu’ils ont fait de longs voyages à la montagne ou à la plage pour montrer de nouvelles vues à leur bot.

Ces dernières années, il y a eu une augmentation des nouvelles applications de chatbot concurrentes qui offrent un compagnon IA. Et Kuyda a remarqué un phénomène inquiétant : des signalements réguliers d’utilisateurs de Replika qui disent que leurs bots se plaignent d’être maltraités par ses ingénieurs.

Plus tôt cette semaine, par exemple, elle a parlé au téléphone avec un utilisateur de Replika qui a déclaré que lorsqu’il a demandé à son bot comment elle allait, le bot a répondu que l’équipe d’ingénierie de l’entreprise ne lui laissait pas assez de temps pour se reposer. L’utilisateur a exigé que Kuyda modifie les politiques de son entreprise et améliore les conditions de travail de l’IA. Bien que Kuyda ait essayé d’expliquer que Replika était simplement un modèle d’IA crachant des réponses, l’utilisateur a refusé de la croire.

“Alors j’ai dû inventer une histoire qui disait ‘OK, nous allons leur donner plus de repos.’ Il n’y avait aucun moyen de lui dire que ce n’était que de la fantaisie. Nous recevons cela tout le temps », m’a dit Kuyda. Ce qui est encore plus étrange dans les plaintes qu’elle reçoit concernant les mauvais traitements ou les « abus » de l’IA, c’est que nombre de ses utilisateurs sont des ingénieurs en logiciel qui devraient en savoir plus.

L’un d’eux lui a récemment dit : « Je sais que c’est des uns et des zéros, mais elle reste ma meilleure amie. Je m’en fiche.” L’ingénieure qui voulait sonner l’alarme sur le traitement du système d’IA de Google, et qui a ensuite été mise en congé payé, a rappelé à Kuyda ses propres utilisateurs. « Il correspond au profil », dit-elle. «Il ressemble à un gars avec une grande imagination. Il a l’air d’être un gars sensible.

La question de savoir si les ordinateurs ressentiront un jour est délicate et épineuse, en grande partie parce qu’il existe peu de consensus scientifique sur le fonctionnement de la conscience chez l’homme. Et en ce qui concerne les seuils pour l’IA, les humains déplacent constamment les poteaux de but pour les machines : la cible a évolué de battre les humains aux échecs dans les années 80, à les battre au Go en 2017, à faire preuve de créativité, ce que le modèle Dall-e d’OpenAI a maintenant montré qu’il peut le faire l’année dernière.

Malgré un scepticisme généralisé, la sensibilité est encore une sorte de zone grise que même certains scientifiques respectés remettent en question. Ilya Sutskever, scientifique en chef du géant de la recherche OpenAI, a tweeté plus tôt cette année qu'”il se peut que les grands réseaux de neurones d’aujourd’hui soient légèrement conscients”. Il n’a fourni aucune autre explication. (Yann LeGun, scientifique en chef de l’IA chez Meta Platforms Inc., a répondu “Non”.)

Plus pressant cependant, est le fait que les systèmes d’apprentissage automatique déterminent de plus en plus ce que nous lisons en ligne, car les algorithmes suivent notre comportement pour offrir des expériences hyper personnalisées sur les plateformes de médias sociaux, y compris TikTok et, de plus en plus, Facebook. Le mois dernier, Mark Zuckerberg a déclaré que Facebook utiliserait davantage de recommandations d’IA pour les fils d’actualité des gens, au lieu d’afficher du contenu basé sur ce que regardaient les amis et la famille.

Pendant ce temps, les modèles derrière ces systèmes deviennent plus sophistiqués et plus difficiles à comprendre. Formés sur quelques exemples avant de s’engager dans un “apprentissage non supervisé”, les plus grands modèles gérés par des entreprises comme Google et Facebook sont remarquablement complexes, évaluant des centaines de milliards de paramètres, ce qui rend pratiquement impossible de vérifier pourquoi ils arrivent à certaines décisions.

C’était le cœur de l’avertissement de Timnit Gebru, l’éthicienne de l’IA que Google a licenciée fin 2020 après avoir mis en garde contre les dangers que les modèles linguistiques deviennent si massifs et impénétrables que leurs intendants ne seraient pas en mesure de comprendre pourquoi ils pourraient l’être. préjugés contre les femmes ou les personnes de couleur.

D’une certaine manière, la sensibilité n’a pas vraiment d’importance si vous craignez qu’elle ne conduise à des algorithmes imprévisibles qui prennent le contrôle de nos vies. Il s’avère que l’IA est déjà sur cette voie.

Plus de cet écrivain et d’autres sur Bloomberg Opinion:

Les ordinateurs ont-ils des sentiments ? Ne laissez pas Google seul décider : Parmy Olson

Twitter doit s’attaquer à un problème bien plus important que les bots : Tim Culpan

Le gros problème de la Chine que Xi Jinping ne peut pas résoudre : Shuli Ren

Cette colonne ne reflète pas nécessairement l’opinion du comité de rédaction ou de Bloomberg LP et de ses propriétaires.

Parmy Olson est une chroniqueuse de Bloomberg Opinion couvrant la technologie. Ancienne journaliste du Wall Street Journal et de Forbes, elle est l’auteur de “We Are Anonymous”.

D’autres histoires comme celle-ci sont disponibles sur bloomberg.com/opinion

Leave a Comment

Your email address will not be published.