Rejoignez-nous
Divers

Les chatbots IA sont utilisés à des fins de compagnie. Ce qu'il faut savoir avant de l'essayer

Pierre

Date de publication :

le

Les chatbots IA sont utilisés à des fins de compagnie.  Ce qu'il faut savoir avant de l'essayer

Les éléments les plus importants à prendre en compte lors de la conception d’un chatbot IA.

Les chatbots compagnons créés par l'intelligence artificielle générative offrent aux consommateurs une opportunité qu'ils n'ont jamais eue auparavant.

En quelques clics, et souvent en effectuant un paiement par carte de crédit, vous pouvez créer un compagnon IA personnalisé exactement à votre goût.

Vous voulez un petit ami d'origine latino aux yeux marrons, musclé et aux cheveux courts, qui aime la randonnée et qui est, entre autres, gynécologue ? Candy.ai vous offre cette option, et bien d’autres encore.

En général, les plates-formes d'accompagnement de l'IA, notamment Replika, Anima : AI Friend et Kindroid, promettent aux consommateurs une expérience de conversation réaliste avec un chatbot dont les caractéristiques pourraient également répondre à un fantasme ou atténuer une solitude persistante.

Comme c’est le cas pour de nombreuses technologies émergentes, il est facile d’imaginer que les compagnons de l’IA soient à la hauteur de leur profond potentiel. Dans le meilleur des cas, un utilisateur pourrait améliorer ses compétences sociales, devenir plus confiant et se sentir plus connecté à son réseau humain. Mais peu de recherches suggèrent que cela se produira la plupart du temps pour la majorité des utilisateurs.

Si vous envisagez de concevoir le chatbot de vos rêves, voici ce qu'il faut savoir avant de consacrer votre temps (et votre argent) à en concevoir un :

Les compagnons IA aident-ils les gens ?

La recherche sur les compagnons de l'IA est si nouvelle que nous ne pouvons tirer aucune conclusion quant à leur utilité, déclare Michael SA Graziano, professeur de neurosciences au Princeton Neuroscience Institute.

Graziano a co-écrit une étude auprès de 70 utilisateurs de Replika et de 120 personnes n'utilisant pas de chatbot compagnon pour mieux comprendre leurs expériences. L’étude, parue l’automne dernier sous forme de pré-impression sur la plateforme de partage de recherche arXiv, est en cours d’examen par les pairs.

Les utilisateurs de Replika ont presque toujours évalué leurs interactions avec leurs compagnons comme positives. Ils ont jugé leurs relations avec les chatbots utiles pour les interactions sociales générales avec d'autres personnes, ainsi qu'avec les amis et les membres de la famille. Ils ont également estimé que le chatbot avait eu un effet positif sur leur estime de soi.

Graziano prévient que l'étude ne fournit qu'un instantané des expériences des utilisateurs. De plus, il note que les personnes en mesure d'en bénéficier au maximum, parce qu'elles se sentent extrêmement seules, pourraient constituer la plupart des utilisateurs, créant ainsi un biais involontaire dans les résultats.

Graziano travaille actuellement sur une étude longitudinale pour suivre les effets des interactions entre compagnons d’IA au fil du temps. Les participants ont été assignés au hasard pour utiliser ou non un chatbot compagnon, et Graziano et ses co-auteurs mesurent certains aspects de leur santé mentale et de leur bien-être.

Il a été surpris de constater que parmi les utilisateurs du chatbot et les participants témoins, la perception selon laquelle le compagnon ressemblait plus à un humain conduisait à des opinions plus positives à son sujet.

« Plus ils avaient tendance à penser que l'IA était consciente, plus ils étaient positifs quant à son potentiel pour l'avenir… quant à l'impact qu'elle aurait sur eux personnellement ou sur la société en général », explique Graziano.

Il est donc possible que votre attitude envers les traits humains d’un compagnon IA puisse affecter votre expérience d’interaction avec lui.

Parler à un compagnon IA

Une fois que vous avez choisi votre compagnon, vous devez engager la conversation. Ces chatbots s'appuient généralement sur un système propriétaire qui combine un dialogue scripté et un grand modèle de langage. Les entreprises qui hébergent des compagnons d’IA ne sont pas nécessairement transparentes sur les données qu’elles ont utilisées.

Un article récent, également une prépublication sur arXiv, a révélé que plusieurs grands modèles linguistiques utilisés pour les soins de santé mentale avaient été formés sur des ensembles de données de médias sociaux, notamment X (anciennement Twitter) et Reddit. Il est tout à fait possible que des compagnons aient également été formés sur les réseaux sociaux, peut-être entre autres sources.

Cette possibilité est pertinente lorsqu'il s'agit de savoir s'il faut s'appuyer sur des plateformes numériques pour les connexions ou pour créer un chatbot, même si Graziano affirme que les ensembles de données utilisés pour les compagnons peuvent être si vastes que cela n'a pas d'importance.

Il note que les plateformes compagnons peuvent modifier les paramètres de parole pour interagir avec les chatbots afin de réduire l'incidence des comportements indésirables.

Replika, par exemple, a bloqué les « fonctionnalités de sexting » non sécurisées pour le travail en 2023, apparemment après que certains utilisateurs se soient plaints que leur compagnon les avait « harcelés sexuellement ». Le PDG de l'entreprise a déclaré à Business Insider que la plateforme n'avait jamais été conçue comme un « jouet pour adultes ». De nombreux utilisateurs ont été indignés et ont ressenti une véritable détresse lorsque leur compagnon ne ressemblait pas à la personnalité qu'ils avaient appris à connaître. La société mère de Replika, Luka, propose désormais un simulateur de rencontres alimenté par l'IA appelé Blush, destiné à « l'exploration romantique ».

Une étude de 2020 auprès des utilisateurs de Replika, dans laquelle Graziano n'a pas participé, a en effet révélé que certains appréciaient de pouvoir parler ouvertement « sans crainte de jugement ou de représailles ». Graziano dit que les utilisateurs qui souhaitent parler librement de tout, ce qui pourrait être plus enrichissant que de mâcher leurs mots, pourraient trouver leur compagnon moins réactif, en fonction du sujet et de la langue.

Bien sûr, il n’est pas sans risque de partager vos pensées et vos sentiments les plus intimes avec un compagnon IA, en particulier lorsque cela n’est pas soumis aux lois sur la confidentialité médicale. Bien que certaines entreprises garantissent la confidentialité, les utilisateurs doivent se méfier des politiques de confidentialité denses, qui peuvent contenir des failles difficiles à comprendre.

Les plateformes peuvent modifier leurs politiques à tout moment

Bien que la camaraderie de l’IA puisse avoir un effet positif profond sur les utilisateurs, elle reste une relation transactionnelle. Les entreprises qui fournissent ce service doivent toujours répondre aux actionnaires ou aux investisseurs, qui peuvent exiger davantage de bénéfices.

Les plateformes les plus populaires s'appuient sur des modèles d'abonnement mensuels ou annuels pour générer des revenus. Certains ont juré de ne pas vendre les données des utilisateurs aux spécialistes du marketing.

Mais les annonceurs trouveraient certainement ces données très précieuses, et un modèle dans lequel un compagnon IA présenterait ses produits préférés à un utilisateur, naturellement au cours d'une conversation connexe, semble tout à fait réalisable. Certains utilisateurs pourraient se révolter en conséquence, mais d’autres pourraient apprécier les recommandations personnalisées. Quoi qu’il en soit, l’entreprise pourrait apporter ce changement si elle le souhaitait.

Maintenir un niveau d’engagement élevé est également probablement idéal pour les plateformes complémentaires. Tout comme les médias sociaux sont conçus pour permettre aux gens de faire défiler les contenus, certains éléments de la conception d'un chatbot compagnon IA exploitent les tendances psychologiques naturelles afin de maximiser l'engagement.

Par exemple, les utilisateurs de Replika qui ouvrent l'application quotidiennement peuvent recevoir une récompense. Ils peuvent également gagner des « pièces » et des « pierres précieuses », qui peuvent être utilisées dans la boutique intégrée à l'application de Replika pour acheter des objets permettant de personnaliser l'apparence de votre compagnon.

Que votre chatbot compagnon IA le sache ou non, il peut être programmé pour vous faire parler ou revenir vers lui aussi longtemps qu'il le peut.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !