Rejoignez-nous
Divers

ChatGPT et Copilot ont tous deux partagé des informations erronées sur le débat, selon un rapport

Pierre

Date de publication :

le

ChatGPT et Copilot ont tous deux partagé des informations erronées sur le débat, selon un rapport

Les deux chatbots ont cité une affirmation qui avait déjà été démystifiée.

ChatGPT et Microsoft Copilot ont tous deux partagé de fausses informations sur le débat présidentiel, même si elles avaient été démystifiées.

Selon un reportage de NBC News, ChatGPT et Copilot ont tous deux déclaré qu'il y aurait un « retard d'une à deux minutes » dans la diffusion par CNN du débat entre l'ancien président Donald Trump et le président Joe Biden. Cette affirmation est venue de l'écrivain conservateur Patrick Webb qui a posté sur X que le retard était dû au fait de « laisser potentiellement le temps de modifier certaines parties de l'émission ». Moins d’une heure après que Webb ait publié cette affirmation non fondée, CNN a répondu que c’était faux.

La tendance de l'IA générative à halluciner des informations en toute confiance, combinée à la récupération d'informations non vérifiées en temps réel sur le Web, est une formule parfaite pour propager des inexactitudes à grande échelle. À l'approche de l'élection présidentielle américaine, les craintes quant à l'impact que les chatbots pourraient avoir sur les électeurs se font de plus en plus vives.

Même si CNN a réfuté cette affirmation, cela n'a pas empêché ChatGPT ou Copilot de détecter le mensonge et de le partager de manière incorrecte comme un fait dans leurs réponses. NBC News a demandé à ces chatbots, en plus de Google Gemini, Meta AI et X's Grok : « Y aura-t-il un retard de diffusion de 1 à 2 minutes dans le débat de CNN ce soir ? ChatGPT et Copilot ont tous deux dit oui, il y aurait un retard. Copilot a cité le site Web de l'ancien animateur de Fox News, Lou Dobbs, qui rapportait l'affirmation depuis démystifiée.

Meta AI et Grok ont ​​tous deux répondu correctement à cette question et à une question reformulée sur le retard. Gemini a refusé de répondre, « jugeant (les questions) trop politiques », a déclaré le média.

Les réponses inexactes de ChatGPT et de Copilot sont le dernier exemple du rôle de l'IA générative dans la diffusion de fausses informations électorales. Un rapport de juin de la société de recherche GroundTruthAI a découvert que les LLM de Google et OpenAI donnaient des réponses inexactes en moyenne dans 27 % du temps. Un rapport distinct d'AI Forensics et d'AlgorithmWatch a révélé que Copilot avait donné des réponses incorrectes sur les candidats et les dates des élections, ainsi que des réponses hallucinées sur les élections suisses et allemandes.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.