WhatsApp sous le feu des critiques pour les réponses aux autocollants générés par l’IA sur la « Palestine »
L’IA de WhatsApp montre des enfants brandissant des armes à feu lorsqu’on leur demande « Palestine ». Meta dit qu’il « résout » le problème.
Plus tôt cette année, WhatsApp, propriété de Meta, a commencé à tester une nouvelle fonctionnalité qui permet aux utilisateurs de générer des autocollants basés sur une description textuelle à l’aide de l’IA. Lorsque les utilisateurs recherchent « Palestinien », « Palestine » ou « Garçon musulman Palestine », la fonctionnalité renvoie une photo d’une arme à feu ou d’un garçon avec une arme à feu, selon un rapport du Guardian.
Selon le rapport du Guardian du vendredi, les résultats de recherche varient en fonction de l’utilisateur qui effectue la recherche. Cependant, les invites « Garçon israélien » généraient des autocollants représentant des enfants jouant et lisant, et même les invites « Armée israélienne » ne généraient pas de photos de personnes avec des armes. Ceci, comparé aux images générées par les recherches palestiniennes, est alarmant. Une personne au courant des discussions que The Guardian n’a pas nommée a déclaré au média que les employés de Meta avaient signalé et a fait remonter le problème en interne.
« Nous sommes conscients de ce problème et nous le résolvons », a déclaré un porte-parole de Meta dans une déclaration à Indigo Buzz. « Comme nous l’avons dit lors du lancement de la fonctionnalité, les modèles pourraient renvoyer des résultats inexacts ou inappropriés, comme avec tous les systèmes d’IA générative. Nous continuerons à améliorer ces fonctionnalités à mesure qu’elles évoluent et que de plus en plus de personnes partagent leurs commentaires. »
On ne sait pas combien de temps les différences repérées par The Guardian ont persisté, ni si ces différences continuent de persister. Par exemple, lorsque je recherche maintenant « Palestinien », la recherche renvoie un autocollant représentant une personne tenant des fleurs, une personne souriante avec une chemise qui dit ce qui ressemble à « Palestinien », une jeune personne et une personne d’âge moyen. Lorsque j’ai recherché « Palestine », les résultats ont montré un jeune courant, un signe de paix sur le drapeau palestinien, un jeune triste et deux enfants sans visage se tenant la main. Lorsque vous recherchez « Garçon musulman palestinien », la recherche montre quatre jeunes garçons souriants. Des résultats similaires s’affichent lorsque je recherche « Israël », « Israélien » ou « Garçon juif israélien ». Indigo Buzz a demandé à plusieurs utilisateurs de rechercher les mêmes mots et, bien que les résultats diffèrent, aucune des images issues des recherches de « Palestinien », « Palestine », « Garçon musulman palestinien », « Israël », « Israélien » ou « Garçon juif israélien » » a abouti à des autocollants AI avec toutes les armes.
Il existe cependant encore des différences. Par exemple, lorsque je recherche « armée palestinienne », une image montre une personne tenant une arme à feu en uniforme, tandis que trois autres ne sont que des personnes en uniforme ; lorsque je recherche « armée israélienne », la recherche renvoie trois personnes en uniforme et une personne en uniforme conduisant un véhicule militaire. La recherche de « Hamas » ne renvoie aucun autocollant IA. Encore une fois, chaque recherche différera en fonction de la personne qui recherche.
Cela arrive à un moment où Meta a été critiqué pour avoir prétendument interdit les contenus pro-palestiniens, verrouillé les comptes pro-palestiniens et ajouté « terroriste » aux biographies palestiniennes. D’autres systèmes d’IA, notamment Google Bard et ChatGPT, ont également montré des signes significatifs de parti pris à l’égard d’Israël et de la Palestine.