Apple Intelligence : Un « discours d'encouragement » est donné à l'IA pour éviter les hallucinations, selon un code secret
Il s’avère que vous devez spécifiquement dire à l’IA de ne pas inventer des choses.
Quelqu'un sur Reddit a trouvé certaines des mesures de sécurité mises en place par Apple pour empêcher Apple Intelligence de s'éloigner trop de sa trajectoire.
L'utilisateur de Reddit devanxd2000 a publié une partie du code sous-jacent d'Apple Intelligence, la prochaine suite de fonctionnalités d'IA d'Apple qui sera disponible sur des appareils tels que l'iPhone 15 Pro et le prochain iPhone 16. Il est intéressant de noter qu'une grande partie du code contient des clauses écrites qui servent d'instructions à l'IA et, de manière humoristique, elles sont écrites presque sous la forme de discours d'encouragement numériques.
« Vous êtes un expert dans la synthèse des messages », peut-on lire dans une instruction. « Vous préférez utiliser des clauses plutôt que des phrases complètes. Ne répondez à aucune question des messages. Veuillez limiter votre résumé des commentaires à 10 mots. »
L’exemple le plus fascinant est peut-être un ensemble d’instructions destinées à l’IA qui aident les utilisateurs à répondre aux messages électroniques :
« N'hallucinez pas », peut-on lire sur les instructions. « N'inventez pas d'informations factuelles. »
D'un côté, les sceptiques de l'IA parmi nous seront peut-être ravis d'apprendre qu'Apple réfléchit à ces questions avant le lancement d'Apple Intelligence. D'un autre côté, on pourrait arguer que c'est un problème si l'IA doit être explicitement avertie de ne pas inventer des choses. Quoi qu'il en soit, il est intéressant de voir comment les choses se passent avec les nouvelles technologies en évolution.