Comment exécuter un chatbot IA localement sur votre iPhone
Peu de choses se sont développées aussi rapidement que l’intelligence artificielle ces dernières années. Les chatbots IA comme ChatGPT ou Gemini bénéficiant de temps en temps de nouvelles fonctionnalités et de meilleures capacités, il est compréhensible que l’un de ces services soit épinglé dans vos favoris ou installé en tant qu’application sur votre téléphone. Une chose que ces chatbots ont en commun est qu’ils sont basés sur le cloud, ce qui signifie que vous avez besoin d’une connexion Internet active pour pouvoir les utiliser.
Un avantage notable de ces chatbots servis via Internet est que le traitement s’effectue sur le cloud, vous permettant de converser avec les LLM les plus complexes, quel que soit le potentiel matériel de votre appareil. Cela soulève cependant des questions en matière de confidentialité, puisque vos données sont envoyées aux serveurs de l’entreprise. C’est là qu’intervient le concept de chatbots IA locaux. Des outils comme ChatGPT sont essentiellement de grands modèles de langage (LLM) qui sont formés sur des milliards de mots et chargés de répondre à la manière d’un humain.
Les ordinateurs modernes sont devenus suffisamment puissants pour que vous puissiez exécuter certains LLM entièrement localement. Cela garde vos conversations entièrement privées et vous permet d’utiliser un chatbot IA même lorsque vous n’êtes pas connecté à Internet. Les iPhones les plus récents sont alimentés par le moteur neuronal d’Apple, ce qui les rend encore plus capables d’exécuter des modèles d’IA sur l’appareil. Pour ceux qui sont intéressés, nous avons testé une solution simple qui vous permet d’installer et d’exécuter un chatbot IA hors ligne sur votre iPhone – et voici les étapes à suivre pour ce faire.
Utiliser un LLM privé sur iPhone
Si vous vous dirigez vers l’App Store et recherchez des chatbots IA hors ligne, vous remarquerez une poignée d’options. Nous avons choisi Private LLM, qui nécessite un achat unique de 5 $ et propose une sélection diversifiée de familles LLM, notamment Meta’s Llama, Google Gemma et Mistral.
Aucune connexion ni inscription n’est nécessaire : dès que vous lancez Private LLM, vous pouvez lancer une discussion avec l’un des LLM locaux disponibles. Vous pouvez afficher des informations sur le modèle d’IA sélectionné en appuyant sur son nom en haut. Pour afficher et télécharger d’autres modèles, appuyez sur l’icône à trois points dans le coin supérieur droit de l’écran et accédez à Paramètres > Modèles.
Un article utile sur le blog de Private LLM vous aidera à déterminer quel modèle d’IA fonctionnera de manière optimale sur votre appareil. Ces modèles mesurent quelques gigaoctets, la mise en route peut donc prendre un certain temps en fonction de votre connexion Internet. Une fois que vous avez sélectionné le LLM souhaité, vous pouvez remplacer l’invite du système, qui indique essentiellement au modèle d’IA son objectif, la manière dont il doit répondre et tout autre détail que vous souhaitez qu’il connaisse au préalable.
Toutes les conversations que vous avez avec les modèles de Private LLM dépendent de la puissance de traitement de votre iPhone et aucune information n’est jamais échangée avec des serveurs. Vous pouvez effectuer une vérification croisée : désactivez simplement le Wi-Fi et les données mobiles de votre téléphone et vous pourrez toujours utiliser le chatbot IA.
Personnalisation de l’expérience chatbot sur Private LLM
Le cœur de l’expérience dépend du LLM que vous choisissez de télécharger et d’utiliser sur votre iPhone. Vous remarquerez des numéros dans les noms de modèles sur Private LLM, tels que 1B, 3B ou 8B. Ceux-ci font référence au nombre de paramètres en milliards – un nombre plus élevé signifie généralement que le modèle a été entraîné pour un raisonnement plus complexe et de meilleurs résultats.
Les iPhones modernes peuvent exécuter des modèles d’IA avec un nombre de paramètres plus élevé, mais cela affectera directement la vitesse de sortie. Par exemple, nous avons testé le Llama 3.1 8B LLM sur un iPhone 15 Pro Max et avons constaté une génération de sortie sensiblement plus lente par rapport à l’utilisation du StableLM 2 LLM, beaucoup plus petit, qui a des paramètres de 1,6B.
Si vous plongez dans les paramètres de l’application, vous pouvez également modifier la température d’échantillonnage, avec une valeur comprise entre 0 et 1. Plus la température est élevée, plus les sorties seront créatives, ce qui est idéal si vous recherchez un chatbot IA plus convivial avec un peu de randomisation. Une température plus basse maintient les réponses plus précises, ce qui est préféré pour les tâches analytiques telles que la programmation ou la résolution de problèmes.
Bien qu’il existe d’autres alternatives gratuites, nous avons davantage confiance dans la simplicité et la transparence de Private LLM. L’application a également été récemment mise à jour pour correspondre au design Liquid Glass d’iOS 26. De plus, l’achat unique vous permettra d’utiliser Private LLM sur votre iPad et Mac, ce qui peut vous permettre d’explorer les modèles les plus puissants que l’application a à offrir.
