Rejoignez-nous
Mobile

Comment configurer un navigateur AI local sur votre téléphone

Nicolas Gaillard

Date de publication :

le

Comment configurer un navigateur AI local sur votre téléphone




Au cours des dernières années, l’IA générative a fait son chemin vers les produits numériques grand public que nous promouvons quotidiennement. Des clients de messagerie aux outils d’édition, cette fonctionnalité est profondément ancrée dans une large gamme d’outils. Les navigateurs Web ne font pas exception. Mais avec l’arrivée de l’IA, le spectre de l’exploitation de la vie privée se profile. Est-ce que je souhaite que mes conversations ChatGPT les plus vulnérables transitent par les serveurs d’OpenAI, ou que mes fichiers vivent sur les serveurs Copilot de Microsoft pendant quelques mois ? Pour la plupart des utilisateurs, la réponse est un non catégorique. Mais en même temps, il devient de plus en plus difficile d’éviter l’IA dans les navigateurs, surtout compte tenu de la commodité offerte.

C’est là que les navigateurs IA locaux entrent en scène. Considérez-les comme un navigateur Web classique, mais dans lequel l’assistant IA s’exécute entièrement sur votre appareil plutôt que d’envoyer vos requêtes à un serveur cloud. En gros, c’est comme interagir avec Gemini Nano sur le Pixel 10 Pro, où l’IA de Google peut même gérer quelques tâches sans même nécessiter une connexion Internet. Mais utiliser l’IA sur un appareil sur un navigateur local n’est pas un processus simple. Mais plus important encore, vous devez choisir un navigateur qui vous permet d’exécuter un modèle d’IA localement sur l’appareil. D’après les commentaires de la communauté, le navigateur d’IA local le plus animé semble être Puma.

Disponible sur Android et iOS, ce navigateur axé sur la confidentialité permet aux utilisateurs de s’éloigner du bastion de Google et vous permet de choisir entre Ecosia et DuckDuckGo comme moteurs de recherche. Plus important encore, il vous permet d’exécuter des instances locales des modèles d’IA des séries Llama 3.2, Ministral, Gemma et Qwen entièrement sur l’appareil. Ainsi, qu’il s’agisse d’une requête de connaissances générique ou d’une tâche à portée de main comme le relookage et la synthèse, aucune interaction ne quitte jamais votre téléphone.

La configuration

Lorsque vous installez le navigateur Puma pour la première fois, le modèle open source Llama 3.2 de Meta est déjà configuré et exécuté. Mais si vous souhaitez télécharger un autre modèle d’IA, suivez ces étapes :

  1. Sur la page d’accueil du navigateur, appuyez sur l’icône Puma en bas.
  2. Dans le menu coulissant qui apparaît, appuyez sur l’option Local LLM Chat.
  3. Sur la page de discussion, cliquez sur le bouton « Llama 3.2 1B » dans le champ du compositeur.
  4. En appuyant dessus, vous ouvrez une liste des modèles d’IA locaux disponibles. Après la première installation, seul Llama 3.2 1B Instruct est disponible. Sélectionnez l’option « Plus de modèles ».
  5. Sur la page suivante, vous verrez toute une liste de modèles, notamment Google Gemma, Mistral, DeepSeek, Qwen, Microsoft Phi, etc. Sélectionnez le bouton « Obtenir » correspondant au modèle d’IA que vous préférez, et il sera téléchargé et installé.

La plupart des modèles font plus de 1 Go, leur téléchargement et leur installation sur votre téléphone prendront donc un certain temps. Et bien sûr, plus vous devenez aventureux, plus ils vont monopoliser d’espace de stockage. Une fois le modèle d’IA configuré, vous pouvez revenir à l’option de chat LLM locale, choisir le modèle de votre choix et démarrer une conversation.

Maintenant, la plus grande question est : pourquoi voudriez-vous un modèle d’IA local alors que vous pouvez simplement utiliser les applications ChatGPT ou Gemini ? Ou éviter complètement cela en appelant Gemini comme assistant par défaut sur les téléphones Android, ou ChatGPT (via Siri et Apple Intelligence) sur votre iPhone ? Eh bien, la confidentialité est la réponse évidente. Cependant, il arrive parfois que vous ne disposiez pas d’une connexion Internet à portée de main ou que vous ayez simplement activé le mode hors ligne pour un travail ciblé. Pour de tels scénarios, ces modèles d’IA locaux s’avèrent utiles car ils peuvent effectuer leur travail sans aucune exigence de connexion. Le seul inconvénient est qu’ils ne peuvent pas réaliser des astuces sophistiquées telles que la génération d’images localement. De plus, contrairement à l’application Google AI Edge Gallery, le navigateur Puma ne vous permet pas de personnaliser la charge de travail de l’IA sur le CPU et le GPU, ni d’ajuster des aspects tels que la plantation et la température.



Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.