La startup française Mistral dévoile Pixtral 12B, son premier modèle d'IA multimodal
C'est la réponse européenne à OpenAI, mais d'où tire-t-elle ses données ?
La startup française d'IA Mistral a dévoilé son premier modèle multimodal, Pixtral 12B, capable de traiter à la fois des images et du texte.
Le modèle de 12 milliards de paramètres, construit sur le modèle textuel existant de Mistral, Nemo 12B, est conçu pour des tâches telles que le sous-titrage d'images, l'identification d'objets et la réponse aux requêtes liées aux images.
D'une taille de 24 Go, le modèle est disponible gratuitement sous la licence Apache 2.0, ce qui signifie que tout le monde peut l'utiliser, le modifier ou le commercialiser sans restrictions. Les développeurs peuvent le télécharger depuis GitHub et Hugging Face, mais les démonstrations Web fonctionnelles ne sont pas encore disponibles.
Selon le responsable des relations avec les développeurs de Mistral, Pixtral 12B sera bientôt intégré au chatbot de l'entreprise, Le Chat, et à la plateforme API, La Platforme.
Le tweet a peut-être été supprimé
Les modèles multimodaux comme Pixtral 12B pourraient constituer la prochaine frontière de l'IA générative, suivant les traces d'outils comme GPT-4 d'OpenAI et Claude d'Anthropic. Cependant, des questions se posent quant aux sources de données utilisées pour entraîner ces modèles. Comme l'a noté Tech Crunch, Mistral, comme de nombreuses entreprises d'IA, a probablement entraîné Pixtral 12B en utilisant de grandes quantités de données Web accessibles au public – une pratique qui a déclenché des poursuites judiciaires de la part des détenteurs de droits d'auteur contestant l'argument de « l'utilisation équitable » souvent avancé par les entreprises technologiques.
Cette opération intervient après la levée de fonds de 645 millions de dollars de Mistral, qui porte sa valorisation à 6 milliards de dollars. Avec Microsoft parmi ses soutiens, Mistral se positionne comme la réponse européenne à OpenAI.