La start-up française Mistral AI vient d’annoncer la sortie de Mistral 7B, son premier modèle d’intelligence artificielle dédié à la génération de langage. Créée en 2021 par des chercheurs français renommés, Mistral AI s’est fixé pour mission de développer des technologies d’IA responsables et accessibles à tous.
Avec Mistral 7B, l’entreprise marque un jalon important. Ce modèle d’IA conversationnelle possède 7 milliards de paramètres, ce qui en fait l’un des plus grands modèles open source disponibles. Mistral 7B excelle dans des tâches telles que le résumé automatique, la structuration de texte ou la réponse à des questions complexes sur la base d’informations contenues dans un passage.
Mistral 7B surpasse LLaMa 2 13B et LLaMa 34B
D’après les résultats de divers benchmarks, Mistral 7B surpasse LLaMa 2 13B, un modèle de 13 milliards de paramètres développé par la même équipe. Par exemple, Mistral 7B obtient des scores de 93,4 % et 92,5 % pour les tâches de compréhension et de génération de texte, respectivement, contre 92,3 % et 91,5 % pour LLaMa 2 13B.
Mistral 7B affiche également des performances comparables à celles de LLaMa 34B, un modèle de 34 milliards de paramètres. Ces résultats sont remarquables, car Mistral 7B a une taille de modèle inférieure de 27 milliards de paramètres à LLaMa 34B.
Les implications de ces résultats
Les résultats ont plusieurs implications. Tout d’abord, ils montrent que la taille du modèle n’est pas le seul facteur déterminant les performances d’un LLM. D’autres facteurs, tels que l’architecture et la qualité des données d’entraînement, jouent également un rôle important.
Deuxièmement, ces résultats suggèrent que les LLM de petite taille peuvent être tout aussi performants que les LLM de grande taille. Cela pourrait avoir des implications importantes pour l’accessibilité et l’utilisation des LLM, car les modèles de petite taille sont plus faciles à déployer et à utiliser.
Troisièmement, ces résultats montrent que les LLM sont des outils puissants qui peuvent être utilisés pour diverses tâches, notamment la compréhension et la génération de texte, la traduction automatique et la création de contenu créatif.
Mistral 7B : un modèle puissant mais potentiellement dangereux
Les performances exceptionnelles de Mistral 7B en font un modèle de LLM très attractif. Cependant, la liberté offerte par ce modèle n’est pas sans soulever des questions de sécurité.
Des risques de diffusion d’informations illicites
Le chercheur en sécurité Paul Röttger a souligné l’absence de mécanismes de modération dans Mistral 7B. À travers un ensemble de 175 questions-réponses compilées, il a mis en évidence la possibilité de récupérer des informations sur des activités criminelles, incluant des instructions relatives au meurtre, au suicide ou à la production de drogues.
Ces informations peuvent être utilisées à des fins malveillantes, par exemple pour former des terroristes ou pour inciter des personnes à commettre des crimes.
Une diffusion irréversible
De plus, la diffusion de Mistral 7B via torrent, sous la forme de Magnet-Link, rend sa distribution irréversible. Cela signifie qu’il est impossible d’empêcher la diffusion du modèle, même si des mécanismes de modération étaient ajoutés ultérieurement.
magnet:?xt=urn:btih:208b101a0f51514ecf285885a8b0f6fb1a1e4d7d&dn=mistral-7B-v0.1&tr=udp%3A%2F%https://t.co/OdtBUsbMKD%3A1337%2Fannounce&tr=https%3A%2F%https://t.co/HAadNvH1t0%3A443%2Fannounce
— Mistral AI (@MistralAI) September 27, 2023
RELEASE ab979f50d7d406ab8d0b07d09806c72c
Consciente de ces enjeux, Mistral AI assure travailler à faire évoluer son modèle. L’open source est selon elle le meilleur moyen de faire progresser l’IA de manière collaborative. Reste à voir si l’entreprise parviendra à répondre aux défis éthiques posés par une telle technologie, tout en continuant à innover. Avec Mistral 7B, la France s’impose d’ores et déjà comme un acteur prometteur dans le domaine de l’intelligence artificielle responsable.