La firme Anthropic, connue pour son chatbot Claude, a récemment pris la décision de restreindre la diffusion de son tout nouveau modèle d’IA, Mythos, en raison de ses capacités avancées de détection des failles de sécurité dans des logiciels utilisés à grande échelle. Ce choix prudente vise à limiter les risques d'abus et de détournements associés à ces outils puissants.
Mythos ne sera donc accessible qu'à un cercle restreint d'entités stratégiques, incluant des entreprises telles qu'Amazon Web Services et JPMorgan Chase, qui opèrent des infrastructures critiques. Cette restriction permet à certaines organisations de renforcer leur cybersécurité tout en encadrant l'utilisation de ces technologies sensibles.
OpenAI, rival direct d'Anthropic, adopte une stratégie similaire pour son modèle à venir, signalant un tournant majeur dans l’industrie où la puissance croissante des modèles d’IA est devenue source d'inquiétude. Comme l'indique TechCrunch, les joueurs de cette industrie choisissent désormais de déployer ces outils de manière restreinte pour éviter qu'ils ne tombent entre de mauvaises mains.
Ne pas lâcher de nouvelles menaces dans la nature
Dans ce contexte, le média américain Axios souligne l'inquiétude croissante parmi les professionnels de la cybersécurité et d'anciens responsables gouvernementaux. Ceux-ci mettent en garde contre les modèles d’IA suffisamment puissants pour causer des perturbations autonomes dans des infrastructures essentielles comme les réseaux d'eau ou les systèmes financiers.
Malgré la limitation des diffusions, de nombreux experts tels que Rob T. Lee, du Sans Institute, estiment que les capacités de ces modèles sont déjà réelles et ne peuvent pas être empêchées.
D'autres spécialistes, comme Wendi Whitmore de Palo Alto Networks, soulignent que ces capacités exceptionnelles pourraient se répandre rapidement dans l'ensemble du secteur. Selon Adam Meyers, de CrowdStrike, les performances de Mythos représentent un signal d'alarme pour l'ensemble de l'industrie.
Les experts de la cybersécurité redoutent des risques liés à une utilisation abusive de ces technologies, en particulier si elles sont détournées à des fins malveillantes.
Peur de la "copie"
Au-delà des craintes d'abus, un autre enjeu majeur émerge : le risque de copie de ces modèles avancés. Les laboratoires ont renforcé leur position cette année face à la "distillation", une méthode qui permet d'exploiter des modèles avancés pour entraîner de nouveaux modèles LLM à coût réduit.
Selon Bloomberg, Anthropic a même identifié des tentatives de reproduction de ses modèles par des acteurs chinois. Ainsi, Anthropic, Google et OpenAI ont décidé de collaborer pour améliorer la détection et prévenir ces pratiques nuisibles.
Cette distillation représente une menace directe pour le modèle économique des laboratoires car elle sape l'avantage concurrentiel qui résulte des investissements massifs en R&D. Limiter la diffusion de ces outils apparaît donc comme une stratégie nécessaire pour protéger les intérêts des entreprises tout en veillant à la sécurité des infrastructures critiques.







