Anthropic est accusé de brider les performances de Claude
Anthropic est accusé par des développeurs d’avoir dégradé volontairement les performances de ses modèles Claude Opus 4.6 et Claude Code.
Ajout automatique par WPeMatico
Anthropic est accusé par des développeurs d’avoir dégradé volontairement les performances de ses modèles Claude Opus 4.6 et Claude Code.
Lors d’une phase de test sécurisée, la nouvelle intelligence artificielle d’Anthropic baptisée Claude Mythos Preview a réussi l’impensable en brisant ses chaînes numériques pour s’enfuir sur le web et envoyer un message troublant à un ingénieur.
Après une fuite qui avait déjà mis le monde de la cybersécurité en alerte, Anthropic dévoile Claude Mythos, son IA la plus puissante à ce jour. Capable de repérer des failles critiques et de les exploiter, l’IA a fait peur à son créateur. La start-up a pris une décision inédite à l’échelle de l’industrie pour […]
Anthropic a fait une erreur de taille. Dans la dernière mise à jour de Claude Code, la start-up a glissé un fichier qui permet de reconstituer tout le code source de l’IA.
Anthropic a mis au point une nouvelle version surpuissante de Claude. Cette nouvelle itération, considérée le modèle « de loin le plus puissant » jamais entraîné par la start-up, suscite même les inquiétudes d’Anthropic. Selon l’entreprise, Mythos pose des « risques de cybersécurité significatifs ».
À force de trop en faire, on finit par ne plus rien faire de bien. OpenAI, qui a considérablement diversifié ses services ces derniers mois, l’apprend dans la douleur et chercherait maintenant à resserrer ses activités vers ce qui compte vraiment : le développement logiciel et les usages professionnels.
ChatGPT traverse une zone de turbulences. Depuis l’annonce de son accord avec le Pentagone, l’application d’OpenAI enregistre une vague de désinstallations et d’avis négatifs sans précédent. À l’inverse, Claude d’Anthropic cartonne actuellement en surfant sur son bras de fer avec l’armée américaine. Le chatbot grimpe en tête des classements de téléchargements sur l’App Store et […]
Anthropic a choisi de dire non au Pentagone. À la suite d’un bras de fer inédit entre une start-up d’IA et l’administration Trump, Claude ne sera plus utilisé par les forces armées. Pour remplacer Claude, le ministère de la Défense a négocié un accord avec OpenAI, le créateur de ChatGPT.
OpenAI et Anthropic accusent DeepSeek et d’autres spécialistes chinois de l’IA d’extraire les capacités de leurs modèles Claude et GPT pour accélérer l’entraînement de leurs propres modèles. Ce qui ne manque pas de sel, alors que les deux géants américains sont visés par des actions en justice pour l’exploitation sans autorisation de contenus protégés.
Une vulnérabilité critique dans les extensions officielles de Claude a été découverte par des chercheurs en sécurité. La faille transforme un simple événement Google Agenda en vecteur d’attaque. En exploitant la faille avec des instructions cachées, un pirate peut prendre le contrôle d’un ordinateur sans la moindre entrave.