🤖 Veille IA & Tech — 19 mars 2026
🤖 Veille IA/Tech — 19 mars 2026
🔬 Duplication de couches dans un LLM 24B : +0.54 en déduction logique, sans entraînement
Un chercheur publie llm-circuit-finder, une technique qui consiste à identifier puis dupliquer 3 couches spécifiques d’un LLM 24B. Résultat : le score de déduction logique passe de 0.22 à 0.76, sans aucun fine-tuning ni réentraînement. La méthode s’appuie sur la détection de circuits fonctionnels dans le transformer. Ce résultat soulève des questions fondamentales sur la redondance des couches, la localisation des capacités de raisonnement et les perspectives d’optimisation architecturale à coût quasi nul.
📄 ICML 2026 : 2% des papers desk rejetés pour usage de LLM dans les peer reviews
Le blog officiel de l’ICML révèle que 2% des soumissions ont été rejetées avant évaluation car leurs auteurs ont utilisé des LLMs pour rédiger leurs propres reviews dans le processus de peer review. La conférence annonce un renforcement de ses outils de détection. Signal important sur la tension croissante entre productivité assistée par IA et intégrité du processus scientifique dans les grandes conférences ML.
🤖 agent-sat : auto-recherche par LLM pour améliorer des solveurs SAT
agent-sat est un framework open-source expérimental où un agent LLM effectue une boucle d’auto-recherche pour découvrir et améliorer des algorithmes de résolution SAT. L’architecture combine génération de code, exécution automatisée et feedback loop. Cas concret dans la lignée de FunSearch (DeepMind) appliqué à l’informatique formelle et aux problèmes NP-complets.
💧 Rozum AI : quand les LLMs généralistes échouent en science des matériaux
The Register couvre la naissance de Rozum AI, spin-off née de l’échec des LLMs généralistes dans un projet de dessalement d’eau. Le fondateur Derek Bednarski témoigne : les modèles étaient “confidently wrong” sur le choix d’électrodes carbone, causant des mois perdus en R&D. L’équipe a développé un modèle spécialisé en science des matériaux. Un cas d’école sur les limites de la généralisation des LLMs en recherche appliquée à haute précision.
🌏 Chine : LLMs multimodaux comme infrastructure de censure et de remodelage de réalité
Un rapport d’IPS News documente comment Qwen (Alibaba) et Ernie Bot (Baidu) censurent activement et reformulent les descriptions d’images politiquement sensibles dans leurs interfaces multimodales. Le concept employé — “informational gaslighting” — désigne