Veille IA/Tech — 12 mars 2026

⚡ BitNet : framework d’inférence pour LLMs 1-bit (Microsoft)

Microsoft maintient activement BitNet, son framework open-source dédié à l’inférence de modèles quantifiés en 1-bit. L’approche permet une réduction drastique de l’empreinte mémoire et de la consommation énergétique, avec une inférence viable sur CPU standard — un atout majeur pour les scénarios edge et on-device. À suivre pour quiconque travaille sur le déploiement de LLMs hors data center.


🔬 SWE-bench : les PRs “réussies” ne seraient pas mergées en réalité

METR publie une note d’analyse particulièrement importante : une proportion significative des pull requests générées par des agents IA qui “passent” le benchmark SWE-bench ne seraient en réalité pas acceptables dans un projet réel. Raisons invoquées : mauvaise lisibilité, non-respect des conventions du projet, patches trop ad hoc, absence de tests pertinents.

Ce travail remet en question la valeur prédictive de SWE-bench comme proxy de la compétence réelle des coding agents (Devin, SWE-agent, OpenHands, etc.) et appelle à des métriques d’évaluation plus robustes.


💻 Perplexity lance une waitlist pour son “Personal Computer”

Perplexity ouvre une liste d’attente pour un PC maison. Les détails techniques restent rares, mais la démarche s’inscrit dans une tendance lourde : les acteurs IA cherchent à contrôler leur propre stack matérielle pour optimiser l’expérience utilisateur autour de leurs modèles (cf. Humane AI Pin, Rabbit R1, et les ambitions hardware d’OpenAI). À surveiller pour le positionnement produit et les implications sur la distribution des modèles.


🛡️ “nah” : garde-fous contextuels pour Claude Code

nah est un outil open-source qui implémente un système de permission contextuelle pour Claude Code. Il permet de définir finement ce qu’un agent coding est autorisé à faire selon le contexte d’exécution (lecture seule, périmètre fichiers, commandes shell autorisées, etc.). Pertinent pour les équipes qui souhaitent intégrer des agents IA dans leur workflow sans sacrifier la sécurité.


📊 Leaderboards LLMs 2026 : open & closed source (Onyx AI)

Onyx AI propose deux tableaux de classement consolidés et régulièrement mis à jour :

Utile face à la fragmentation croissante des benchmarks et à la prolifération des modèles. Permet une vue synthétique là où des ressources comme l’ancien Open LLM Leaderboard HuggingFace peinent à suivre le rythme.


🔒 Fiabilité logicielle à l’ère des LLMs

Cet article de fond explore les défis de production de logiciels fiables lorsque les LLMs génèrent une part croissante du code : hallucinations silencieuses, couverture de tests trompeuse, dette technique difficile à détecter. L’auteur propose la vérification formelle légère (via le langage Quint) comme complément aux workflows LLM-assistés. Une perspective bienvenue au-delà du hype sur l’automatisation du développement.