HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3702 articles Page 1/371 Sans filtre

06:16

Mistral Medium 3.5

Mistral Medium 3.5 est un modèle phare fusionné en aperçu public, dense de 128 milliards de paramètres avec une fenêtre de contexte de 256k, conçu pour suivre des instructions, raisonner et coder, et publié en poids ouverts sous une licence MIT modifiée tout en pouvant être auto-hébergé sur aussi peu que quatre GPU. Le modèle offre un effort de raisonnement configurable par requête, inclut un encodeur vision entraîné de zéro pour tailles d'image variables, affiche de bonnes performances sur des benchmarks réels (77,6 % sur SWE-Bench Verified et 91,4 sur τ³-Telecom) et a été conçu pour des tâches longues, l'appel fiable d'outils et la production de sorties structurées. Les agents distants de Mistral Vibe permettent d'exécuter des sessions de codage asynchrones dans le cloud lancées depuis le CLI ou Le Chat, de téléporter des sessions CLI locales vers le cloud, de fonctionner dans des sandbox isolés, d'intégrer GitHub, Linear, Jira, Sentry et des outils de messagerie, et d'ouvrir automatiquement des pull requests quand le travail est terminé. Le nouveau mode Work de Le Chat (aperçu) utilise un agent alimenté par Mistral Medium 3.5 pour mener des tâches multi‑étapes et inter‑outils, comme la recherche, la synthèse, la préparation de réunions et la gestion de boîtes mail, avec connecteurs activés par défaut, persistance des sessions, visibilité des appels d'outils et demandes d'approbation explicites pour les actions sensibles. Mistral Medium 3.5 est disponible aujourd'hui dans Mistral Vibe et Le Chat sur les plans Pro, Team et Enterprise, accessible via API à 1,5 $ par million de tokens d'entrée et 7,5 $ par million de tokens de sortie, publié sur Hugging Face et disponible sur des endpoints accélérés NVIDIA et via NIM, et l'entreprise recrute dans la recherche, l'ingénierie et le produit.

06:16

I benchmarked Claude Code's caveman plugin against "be brief."

L'article évalue le plugin Caveman pour Claude, qui promet des réponses fortement compressées via plusieurs modes (lite, full, ultra) et le compare à l'instruction "be brief." et au comportement par défaut sur un jeu de 24 requêtes réparties en six catégories. Sur la qualité factuelle tous les bras se situent dans un écart d'environ 1,5 % et chaque bras a atteint 100 % des points clés sans déclencher d'erreurs proscrites dans les 120 réponses évaluées. En tokens, "be brief." réduit d'environ 34 % par rapport au baseline, caveman lite et full produisent des tailles proches de "be brief." tandis que l'ultra apparaît plus long en agrégé mais reste le plus compact sur certaines catégories comme le diagnostic de bugs et l'interprétation d'erreurs. La variabilité observée sur les configurations multi‑étapes et les avertissements de sécurité s'explique par une règle "Auto‑Clarity" qui désactive la compression pour les actions irréversibles et les warnings, ce qui est un comportement voulu plutôt qu'un défaut. Conclusion pratique : si vous voulez seulement des sorties plus courtes utilisez "be brief.", mais choisissez Caveman pour une structure de sortie cohérente, un réglage d'intensité en session et la persistance du style sur de longues sessions, et le banc d'essai utilisé est open source et accepte des contributions.

06:15

Open-source briefing packets and citizen-action toolkits

Le dépôt est une ressource publique sous licence Creative Commons destinée à être utilisée, adaptée et partagée localement. Il contient notamment un paquet Flock v1.0 (avril 2026) offrant un kit pour les résident·e·s opposés à la surveillance par plaques d'immatriculation, avec chronologie sourcée, modèle FOIA, script pour conseil municipal et réponses aux objections habituelles. D'autres paquets prévus incluent des guides pour migrer vers la messagerie chiffrée, adopter GrapheneOS, commencer l'auto-hébergement et choisir un VPN. Les contributions sont encouragées via des issues pour signaler les votes municipaux, corriger des sources ou coordonner des traductions, et un fichier CONTRIBUTING.md décrit les apports plus importants. Le projet est lié à un podcast hebdomadaire animé par Simon qui aborde Tor, VPN, GrapheneOS, messagerie chiffrée, modélisation des menaces et la dimension locale de la défense de la vie privée.

06:15

On the stand, Elon Musk can't escape his own tweets

Elon Musk a témoigné devant un tribunal fédéral de Californie dans le cadre d'un procès alléguant que Sam Altman et les cofondateurs d'OpenAI auraient détourné une organisation caritative en favorisant une branche à but lucratif. Sous serment, Musk a admis que Tesla ne poursuit pas actuellement l'intelligence générale artificielle (AGI), contredisant ainsi un message qu'il avait posté quelques semaines plus tôt. Il a déclaré qu'il avait envisagé dès 2016 de transformer OpenAI en entité à but lucratif, qu'il avait cessé de faire des dons réguliers après l'échec de ces plans, et qu'il considérait comme déterminante la suppression progressive des plafonds de profit pour des investisseurs comme Microsoft. Lors du contre-interrogatoire, la défense a présenté des échanges montrant que Musk avait été consulté sur des levées de fonds, des recrutements et des tentatives de transfert d'employés entre Tesla, Neuralink et OpenAI, et l'a interrogé sur des divergences entre ses déclarations publiques et les montants investis. Le procès a aussi abordé la question de la sécurité de l'IA, Musk soutenant que la conversion en société par actions affaiblirait l'accent sur la sûreté tandis que la défense a obtenu son aveu que tous les acteurs de l'IA encourent des risques similaires, et le juge a limité mais annoncé la reprise des questions sur les approches de sécurité lors des prochains témoignages.

06:15

Soft launch of open-source code platform for government

Un nouveau portail gouvernemental pour publier et développer des logiciels open source est désormais opérationnel et entièrement auto-hébergé, soutenant la souveraineté numérique. Il s'agit pour l'instant d'un projet pilote basé sur Forgejo, une alternative européenne et souveraine à GitHub et GitLab. L'accès n'est pas encore ouvert à toutes les organisations gouvernementales, et l'objectif est d'en faire progressivement une plateforme Git partagée pour les administrations. Le projet a été lancé par l'Open Source Program Office du ministère de l'Intérieur et des Relations du Royaume (BZK) en collaboration avec DAWO (SSC-ICT), Opensourcewerken et developer.overheid.nl. Les développeurs intéressés sont invités à contribuer et peuvent contacter codeplatform@rijksoverheid.nl pour plus d'informations et consulter le billet de blog correspondant sur developer.overheid.nl.

06:14

At Protocol: Building the Social Internet

bsky.storage est un projet indépendant qui automatise des sauvegardes périodiques des données de compte vers un réseau de stockage et propose une interface pour la sauvegarde et la récupération d'identités PLC. Ce type d'outil donne aux utilisateurs un meilleur contrôle de leurs données en ligne sans exiger l'auto‑hébergement d'un serveur de données personnel (PDS) complet. Le protocole AT est un réseau de données où les publications, mentions, abonnements et profils sont représentés sous forme de JSON. Le protocole est fortement typé et permet de composer et d'étendre des enregistrements à l'aide de schémas partagés. Les ressources sont hyperliées, chaque élément possède une URL et des identifiants de contenu (content‑ID) servent à créer des liens solides entre les données des utilisateurs.

06:14

Maryland becomes first state to ban surveillance pricing in grocery stores

Le Maryland a adopté une loi interdisant l'utilisation de données personnelles pour augmenter les prix des produits d'épicerie, devenant ainsi le premier État américain à le faire. Le texte, signé par le gouverneur Wes Moore, vise à empêcher les commerces et les services de livraison tiers d'ajuster les tarifs en fonction d'éléments comme la localisation, l'historique de recherche et les données démographiques des consommateurs. La mesure intervient alors que la Federal Trade Commission a documenté des pratiques similaires dans d'autres secteurs et que certains États préparent des projets de loi comparables, mais que l'action fédérale reste limitée. Des groupes de défense des consommateurs et de la vie privée saluent l'initiative mais critiquent des exemptions pour les programmes de fidélité et les promotions ainsi que des mécanismes d'application jugés insuffisants. La loi confie l'application au procureur général de l'État sans droit d'action privé, ce qui inquiète des experts qui redoutent que le texte soit vu comme un modèle permissif par d'autres législatures.

06:14

Claude.ai and API unavailable [fixed]

Un incident a affecté plusieurs services basés sur Claude, notamment l'interface web, l'API et des produits associés. L'équipe a commencé l'investigation du problème le 30 avril 2026 à 01:20 UTC. Une solution a été déployée et l'état est passé en surveillance le 30 avril 2026 à 01:34 UTC. L'incident a été déclaré résolu le 30 avril 2026 à 01:51 UTC. Les services affectés comprenaient claude.ai, la console (platform.claude.com), l'API (api.anthropic.com), Claude Code, Claude Cowork et Claude for Government.

06:13

Show HN: Qumulator – quantum circuit simulator, 1000 qubits, no GPU

Il s'agit d'une API cloud avec un client Python qui simule des circuits quantiques, des systèmes de spins, des amplitudes photoniques et des propriétés moléculaires sur du matériel classique sans GPU ni matériel quantique. Le moteur propriétaire KLT choisit automatiquement la représentation la plus efficace (réseau de tenseurs, MPS, matrice de covariance gaussienne, algèbre d'opérateurs ou vecteur d'état) en fonction de l'entanglement du circuit, tout en laissant un paramètre utilisateur pour forcer un mode. Les benchmarks rapportent des résultats exacts en double précision (erreur L2 < 10⁻¹⁴) pour des cas allant du CHSH et chaînes de Heisenberg jusqu'à des circuits Willow de 105 qubits et des démonstrations de 1 000 qubits à faible profondeur, en s'exécutant sur des CPU cloud standards avec un pic de mémoire maintenu sous ~400 Mo selon le niveau. L'API accepte OpenQASM, s'intègre comme backend de substitution pour Qiskit et Cirq, fournit une CLI et des notebooks de démonstration, et propose des modes auto, exact, compressed, tensor, hamiltonian et gaussian adaptés à différents types de problèmes. Un palier gratuit impose des limites (500 CU/mois, 1 requête/minute, 100 requêtes/jour, MPS jusqu'à 1 000 qubits, étatvector max 20 qubits) et les offres payantes commencent à 99 $/mois avec des quotas plus importants.

06:12

The Lingua Franca of LaTeX (2019)

En 1977–1978, le professeur Donald Knuth a développé TeX pour résoudre les défauts de la composition électronique des formules mathématiques et a pu composer lui‑même le volume révisé de son livre. TeX fonctionne par balisage en texte brut et un petit ensemble de primitives extensibles par macros; Knuth a publié The TeXbook et rendu le code source libre tout en imposant des tests pour préserver la compatibilité du nom TeX. Les macros de Leslie Lamport, connues sous le nom de LaTeX, ont offert un niveau d'abstraction plus élevé, rendu TeX accessible à un large public scientifique et donné lieu à des distributions standardisées et à une communauté organisée (TUG, TeX Live). TeX est resté peu connu du grand public car les auteurs non techniques n'ont pas besoin d'une composition aussi précise et parce que l'industrie des polices et les outils commerciaux ont suivi des évolutions différentes. La communauté a étendu l'écosystème par des moteurs adaptés aux polices modernes et à Unicode (XeTeX, pdfTeX, LuaTeX); LaTeX2e reste la version dominante; LaTeX3 est en développement; et TeX/LaTeX demeure la langue véhiculaire de l'écriture scientifique.