HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3792 articles Page 1/380 Sans filtre

06:10

IBM Granite 4.1 family of models

IBM a publié la collection Granite 4.1 comprenant des modèles de langage de petite taille, ainsi que des modèles pour la parole, la vision, les embeddings et la modération, destinés aux usages en entreprise. La famille de modèles de langage dense, décodeur‑seul, est proposée en versions 3B, 8B et 30B et dépasse nettement les performances des modèles Granite 4.0, l'instance 8B égalant ou dépassant une version 32B Mixture‑of‑Experts sur des tâches d'instruction et d'appel d'outils. Les modèles ont été entraînés sur environ 15 000 milliards de tokens avec un affinage progressif vers des données techniques de haute qualité, des phases de fine‑tuning supervisé et un pipeline de reinforcement learning multi‑étapes, et peuvent gérer des contextes allant jusqu'à 512K tokens. La sortie multimodale inclut Granite Vision 4.1 optimisé pour l'extraction de tableaux, graphiques et paires clé‑valeur entraîné aussi sur le jeu ChartNet, Granite Speech 4.1 avec variantes multilingues et un modèle non autoregressif à haut débit, Granite Guardian 4.1 pour la détection de risques et Granite Embedding Multilingual R2 pour la recherche sémantique en plus de 200 langues. Tous les modèles Granite 4.1 sont distribués sous licence Apache 2.0, sont optimisés pour des runtimes open‑source (vLLM, SGLang, llama.cpp) et sont disponibles sur watsonx, Hugging Face et d'autres plateformes pour des déploiements modulaires et gouvernés en entreprise.

06:10

Advanced Quantization Algorithm for LLMs

AutoRound est un outil de quantification avancé pour les modèles de langage et les modèles vision-langage qui atteint une haute précision à très faible largeur de bits (2–4 bits) en s'appuyant sur la descente de gradient sur le signe et une compatibilité matérielle étendue. Il propose des algorithmes et options (SignRoundV1/V2, enable_alg_ext, RTN, iters, group_size, AutoScheme) pour la quantification mixte bits/dtypes, l'optimisation du round-to-nearest et la génération automatique de schémas adaptatifs. AutoRound s'intègre dans l'écosystème (Transformers, vLLM, SGLang, LLM-Compressor) et exporte vers plusieurs formats compatibles (auto_round, auto_gptq, auto_awq, gguf, llm_compressor) tout en prenant en charge de nombreux schémas et dtypes comme W2/3/4/8, MXFP4, NVFP4 et FP8. L'outil offre des recettes préconfigurées (auto-round, auto-round-best, auto-round-light), une quantification rapide (par exemple quantifier des modèles 7B en ~10 minutes sur un GPU) et des options pour réduire l'usage mémoire ou améliorer la reproductibilité. La documentation couvre l'installation (pip et compilation), l'usage CLI et API, le calibrage, le support expérimental pour la quantification complète des VLMs et renvoie aux publications et résultats de précision.

06:09

An open letter asking NHS England to keep its code open

Les signataires s'opposent à la décision de la direction technique du NHS de rendre privés les dépôts de code et demandent le retrait de la directive SDLC-8 avec la réaffirmation du principe 12 du NHS Service Standard. Ils rappellent que le code financé par l'argent public devrait être ouvert au public, conformément aux Design Principles du gouvernement britannique et au NHS Service Standard. Ils expliquent que publier le code en open source demande davantage de travail et impose un niveau de qualité supérieur, avec des processus proactifs pour détecter, corriger et surveiller les vulnérabilités ainsi que pour identifier et contenir les risques. Ils ajoutent que le code fermé se contente d'une obscurité trompeuse qui n'offre qu'une protection limitée face à des attaquants motivés. La pétition compte 281 signatures, dont de nombreux contributeurs au logiciel public, et renvoie à des articles et ressources discutant des implications pour la sécurité et la politique d'ouverture du NHS.

06:09

Historic Tennessee hotel is also home to the greatest duck tradition (2016)

Chaque jour à 11 heures au Peabody Hotel de Memphis, un canardier en costume conduit cinq canards le long du tapis rouge vers la grande fontaine pendant qu'un public les acclame et qu'une marche de John Philip Sousa accompagne la procession. La coutume a commencé en 1933 comme une plaisanterie alcoolisée et a été transformée en spectacle entraîné par Edward Pembroke à partir de 1940, qui a assuré la fonction de duckmaster pendant cinquante ans et rendu la tradition célèbre. Anthony Petrina, 29 ans, est le cinquième duckmaster; diplômé en gestion hôtelière et ancien serveur, il a été formé sur le tas en observant son prédécesseur et les anciens porteurs. Petrina affirme que la priorité est le soin et la protection des oiseaux: il les nettoie, nourrit et baigne chaque matin, les loge dans un « Royal Duck Palace » sur le toit et les renvoie dans un étang de la ferme après environ trois mois pour éviter qu'ils ne s'habituent trop. La procession quotidienne reste l'aspect public le plus visible d'une tradition de plus de quatre-vingts ans que Petrina assume avec un sentiment de responsabilité et d'attachement à l'héritage de ses prédécesseurs.

06:09

A Letter from Dijkstra on APL (1982)

Le document reproduit une lettre de Dijkstra dans laquelle il critique l'APL, évoque son caractère de « culte » et souligne la dépendance au matériel spécifique qui rend son enseignement difficile par écrit. L'auteur souligne l'ironie de ces critiques en rappelant que Ken Iverson a créé sa notation pour la communication humaine avant toute mise en œuvre informatique. Hui soutient que l'exécutabilité reste un atout pédagogique et que, même en méthodes formelles, la possibilité d'exécuter permet de vérifier et d'honorer les raisonnements. Le texte illustre la puissance expressive d'APL par deux exemples formels détaillés : une dérivation de la fonction d'Ackermann et une optimisation de l'opération index-of pour des tables inversées. L'article se conclut par un lexique de la notation APL, des références bibliographiques et une dédicace à Ken Iverson pour son 93e anniversaire.

06:08

DeepSeek V4–almost on the frontier, a fraction of the price

Le laboratoire chinois DeepSeek a publié les premières versions de la série V4, DeepSeek-V4-Pro et DeepSeek-V4-Flash, deux modèles Mixture of Experts conçus pour un contexte d'un million de tokens. Le modèle Pro comporte 1,6 billion de paramètres au total avec 49 milliards activés, tandis que le Flash atteint 284 milliards au total avec 13 milliards activés, et les poids sont distribués sous licence MIT. Les fichiers pèsent respectivement 865 Go pour le Pro et 160 Go pour le Flash sur Hugging Face, et l'auteur espère pouvoir exécuter une version légèrement quantifiée du Flash sur un MacBook Pro 128 Go. DeepSeek propose des tarifs très bas (Flash à 0,14 $/M en entrée et 0,28 $/M en sortie ; Pro à 1,74 $/M et 3,48 $/M) et affirme d'importants gains d'efficacité par rapport à V3.2, notamment des réductions substantielles des FLOPs et de la taille du cache KV. Les benchmarks auto-déclarés placent le Pro comme compétitif sur les tâches de raisonnement étendu mais légèrement en retrait par rapport à GPT-5.4 et Gemini-3.1-Pro, et des versions quantifiées publiques sont attendues prochainement via l'équipe Unsloth.