HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3464 articles Page 59/347 Sans filtre

06:07

Anthropic downgraded cache TTL on March 6th

L'analyse de 119 866 appels API extraits des fichiers JSONL de Claude Code (deux machines, 11 janv.–11 avr. 2026) indique qu'Anthropic a apparemment modifié par défaut le TTL du cache de 1 heure à 5 minutes début mars 2026. Les données temporelles montrent quatre phases — janvier tout 5m, du 1er février au 5 mars uniquement 1h, transition le 6–7 mars, puis dominance du 5m à partir du 8 mars — ce qui concorde avec un basculement côté serveur achevé autour du 8 mars. Cette réversion a entraîné une hausse des coûts de création de cache estimée entre 20 % et 32 % ainsi qu'une augmentation totale des paiements de 17,1 % sur l'ensemble des appels analysés, et a provoqué des épisodes de consommation de quota inédits pour des abonnés Pro. Le mécanisme explicatif est que le TTL de 5 minutes fait expirer les caches après toute pause dépassant 5 minutes, forçant des réécritures coûteuses plutôt que des lectures bon marché, ce qui pénalise fortement les longues sessions de codage intensif. Les auteurs demandent qu'Anthropic confirme ou infirme le changement de TTL, précise le comportement voulu pour les sessions Claude Code, envisage de rétablir ou d'exposer le TTL d'une heure comme option, et divulgue la méthode de comptage des tokens de cache_read pour éclairer l'impact sur les quotas.

06:07

Tech valuations are back to pre-AI boom levels

La présentation ne peut être distribuée, transmise ou communiquée à des tiers sans le consentement exprès d'Apollo Global Management et de ses filiales. Apollo n'offre aucune garantie quant à l'exactitude, la raisonnabilité ou l'exhaustivité des déclarations faites, y compris celles issues de tiers. Les opinions, estimations et projections reflètent le jugement du présentateur à la date indiquée et peuvent être modifiées à tout moment sans obligation de mise à jour. Les informations ne constituent pas des conseils comptables, juridiques ou fiscaux ni une recommandation d'investissement, et les investisseurs doivent effectuer leurs propres vérifications et consulter des conseillers. Certaines déclarations sont prospectives et soumises à des risques et incertitudes, de sorte que les résultats réels peuvent différer sensiblement et qu'il ne faut pas s'y fier indûment.

06:07

Doom, Played over Curl

Un serveur HTTP exécute une instance headless de DOOM, rend chaque frame en blocs demi-hauteur ANSI et les streame vers un terminal via curl, sans dépendances autres que curl et bash. On peut y jouer de deux manières: en lançant un script one-liner via curl | bash qui gère la boucle de touches, ou en utilisant un unique POST streaming avec curl en mode raw pour envoyer les frappes et recevoir les frames sur la même connexion. Le serveur garde une session par joueur avec un processus doomgeneric, communique via pipes pour commandes et frames, downsample les images 640×400 en utilisant le glyphe ▀ pour doubler la résolution verticale et n'envoie des séquences SGR que lorsque la couleur change. La diffusion par défaut est 15 fps (configurable via le paramètre fps) pour éviter l'entassement de trames quand stdin est inactif, et on peut ajuster cols et rows via paramètres d'URL ou variables d'environnement. Le projet nécessite Node.js 18+, un compilateur C et le WAD shareware, s'installe avec npm et make, expose une API (POST /new, /tick, /play, /quit, etc.) et fournit des instructions pour héberger et personnaliser le serveur.

06:06

Cooperative Vectors Introduction

En 2021 l'équipe a commencé à intégrer des réseaux neuronaux dans leur moteur de rendu, d'abord pour des matériaux neuronaux en inférence seule, puis en étendant le cadre pour l'entraînement à la volée nécessaire au Neural Radiance Caching. Les accélérations matérielles existantes (Tensor Cores, XMX, WMMA) étaient fragmentées et l'extension cooperative matrix ne gérait pas les cas divergents où des pixels adjacents nécessitent des réseaux et des poids différents, ce qui a motivé la proposition VK_NV_cooperative_vector de NVIDIA. Les "long vectors" en HLSL sont des vecteurs par invocation stockés en VGPR permettant à chaque thread de porter des entrées distinctes, lesquelles peuvent être regroupées au niveau de la wave pour des opérations vector-matrice accélérées et utilisables dans plusieurs stades de shader. Les matrices existent en layouts transparents (row/column) et en layouts optimaux opaques (MulOptimal pour l'inférence, OuterProductOptimal pour l'entraînement), nécessitant des conversions contrôlées par l'API et exposant des opérations telles que MatMul, MatMulAdd, OuterProductAccumulate et VectorAccumulate pour inférer et calculer des gradients. En pratique il faut convertir entre layouts pour mise à jour CPU, les layouts optimaux empêchent l'accès élémentaire direct, la proposition DirectX évolue vers un ensemble "linear algebra" tandis que l'extension Vulkan pour vecteurs coopératifs reste propriétaire NVIDIA, et la solution antérieure de grouper par matériau reste un palliatif suboptimal.

06:06

Bouncer: Block "crypto", "rage politics", and more from your X feed using AI

L'extension de navigateur permet de filtrer en temps réel les publications indésirables sur le fil Twitter/X en utilisant des filtres décrits en langage naturel. Elle prend en charge plusieurs backends d'IA (locaux ou via API cloud comme OpenAI, Google Gemini, Anthropic, OpenRouter) et propose l'inférence locale via WebLLM pour ne pas envoyer de données à l'extérieur. Les modèles multimodaux peuvent analyser texte et images, chaque publication étant classée, masquée avec une animation et accompagnée d'une explication sur la raison du filtrage. L'extension est disponible via le Chrome Web Store et l'App Store iOS, et peut également être installée depuis le code source en chargeant l'extension dans Chrome/Edge. Un MutationObserver surveille le fil pour détecter de nouvelles publications et les résultats sont mis en cache pour éviter des inférences répétées.

06:06

Show HN: Claudraband – Claude Code for the Power User

Claudraband encapsule l'interface Claude Code TUI dans un terminal contrôlé pour conserver, reprendre et piloter des sessions via la ligne de commande. Il fournit des workflows non interactifs reprenables, un démon HTTP pour contrôle distant, un serveur ACP pour intégration d'éditeurs et une bibliothèque TypeScript pour automatiser ces flux. Ce projet n'est pas un substitut au SDK : il exige une authentification via Claude Code et chaque interaction passe par une session Claude Code réelle. L'installation nécessite Node.js ou Bun, une session Claude Code authentifiée et tmux pour le mode local ou démon, avec des commandes clés comme cband continue, sessions, serve et attach. Des exemples TypeScript, une option expérimentale --backend xterm et une gestion des sessions stockées dans ~/.claudraband sont documentés dans les fichiers docs et examples du dépôt.

06:06

Mark's Magic Multiply

L'article traite de la multiplication en virgule flottante simple précision sur processeurs embarqués et des optimisations logicielles et matérielles possibles. L'auteur présente Xh3sfx, une extension RISC‑V "firm floating point" qui accélère les routines de virgule flottante en remplaçant des fonctions runtime par des opérations ALU spécialisées, offrant par exemple l'addition simple précision en 14 cycles et la multiplication en 16 cycles. Il décrit l'implémentation par défaut de la multiplication qui consiste à dépaqueter exposants et significands, effectuer un produit exact 32×32→64, écraser et normaliser le produit puis reconditionner le résultat pour l'arrondi correct. Après avoir testé une multiplication "schoolbook" en quatre produits 16×16→32 qui coûte environ 33 cycles, l'auteur présente une astuce de Mark Owen utilisant seulement deux produits 32×32→32 pour calculer un produit 23×23→46 avec une correction bornée, réduisant le travail de manipulation de bits. L'auteur adapte la méthode de Mark Owen à RISC‑V, gagne quelques cycles (environ 30 cycles pour fmul) et suggère que la technique pourrait être généralisée au cas double précision sans l'avoir formellement démontré.