HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3702 articles Page 116/371 Sans filtre

06:05

In Japan, the robot isn't coming for your job; it's filling the one nobody wants

Le Japon accélère le déploiement de la Physical AI pour compenser le déclin démographique et les pénuries de main-d'œuvre qui menacent la continuité des usines, entrepôts et services essentiels. Le ministère de l'Économie vise à créer un secteur national et capter 30 % du marché mondial d'ici 2040, soutenu par environ 6,3 milliards de dollars d'engagements publics. Le pays conserve un avantage dans les composants robotiques de haute précision et la maîtrise du hardware tandis que les États-Unis et la Chine progressent davantage vers des systèmes full-stack intégrant logiciels et données. Les cas d'usage évoluent des pilotes vers des déploiements commerciaux dans l'automatisation industrielle, la logistique, les inspections et la défense, avec des indicateurs opérationnels mesurables comme le temps de fonctionnement et les taux d'intervention humaine. L'écosystème attendu est hybride, combinant grandes entreprises pour l'échelle et les déploiements avec des startups spécialisées en logiciels d'orchestration, jumeaux numériques et intégration, la valeur durable résidant dans la mise en œuvre et l'amélioration continue.

06:04

Signals, the push-pull based algorithm

L'article présente les Signaux comme une abstraction réactive permettant de propager automatiquement les changements à travers un graphe de dépendances. Il décrit l'approche push où les signaux notifient immédiatement leurs abonnés lors d'une mise à jour, similaire à un pattern publish–subscribe. Il explique l'approche pull via les computeds, qui sont paresseux, suivent automatiquement leurs dépendances lors de l'exécution et utilisent un cache invalidé grâce à un drapeau "dirty". L'auteur montre une implémentation minimale (pile globale pour le suivi des dépendances et invalidations synchrones) et détaille comment la combinaison push-pull produit une invalidation immédiate et une réévaluation à la demande. Il conclut que ce modèle finement granulé est largement adopté par des frameworks et bibliothèques et pourrait être prochainement standardisé via la proposition TC39 pour Signals.

06:04

Music for Programming

Resume indisponible pour cet article.

06:04

Usenet Archives

Resume indisponible pour cet article.

06:04

Sheets Spreadsheets in Your Terminal

Cet outil fournit une interface en ligne de commande et une interface textuelle interactive pour consulter et modifier des fichiers CSV depuis le terminal. Il permet de lire des cellules ou des plages depuis stdin ou un fichier, d'écrire et de modifier des cellules via des commandes en ligne. La navigation et l'édition utilisent des raccourcis inspirés de Vim pour se déplacer, sélectionner, éditer, copier, coller, annuler et refaire des actions. Un mode commande offre des commandes telles que :w, :e et :q pour sauvegarder, ouvrir et quitter, ainsi que des commandes pour atteindre directement une cellule. L'application s'installe via go install ou en téléchargeant un binaire, est publiée sous licence MIT et accepte les retours par e‑mail, Twitter ou issues GitHub.

06:04

Rendering arbitrary-scale emojis using the Slug algorithm

La mise à disposition publique de l'algorithme Slug d'Eric Lengyel a permis l'ajout rapide d'une implémentation open-source dans HarfBuzz sous forme d'une bibliothèque GPU qui calcule la couverture des glyphes directement dans le fragment shader. La bibliothèque HarfBuzz GPU gère déjà le rendu de glyphes monochromes en encodant les contours dans un tampon de texture, en uploadant ces données puis en appelant hb_gpu_render dans le fragment shader pour multiplier la couverture par l'alpha de la couleur. Le support des polices couleur plates (COLRv0) se fait simplement en empilant plusieurs glyphes monochromes avec des couleurs unies récupérées via hb_ot_color_glyph_get_layers. COLRv1, beaucoup plus sophistiqué, impose un arbre de rendu avec clips, dégradés, transformées affines et groupes, et l'article détaille l'utilisation de hb-paint pour extraire les commandes, l'encodage des dégradés et des matrices inverses ainsi que la transformation des contours avant leur envoi au GPU. Les opérations de groupement et de fusion sont implémentées dans le fragment shader en itérant sur une séquence de commandes encodées et en appliquant les modes de blend, permettant ainsi de rendre des emojis vectoriels multicolores et parfaitement scalables dans des scènes 3D.

06:04

Show HN: Modo – I built an open-source alternative to Kiro, Cursor, and Windsurf

Modo est un IDE de bureau open source sous licence MIT qui transforme les invites en plans structurés avant de générer du code. Il adopte un flux spec-driven avec des dossiers .modo/specs contenant requirements.md, design.md et tasks.md, et l'agent remplit puis exécute les tâches qui persistent sur le disque. Les fichiers de steering injectent des règles projet dans chaque interaction LLM selon des modes d'inclusion, tandis que .modo/hooks permet d'automatiser des actions autour du cycle de vie de l'agent via divers événements et actions. L'outil offre une bascule Autopilot/Supervised, sessions de chat parallèles, sous-agents, boutons "Run Task" inline, un panneau explorateur dédié, des "powers" installables et des commandes slash pour piloter les flux. Construit sur Void et VS Code avec prise en charge multi-fournisseur LLM, le dépôt propose un guide de démarrage, une structure .modo/ initialisable et invite la contribution communautaire sous licence MIT.

06:03

We replaced Node.js with Bun for 5x throughput

L'équipe a remplacé Node.js par Bun dans un service critique de long-polling et observé un gain global d'environ 5x en débit ainsi que des améliorations marquées de la latence et de la stabilité. Ils ont d'abord supprimé une couche SQLite surdimensionnée au profit d'une Map à clé composite, ce qui a doublé le débit et réduit significativement les latences médianes. En migrant vers Bun puis en profilant, ils ont éliminé des points chauds CPU (validation Zod inutile, conversion des headers avec Object.fromEntries et sérialisation de logs) et réduit l'utilisation CPU d'environ 40 %. En production une fuite mémoire liée au modèle HTTP de Bun a été identifiée : des Promise<Response> non résolues lors des déconnexions client retenaient l'état interne, et la fuite a été corrigée en résolvant explicitement la promesse avec un 499 et en ajustant idleTimeout. Ils ont ensuite compilé l'application en un binaire unique pour gagner en performance et en taille d'image, et recommandent de profiler systématiquement, de tester avec k6 et d'utiliser les outils Bun (heapStats, cpu-prof, MIMALLOC_SHOW_STATS) pour diagnostiquer fuites et métriques.

06:03

Media scraper Gallery-dl is moving to Codeberg after receiving a DMCA notice

Le texte affirme que Jacob a créé Fakku initialement comme un aspirateur d'Exhentai, finançant le site avec des prêts étudiants et en vendant des produits ornés de contenus protégés. Selon le récit, Fakku aurait informé Wanimagazine de la diffusion de scans non autorisés sur Exhentai, accepté un accord avec cette société et continué à partager du contenu non licencié pendant environ un an. Le texte indique que Jacob aurait publié le dox du propriétaire d'Exhentai et que Fakku a ensuite envoyé massivement des demandes de retrait de contenus, tout en se présentant publiquement comme défenseur de la liberté d'expression. L'auteur allègue que Fakku privilégie le profit en mettant des œuvres d'artistes décédés derrière un paywall, sollicitant des dons pour traductions et offrant des rencontres en échange de contributions élevées. Enfin, le texte suggère un lien entre Fakku et Irodori Comics, accusant cette dernière de payer ses traducteurs au-dessous du salaire minimum, de produire des traductions de faible qualité et d'avoir effectué des retraits massifs de galeries, certaines affirmations restant non vérifiées.