HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3130 articles Page 46/313 Sans filtre

06:03

Show HN: A (marginally) useful x86-64 ELF executable in 301 bytes

Il s'agit d'un exécutable ELF de 298 octets fournissant l'état de la batterie pour les ordinateurs portables Linux x86-64. Le programme affiche l'énergie restante en Wh ou, si seuls des fichiers charge_* sont présents, en Ah, suivi du pourcentage. L'installation consiste à décoder une chaîne base64 puis à décompresser avec xz pour obtenir le binaire exécutable. Le logiciel ne prend en charge que x86-64 sous Linux, utilise le chemin /sys/class/power_supply/BAT0 et ignore les batteries supplémentaires. Des cas non gérés peuvent provoquer une boucle infinie si ni energy_full ni charge_full n'existent, et le comportement varie selon la présence d'une alimentation lors de la sortie de veille.

06:02

Expanding Swift's IDE Support

L'extension Swift est désormais disponible sur le registre Open VSX de la Fondation Eclipse, permettant son utilisation par des éditeurs compatibles avec les extensions VS Code. Elle offre un support de premier ordre pour les projets Swift Package Manager et la prise en charge multiplateforme sur macOS, Linux et Windows. Les fonctionnalités incluent l'auto-complétion, le refactoring, le débogage complet, un explorateur de tests et la prise en charge de DocC. Des éditeurs et IDEs modernes tels que Cursor, VSCodium, AWS Kiro et Antigravity peuvent installer automatiquement l'extension, facilitant l'intégration dans des environnements agentiques. Pour l'utiliser, il suffit de rechercher « Swift » dans le panneau Extensions d'un éditeur compatible Open VSX et des guides dédiés, notamment pour Cursor, expliquent la configuration et l'intégration des workflows IA.

06:02

MegaTrain: Full Precision Training of 100B+ Parameter LLMs on a Single GPU

Les auteurs présentent MegaTrain, un système centré sur la mémoire qui permet d'entraîner des modèles de langage de plus de 100 milliards de paramètres en précision complète sur un seul GPU. Le système stocke paramètres et états d'optimiseur en mémoire hôte et considère le GPU comme un moteur de calcul transitoire, en diffusant couche par couche les poids entrants et les gradients sortants pour réduire l'état persistant sur le périphérique. Pour surmonter le goulot d'étranglement CPU–GPU, les auteurs introduisent un moteur d'exécution pipeline à double tampon qui superpose prélecture des paramètres, calcul et déchargement des gradients sur plusieurs flux CUDA, ainsi que des gabarits de couches sans état qui remplacent les graphes autograd persistants en liant dynamiquement les poids. Sur un GPU H200 avec 1,5 To de mémoire hôte, MegaTrain entraîne de manière fiable des modèles jusqu'à 120 milliards de paramètres et atteint 1,84× le débit d'entraînement de DeepSpeed ZeRO-3 avec offloading CPU pour des modèles de 14 milliards. La méthode permet également d'entraîner un modèle à 7 milliards de paramètres avec un contexte de 512 000 tokens sur un seul GH200, réduisant la métadonnée persistante et offrant une plus grande flexibilité d'ordonnancement.

06:02

Git commands I run before reading any code

Avant d'ouvrir le code, l'autrice exécute cinq commandes git pour obtenir un diagnostic rapide de l'historique des commits et repérer qui a travaillé, où les problèmes se concentrent et si l'équipe déploie avec confiance. Une commande liste les fichiers les plus modifiés sur l'année pour repérer les hotspots de churn, qui peuvent indiquer du code difficile à maintenir quand personne ne veut s'en occuper. Un shortlog des contributeurs permet d'évaluer le bus factor et l'activité récente en signalant aussi que les workflows de squash-merge peuvent masquer les véritables auteurs. La recherche de commits contenant des mots-clés liés aux bugs, croisée avec les hotspots de churn, identifie les fichiers à risque élevé, tandis que l'analyse mensuelle du nombre de commits montre l'évolution de la vélocité du projet. La fréquence de reverts et de hotfixes révèle si l'équipe est en mode gestion de crise et ces cinq commandes, rapides à lancer, aident à prioriser les fichiers à lire en premier avant d'explorer le code.

06:02

ML promises to be profoundly weird

L'auteur décrit les systèmes dits « IA » comme des modèles d'apprentissage automatique qui prédisent des suites probables de tokens (texte, image, audio) et distingue l'entraînement coûteux de l'inférence peu onéreuse. Ces modèles produisent souvent des confabulations ou des hallucinations plausibles parce qu'ils complètent statistiquement des entrées sans compréhension ni métacognition. Ils montrent des performances impressionnantes dans certains domaines pratiques (génération de code, visualisation, prédiction de structures protéiques) tout en échouant de manière absurde sur des tâches simples, formant un fronton de compétences dentelé et imprévisible. La recherche ignore encore pourquoi les transformeurs fonctionnent si bien et l'amélioration future par augmentation de paramètres ou d'énergie de calcul reste incertaine et sujette à rendements décroissants. Même sans percées supplémentaires, le déploiement à grande échelle de ces modèles pose des risques pratiques et sociaux importants (désinformation, erreurs coûteuses, changements du travail et de la culture) qui méritent attention et régulation.

06:01

Map Gesture Controls - Control maps with your hands

Cette solution propose des commandes gestuelles par la main pour les cartes OpenLayers, basées sur MediaPipe et sans backend. L'exécution est entièrement locale dans le navigateur via MediaPipe WASM, sans serveur ni WebSocket et sans envoi de données hors de l'appareil. L'intégration s'effectue comme un contrôleur plug-and-play pour OpenLayers, permettant de panner avec la main gauche, zoomer avec la main droite et faire pivoter avec les deux mains. L'overlay de la webcam est configurable en position, taille et opacité, et des réglages permettent d'ajuster la sensibilité, le lissage et les zones mortes des gestes. L'API est écrite en TypeScript et exporte des types et configurations typés tels que GestureMapControllerConfig, WebcamConfig et TuningConfig.

06:01

They're made out of meat (1991)

Des explorateurs extraterrestres découvrent une espèce sentiente entièrement composée de chair. Les enquêteurs confirment que ces êtres ont un cerveau de chair qui pense et qu'ils émettent des signaux radio au moyen de machines qu'ils ont fabriquées. Face à l'incrédulité, les autorités recommandent officieusement d'effacer les traces et de ne pas établir de contact, malgré l'obligation officielle d'accueillir toute sentience. Ils manipulent la mémoire des sujets étudiés et classent le secteur comme inoccupé pour empêcher toute divulgation. Les interlocuteurs évoquent d'autres formes d'intelligence non charnelle et réfléchissent à l'idée que l'univers serait insupportablement solitaire sans contact.

06:01

Six (and a half) intuitions for KL divergence

La divergence entre deux distributions mesure l'excès d'« étonnement » attendu lorsque l'on utilise un modèle erroné plutôt que la vraie loi des données. Elle quantifie aussi l'espérance des preuves (log‑vraisemblances) fournies par les observations en faveur d'un modèle alternatif lorsque l'hypothèse nulle est vraie. Minimiser cette divergence revient, asymptotiquement, à maximiser la vraisemblance empirique, ce qui lie l'estimation du maximum de vraisemblance à l'optimisation de cette quantité. En codage source elle représente le surcoût moyen en bits quand on compresse selon un modèle incorrect, et dans des jeux de pari elle correspond au gain logarithmique attendu que procure la connaissance de la vraie distribution. La même quantité se voit aussi comme une divergence de Bregman issue de l'entropie négative, ce qui reflète qu'elle mesure combien Q diffère de P dans le monde où P est vrai et explique pourquoi elle n'est pas symétrique.

06:01

Understanding the Kalman filter with a simple radar example

Le filtre de Kalman est un algorithme d'estimation et de prédiction de l'état d'un système en présence d'incertitudes de mesure et de bruit de processus. Il fonctionne en boucle prédiction-mise à jour en combinant une prédiction issue d'un modèle dynamique avec les mesures, en tenant compte des covariances d'incertitude. L'exemple présenté utilise un radar unidimensionnel qui estime la position et la vitesse d'un avion via un vecteur d'état, une matrice de transition d'état et un bruit de processus Q. Lors de la mise à jour, le gain de Kalman pondère la mesure et la prédiction en fonction de leurs variances pour produire une estimation optimisée et une covariance réduite, tandis que la prédiction suivante augmente de nouveau l'incertitude. Le texte aborde également des aspects pratiques comme l'initialisation, le rejet d'outliers et renvoie à des tutoriels et un livre pour approfondir la théorie et l'implémentation.