HN Digest
Briefing personnel.

Edition quotidienne

Lire vite. Garder l'essentiel.

Les meilleurs longs formats de Hacker News, relus plus calmement.

3507 articles Page 206/351 Sans filtre

07:00

Emacs and Vim in the Age of AI

Il est difficile de prédire l’avenir et l’évolution d’Emacs et de Vim dans un monde marqué par l’IA est plus nuancée que l’idée d’un destin inévitablement funeste. Les risques principaux incluent la domination de VS Code avec des intégrations IA de premier ordre et l’émergence d’éditeurs dédiés qui attirent les développeurs loin d’Emacs et de Vim. L’asymétrie des ressources et du financement entre les grandes entreprises et les projets communautaires, associée à la possibilité d’un scénario où l’automatisation généralisée remplace certains aspects du codage, est à envisager sans certitude à court terme. Les opportunités résident dans la réduction des barrières à l’extension par l’IA, le développement accéléré de plugins et la possibilité de faire d’Emacs une plateforme d’intégration IA tout en simplifiant le dépannage. En fin de compte, les éditeurs survivront en restant centrés sur le contrôle du flux de travail, en attirant davantage de contributeurs et en abordant les questions éthiques, sans paniquer et en s’adaptant activement.

07:00

A Survival Guide to a PhD (2016)

Le guide examine les choix et les critères autour du doctorat en informatique, en soulignant que l’expérience varie fortement et qu’il faut peser liberté, propriété intellectuelle, exclusivité, statut, croissance personnelle, perspectives futures et risques. L’entrée en doctorat repose surtout sur des lettres de recommandation solides et sur le choix d’une école et d’un encadrant compatibles, en tenant compte des dynamiques pré-tenure et post-tenure et des axes de variation entre les directeurs. En recherche, il faut développer le goût pour les bons problèmes, agir dans l’outer loop, viser des sujets ambitieux mais attaquables et éviter les travaux purement incrémentiels, tout en s’alignant sur les intérêts de l’encadrant. L’écriture des papiers et le code exigent une contribution centrale unique, une structure claire, une gestalt efficace et des échéances internes, avec publication et partage du code pour la reproductibilité. Pour les présentations et les conférences, l’objectif est d’englober et d’enseigner le public tout en restant engageant, les conférences étant autant sociales que techniques, et l’intégrité et la qualité du travail restant essentielles pour une carrière durable.

07:00

Can I run AI locally?

Cet article présente un catalogue des modèles d'IA susceptibles d'être exécutés localement sur différentes configurations matérielles. Il liste pour chaque modèle sa taille en gigaoctets, son contexte (ctx), son architecture (Dense ou MoE) et d'autres spécifications comme la mémoire et le type d'usage. Les données proviennent de llama.cpp, Ollama et LM Studio et distinguent les variantes pour l'exécution sur des appareils edge, sur mobile et les grands modèles MoE. Le texte aide à estimer ce que l'on peut faire tourner localement en fonction de la mémoire disponible et des besoins en contexte. C'est une photographie du paysage actuel des modèles IA open source et commerciaux, avec des exemples récents comme Llama 4 Maverick et Qwen 3.x.

07:00

1M context is now generally available for Opus 4.6 and Sonnet 4.6

Claude Opus 4.6 et Sonnet 4.6 disposent désormais d'une fenêtre de contexte complète de 1M tokens, sans surcoût lié au long contexte. La tarification standard couvre l'ensemble de la fenêtre, soit 5 $ / 25 $ par million de tokens pour Opus 4.6 et 3 $ / 15 $ pour Sonnet 4.6, sans multiplicateur. Les limites médias permettent jusqu'à 600 images ou pages PDF par requête, et l'en-tête bêta n'est plus requis. 1M contexte est inclus dans Claude Code pour Max, Team et Enterprise, et les sessions Opus 4.6 utilisent ce contexte sans nécessiter de compactage accru. La disponibilité générale est effective dès aujourd'hui sur Claude Platform, Microsoft Azure Foundry et Google Cloud Vertex AI, avec des options via Amazon Bedrock et une documentation tarifaire disponible.

07:11

Dolphin Progress Release 2603

Dolphin est né comme émulateur GameCube en 2003, a ajouté le support expérimental du Wii en 2008 et, en 2026, s'ouvre à l'émulation d'arcade avec le Triforce. L'une des avancées majeures est l'ajout du mapping rapide des tables de pages via fastmem dans l'émulation MMU, permettant à des jeux utilisant des tables de pages d'atteindre des vitesses quasi natives, notamment Rogue Squadron III. Des améliorations ARAM et de la gestion mémoire ont aussi renforcé les performances pour les jeux utilisant ARAM, avec Rogue Squadron II et III affichant des gains significatifs, même si certains réglages améliorent la vitesse au détriment de la fidélité graphique. Le soutien Triforce a été soutenu par une communauté active et a intégré des avancées telles que l'insertion de Magnetic Cards pour les vérifications, le support namcam2 et des progrès sur les cabinets multicabinet et The Key of Avalon. Des correctifs majeurs pour des désynchronisations Wi‑Fi dans Mario Strikers Charged et Inazuma Eleven GO: Strikers 2013 ont été obtenus grâce à des analyses combinant JIT et interpréteur et à des tests collaboratifs, et le travail continue sur la performance et l'exactitude.

07:11

Runners who churn butter on their runs

Libby Cope, créatrice de contenu axée sur l’extérieur et la course, basée en Oregon, a publié une vidéo virale montrant comment faire du beurre en courant. Avec son compagnon, Jacob Arnold, ils versent de la crème entière et du sel dans des sacs Ziploc doublement refermables et les glissent dans leurs gilets de course. Leur explication technique décrit comment la crème agitée se transforme en beurre et pourquoi la température influence la vitesse du processus. Lors de la première tentative, ils utilisent quatre pintes de crème et doivent faire des pauses pour refroidir les sacs dans une rivière, car la chaleur corporelle peut ralentir la fabrication. Une deuxième tentative, plus efficace grâce à une crème de meilleure qualité et à des conditions plus chaudes, produit du beurre plus rapidement et inspire d’autres coureurs à essayer l’expérience.

07:11

Claude now creates interactive charts, diagrams and visualizations

Claude introduit des visuels personnalisés (graphiques, diagrammes et autres visualisations) directement dans ses réponses, en bêta dans les conversations. Ces visuels apparaissent inline et sont temporaires, évoluant ou disparaissant au fil de la discussion pour aider à comprendre le sujet abordé. Par opposition aux outils et documents permanents créés par Claude, ces visuels servent uniquement à l’instant et évoluent avec la conversation. Des exemples incluent une courbe expliquant les intérêts composés ou une visualisation interactive de la table périodique que l’utilisateur peut explorer. La fonctionnalité est activée par défaut et peut être utilisée automatiquement ou sur demande, et elle s’inscrit dans une série d'améliorations plus larges comprenant des formats dédiés et des intégrations avec Figma, Canva et Slack, accessible sur tous les plans.

07:10

Does Where You're Born Matter More Than How Hard You Work?

L'effort seul n'explique pas entièrement le succès financier, car le lieu de naissance et le quartier d'enfance pèsent fortement sur les trajectoires économiques. Le chercheur Raj Chetty et l'Opportunity Atlas suivent près de 20 millions d'enfants et démontrent que les résultats économiques varient selon le quartier où l'on grandit, avec environ 60% de la variation attribuable à des effets causaux. Les quartiers à haute opportunité offrent de meilleures écoles, des réseaux professionnels et des environnements qui soutiennent l'acquisition de capital humain, contrairement aux quartiers pauvres qui manquent ces moteurs. À l'échelle mondiale, le pays de naissance explique plus de la moitié des revenus à vie, ce qu'on appelle la prime de citoyenneté, et la mobilité reste limitée pour la plupart. Les implications politiques invitent à des politiques ciblant les lieux, à favoriser le déplacement précoce vers des environnements plus porteurs et à soutenir l'immigration et le développement international comme réponses globales.

07:10

Kotlin creator's new language: talk to LLMs in specs, not English

CodeSpeak est un langage de programmation de prochaine génération propulsé par des modèles de langage et conçu pour les humains, capable de réduire la base de code de 5 à 10 fois. Il vise des systèmes de production et des projets sur le long terme, avec des équipes humaines plutôt que des solopreneurs. L'approche met l'accent sur le maintien des spécifications plutôt que sur le code, et s'applique aux projets mixtes où certaines parties sont écrites à la main et d'autres générées à partir de spécifications. Le système peut convertir du code existant en spécifications nettement plus petites et assure que leur maintenance reste plus simple pour les humains. Des études de cas réelles exposent des réductions significatives du volume de code, des tests ajoutés et des résultats concrets dans plusieurs projets.