My wife calls me, panicked
Resume indisponible pour cet article.
Edition quotidienne
Les meilleurs longs formats de Hacker News, relus plus calmement.
12 Feb 2026
07:05
Resume indisponible pour cet article.
12 Feb 2026
07:05
Planifier des groupes de jeux de rôle sur table en tant qu’adulte peut être particulièrement difficile, et l’auteur utilise principalement des sondages comme Rallly tout en souhaitant un outil qui s’intègre aux calendriers et montre les créneaux disponibles pour les joueurs. Une solution potentielle évoquée est Thunderbird Appointment, et l’auteur s’est inscrit sur une liste d’attente après l’annonce d’un service payant lié à Thunderbird et l’apparition du dépôt sur GitHub. La mise en place locale de Thunderbird Accounts demande uv et des modifications du fichier hosts, ainsi que l’activation de dnsmasq et Docker, avec un échec initial du bootstrap nécessitant l’ouverture d’un ticket. Pour Appointment, la commande create_client a été retirée et peut être ignorée, et il faut résoudre des conflits de ports entre les conteneurs en ajustant les ports et les variables d’environnement correspondantes. L’intégration CalDav via Nextcloud est utilisée pour la réservation et le calendrier partagé, mais Appointment ne supporte pas encore les réservations par groupe et l’auteur reste sur la liste d’attente pour tester davantage.
12 Feb 2026
07:05
Resume indisponible pour cet article.
12 Feb 2026
07:05
L'exposé porte sur la MailStation, une machine basée sur un Z80 présentée en 1999 comme solution de messagerie spécialisée. Elle est équipée d'un Z80 à 12 MHz et de 128 kB de RAM, et demeure un ordinateur complet avec écran, clavier et possibilités d'exécuter des applications. Le présentateur souhaite montrer comment elle peut être hackée pour exécuter des logiciels personnalisés et inviter le public à documenter la machine et à écrire du firmware sur mesure. Des ressources associées sont fournies, notamment un émulateur MailStation, une application hôte pour transférer des logiciels et la documentation matérielle. Des enregistrements vidéo et des liens vers le chat et les retours sont accessibles via les liens de la session.
12 Feb 2026
07:04
Un livre publié en 1832 par Doi Toshitsura rassemble des gravures sur la neige et reflète vingt années de travail sur les « fleurs de neige ». Doi Toshitsura était daimyō du domaine de Koga et probablement le premier Japonais à observer des cristaux de glace au microscope. Le livre contient quatre-vingt-six observations directes de flocons et douze reproductions tirées du Katechismus der natur de J. F. Martinet. Sa méthode consistait à pré-refroidir un tissu noir à l’extérieur, puis à prélever la neige sur ce tissu et à la déposer sur un plateau laqué avec une pince, sans souffler dessus pour éviter qu’elle ne se dissolve. Son travail fut rendu possible grâce à sa collaboration avec Takami Senseki et à la diffusion par Dejima et le commerce néerlandais, ce qui lui valut le surnom de « Snow Lord » et fit ses motifs entrer dans Hokuetsu Seppu, puis se diffuser dans les textiles et objets à Koga.
12 Feb 2026
07:04
La publicité diffusée lors du Super Bowl a déclenché des critiques en présentant des caméras Ring “surveillant” les quartiers pour retrouver un chien perdu et suscitant des inquiétudes sur la surveillance de masse. Des experts en confidentialité et des figures politiques soutiennent que l’IA utilisée pour identifier les chiens pourrait prochainement servir à repérer des personnes, alimentant les crainte de surveillance étendue. Le partenariat entre Ring et Flock Safety et la perspective que des données puissent être accessibles par les autorités alimentent les appels à plus de transparence et à des protections renforcées pour les consommateurs. Ring affirme que Search Party ne traite que des images de chiens et que Familiar Faces est distinct, avec Search Party activé par défaut sur les caméras extérieures et les partages via des requêtes communautaires et des partenaires comme Axon et Flock. Bien que Ring assure ne pas viser une surveillance massive, l’histoire montre que les outils de surveillance à grande échelle évoluent souvent au-delà de leur usage initial, ce qui pousse à une vigilance continue.
12 Feb 2026
07:04
Resume indisponible pour cet article.
12 Feb 2026
07:04
Resume indisponible pour cet article.
12 Feb 2026
07:04
L’auteur revient sur son expérience chez Heroku et affirme que l’entreprise n’est pas morte, malgré une période difficile. En tant que tech lead de l’équipe production engineering operations experiences, il a dirigé et développé plus de trente services internes entre 2021 et 2024, couvrant la gestion des comptes AWS, l’ingestion des logs CloudTrail, la gestion des secrets et bien d’autres domaines. Il indique avoir servi directement toutes les équipes d’ingénierie et mené 9 à 11 projets en parallèle, tout en mentorant des ingénieurs et en publiant plusieurs documents techniques. Le texte explore les dynamiques post-acquisition, les tensions entre centralisation et décentralisation, les défis de l’échelle et des coûts à servir, ainsi que les obstacles organisationnels. Il conclut en exprimant de l’espoir pour l’avenir et en partageant des leçons sur l’apprentissage organisationnel, tout en restant prudent sur ce qui peut être partagé publiquement pour des raisons éthiques et légales.
12 Feb 2026
07:04
GLM-OCR est un modèle OCR multimodal destiné à la compréhension de documents complexes, fondé sur l’architecture GLM-V et équipé de la perte Multi-Token Prediction et d’un apprentissage par renforcement stable pour améliorer l’entraînement et la généralisation. Le système intègre un encodeur visuel CogViT pré-entraîné sur de vastes ensembles image-texte, un connecteur cross-modal léger avec réduction efficace des tokens et un décodeur GLM-0.5B, soutenu par une pipeline en deux étapes combinant détection de mise en page et reconnaissance parallèle. Ses performances de pointe atteignent un score OmniDocBench de 94,62 et démontrent une robustesse dans la reconnaissance de formules, de tableaux et d’extraction d’informations. Il est optimisé pour des scénarios réels avec une bonne résistance sur des mises en page complexes et codes, offrant une inférence efficace grâce à 0,9 milliard de paramètres et un déploiement possible via vLLM, SGLang ou Ollama pour réduire la latence et les coûts. Le projet est entièrement open-source et propose un SDK complet, des guides d’utilisation, et des options de déploiement variées (MaaS cloud ou déploiement local) avec des formats de sortie JSON et Markdown.