Arnaud et Emmanuel discutent des versions Java, font un résumé de l’écosystème WebAssembly, discutent du nouveau Model Context Protocol, parlent d’observabilité avec notamment les Wide Events et de pleins d’autres choses encore.

Enregistré le 17 janvier 2025

Téléchargement de l’épisode LesCastCodeurs-Episode-321.mp3 ou en vidéo sur YouTube.

News

Langages

Java trend par InfoQ https://www.infoq.com/articles/java-trends-report-2024/

  • Java 17 finalement dépasse Java 11/8 ~30/33%.
  • Java 21 est à 1.4%.
  • Commonhaus apparait.
  • GraalVM en early majority.
  • Spring AI et Langchain4j en innovateurs.
  • Spring Boot 3 voit son adoption augmenter.

Un bon résumé sur WebAssembly, les différentes specs comme WASM GC, WASI, WIT… https://2ality.com/2025/01/webassembly-language-ecosystem.html

  • WebAssembly (Wasm) est un format d’instructions binaires pour une machine virtuelle basée sur une pile, permettant la portabilité et l’efficacité du code.
  • Wasm a évolué à partir d’asm.js, un sous-ensemble de JavaScript qui pouvait fonctionner à des vitesses proches de celles natives.
  • WASI (WebAssembly System Interface) permet à Wasm de fonctionner en dehors des navigateurs Web, fournissant des API pour le système de fichiers, CLI, HTTP, etc.
  • Le modèle de composant WebAssembly permet l’interopérabilité entre les langages Wasm à l’aide de WIT (Wasm Interface Type) et d’ABI canonique.
  • Les composants Wasm se composent d’un module central et d’interfaces WIT pour les importations/exportations, facilitant l’interaction indépendante du langage.
  • Les interfaces WIT décrivent les types et les fonctions, tandis que les mondes WIT définissent les capacités et les besoins d’un composant (importations/exportations).
  • La gestion des packages Wasm est assurée par Warg, un protocole pour les registres de packages Wasm.
  • Une enquête a montré que Rust est le langage Wasm le plus utilisé, suivi de Kotlin et de C++ ; de nombreux autres langages sont également en train d’émerger.

Un algorithme de comptage à taille limitée ne mémoire a été inventé https://www.quantamagazine.org/computer-scientists-invent-an-efficient-new-way-to-count-20240516/

  • Élimine un mot de manière aléatoire, mais avec une probabilité connue quand il y a besoin de récupérer de l’espace.
  • Cela se fait par round et on augmente la probabilité de suppression à chaque round.
  • Donc au final, ne nombre de mots / la probabilité d’avoir été éliminé donne une mesure approximative, mais plutôt précise.

Librairies

Les contributions Spring passent du CLA au DCO https://spring.io/blog/2025/01/06/hello-dco-goodbye-cla-simplifying-contributions-to-spring

  • D’abord manuel, mais même automatisé le CLA est un document legal complexe
  • Qui peut limiter les contributions.
  • Le DCO vient le Linux (je crois) et est super simple.
  • Accord que la licence de la contrib est celle du projet.
  • Accord que le code est public et distribué en perpétuité.
  • S’appuie sur les -s de git pour le sign off.

Écrire un serveur MCP en Quarkus https://quarkus.io/blog/mcp-server/

  • MCP est un protocol proposé par Anthropic pour intégrer des outils orchestrables par les LLMs.
  • MCP est frais et va plus loin que les outils.
  • offre la notion de resource (file), de functions (tools), et de prompts pre built pour appeler l’outil de la meilleure façon.
  • On en reparlera après avec les agents dans un article suivant.
  • Il y a une extension Quarkus pour simplifier le codage.
  • Un article plus détaillé sur l’intégration Quarkus : https://quarkus.io/blog/quarkus-langchain4j-mcp/.

GreenMail un mini mail server en java https://greenmail-mail-test.github.io/greenmail/#features-api

  • Utile pour les tests d’intégration.
  • Supporte SMTP, POP3 et IMAP avec TLS/SSL.
  • Propose des integrations JUnit, Spring.
  • Une mini UI et des APIs REST permettent d’interagir avec le serveur si par exemple vous le partagé dans un container (il n’y a pas d’intégration TestContainer existante mais elle n’est pas compliquée à écrire).

Infrastructure

Docker Bake in a visual way https://dev.to/aurelievache/understanding-docker-part-47-docker-bake-4p05

  • Docker back propose d’utiliser des fichiers de configuration (format HCL) pour lancer ses builds d’images et docker compose.
  • En gros voyez ce DSL comme un Makefile très simplifié pour les commandes docker qui souvent peuvent avoir un peu trop de paramètres.

Datadog continue de s’étendre avec l’acquisition de Quickwit https://www.datadoghq.com/blog/datadog-acquires-quickwit/

  • Solution open-source de recherche des logs qui peut être déployée on-premise et dans le cloud https://quickwit.io/.
  • Les logs ne quittent plus votre environment ce qui permet de répondre à des besoins de sécurité, privacy et réglementaire.

Web

33 concepts en javascript https://github.com/leonardomso/33-js-concepts

Data et Intelligence Artificielle

Phi 4 et les small language models https://techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft%e2%80%99s-newest-small-language-model-specializing-in-comple/4357090

  • Phi 4 un SML pour les usages locaux notamment.
  • 14B de paramètres.
  • Belle progression de ~20 points sur un score agrégé et qui le rapproche de Llama 3.3 et ses 70B de paramètres.
  • Bon en math (data set synthétique).

Comment utiliser Gemini 2.0 Flash Thinking (le modèle de Google qui fait du raisonnement à la sauce chain of thought) en Java avec LangChain4j https://glaforge.dev/posts/2024/12/20/lets-think-with-gemini-2-thinking-mode-and-langchain4j/

  • Google a sorti Gemini 2.0 Flash, un petit modèle de la famille Gemini.
  • Le “thinking mode” simule les cheminements de pensée (Chain of thoughts etc).
  • Décompose beaucoup plus les tâches complexes en plusieurs taches.
  • Un exemple est montré sur le modèle se battant avec le problème.

Les recommendations d’Anthropic sur les systèmes d’agents https://www.anthropic.com/research/building-effective-agents

  • Défini les agents et les workflow.
  • Ne recommence pas les frameworks (LangChain, Amazon Bedrock AI Agent etc) le fameux débat sur l’abstraction.
  • Beaucoup de patterns implementable avec quelques lignes sans frameworks.
  • Plusieurs blocks de complexité croissante.
  • Augmented LLM (RAG, memory etc): Anthropic dit que les LLMs savent coordonner cela via MCP apr exemple.
  • Second : workflow prompt chaining : avec des gates et appelle les LLMs savent coordonner successivement ; favorise la precision vs la latence vu que les taches sont décomposées en plusieurs calls LLMs.
  • Workflow routing : classifie une entree et choisie la route la meilleure : séparation de responsabilité.
  • Workflow : parallélisation : LLM travaillent en parallèle sur une tache et un agrégateur fait la synthèse. parallélisation avec saucissonnage de la tâche ou voter sur la meilleure réponse.
  • Workflow : orchestrator workers : quand les tâches ne sont pas bounded ou connues (genre le nombre de fichiers de code à changer) ou quand les sous tâches ne sont pas prédéfinies.
  • Workflow : evaluator optimizer : un LLM propose une réponse, un LLM l’évalue et demande une meilleure réponse au besoin.
  • Agents : commande ou interaction avec l’humain puis autonome meme s’il peut revenir demander des precisions à l’humain. Agents sont souvent des LLM utilisât des outils pour modifier l’environnement et réagir à feedback en boucle.
  • Ideal pour les problèmes ouverts et où le nombre d’étapes n’est pas connu.
  • Recommandé d’y aller avec une complexité progressive.

L’IA c’est pas donné https://techcrunch.com/2025/01/05/openai-is-losing-money-on-its-pricey-chatgpt-pro-plan-ceo-sam-altman-says/

  • OpenAI annonce que même avec des licenses à 200$/mois ils ne couvrent pas leurs couts associés…
  • À quand l’explosion de la bulle IA ?

Outillage

Ghostty, un nouveau terminal pour Linux et macOS https://ghostty.org/

  • Initié par Mitchell Hashimoto (Hashicorp).
  • Ghostty est un émulateur de terminal natif pour macOS et Linux.
  • Il est écrit en Swift et utilise AppKit et SwiftUI sur macOS, et en Zig et utilise l’API GTK4 C sur Linux.
  • Il utilise des composants d’interface utilisateur native et des raccourcis clavier et souris standard.
  • Il prend en charge Quick Look, Force Touch et d’autres fonctionnalités spécifiques à macOS.
  • Ghostty essaie de fournir un ensemble riche de fonctionnalités utiles pour un usage quotidien.

Comment Pinterest utilise Honeycomb pour améliorer sa CI https://medium.com/pinterest-engineering/how-pinterest-leverages-honeycomb-to-enhance-ci-observability-and-improve-ci-build-stability-15eede563d75

  • Pinterest utilise Honeycomb pour améliorer l’observabilité de l’intégration continue (CI).
  • Honeycomb permet à Pinterest de visualiser les métriques de build, d’analyser les tendances et de prendre des décisions basées sur les données.
  • Honeycomb aide également Pinterest à identifier les causes potentielles des échecs de build et à rationaliser les tâches d’astreinte.
  • Honeycomb peut également être utilisé pour suivre les métriques de build locales iOS aux côtés des détails de la machine, ce qui aide Pinterest à prioriser les mises à niveau des ordinateurs portables pour les développeurs.

Méthodologies

Suite à notre épisode sur les différents types de documentation, cet article parle des bonnes pratiques à suivre pour les tutoriels https://refactoringenglish.com/chapters/rules-for-software-tutorials/

  • Écrivez des tutoriels pour les débutants, en évitant le jargon et la terminologie complexe.
  • Promettez un résultat clair dans le titre et expliquez l’objectif dans l’introduction.
  • Montrez le résultat final tôt pour réduire les ambiguïtés.
  • Rendez les extraits de code copiables et collables, en évitant les invites de shell et les commandes interactives.
  • Utilisez les versions longues des indicateurs de ligne de commande pour plus de clarté.
  • Séparez les valeurs définies par l’utilisateur de la logique réutilisable à l’aide de variables d’environnement ou de constantes nommées.
  • Épargnez au lecteur les tâches inutiles en utilisant des scripts.
  • Laissez les ordinateurs évaluer la logique conditionnelle, pas le lecteur.
  • Maintenez le code en état de fonctionnement tout au long du tutoriel.
  • Enseignez une chose par tutoriel et minimisez les dépendances.

Les Wide events, un “nouveau” concept en observabilité https://jeremymorrell.dev/blog/a-practitioners-guide-to-wide-events/

  • un autre article https://isburmistrov.substack.com/p/all-you-need-is-wide-events-not-metrics.
  • L’idée est de logger des événements (genre JSON log) avec le plus d’infos possible.
  • De la machine, la ram, la version de l’appli, l’utilisateur, le numéro de build qui a produit l’appli, la dernière PR, etc.
  • Ça permet de filtrer et grouper by et de voir des correlations visuelles tres rapidement et de zoomer.
  • Tiens, les ventes baisses de 20%.
  • Tiens, en fait ça vient de l’appli Android.
  • Tiens, pas corrélé à la version de l’appli.
  • Mais la version de l’os si !
  • Le deuxième article est facile à lire.
  • Le premier est un guide d’usage exhaustif du concept.

Entre argumenter et se donner 5 minutes https://signalvnoise.com/posts/3124-give-it-five-minutes

  • On veut souvent argumenter aka poser des questions en ayant déjà la réponse en soi émotionnellement.
  • Mais ça amène beaucoup de verbiage.
  • Donner cinq minutes à l’idée le temps d’y penser avant d’argumenter.

Loi, société et organisation

Des juges fédéraux arrêtent le principe de la neutralité du net https://www.lemonde.fr/pixels/article/2025/01/03/les-etats-unis-reviennent-en-arriere-sur-le-principe-de-la-neutralite-du-net_6479575_4408996.html?lmd_medium=al&lmd_campaign=envoye-par-appli&lmd_creation=ios&lmd_source=default

  • La neutralité du net, c’est l’interdiction de traiter un paquet différemment en fonction de son émetteur.
  • Par exemple un paquet Netflix qui serait ralenti vs un paquet Amazon.
  • Donald Trump est contre cette neutralité.
  • À voir les impacts concrets dans un marché moins régulé.

Rubrique débutant

Un petit article sur les float vs les doubles en Java https://www.baeldung.com/java-float-vs-double

  • 4 vs 8 bytes.
  • Précision max de 7 vs 15.
  • Échelle 10^38 vs 10^308 (ordre de grandeur).
  • Perf à peu près similaire.
  • Sauf peut-être pour des modèles d’IA qui vont privilégier une taille plus petite parfois.
  • Attention overflow et les accumulations d’erreurs d’approximation : BigDecimal.

Conférences

La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :

Nous contacter

Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs

Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/