LCC 334 - Interview de Muriel Ekovich sur les biais cognitifs
Posté le 24/12/2025Dans cet épisode, Emmanuel, Katia invitent Muriel Ekovich pour explorer les biais cognitifs, leur définition, leur impact sur notre quotidien et leur développement. Bien que ânon techniqueâ, ces biais existent dans notre travail et notre vie du quotidien. Nous discutons notamment leur impact sur lâusage numérique et sur les équipes techniques. Les discussions incluent également lâimportance de la pensée critique face à lâautorité et aux croyances, ainsi que les biais spécifiques rencontrés dans le milieu professionnel.
Enregistré le 1 septembre 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-999.mp3 ou en vidéo sur YouTube.
Interview
Ta vie ton oeuvre (présentation de lâinterviewé)
Muriel, tu es docteure en neurosciences cognitives. Tu travailles sur le fonctionnement du cerveau humain, notamment les biais cognitifs qui influencent nos décisions et nos interactions au quotidien. Tu tâappuies aussi sur des pratiques comme lâimprovisation pour explorer ces mécanismes de manière concrète, et tu tâintéresses à la façon dont tout cela se manifeste dans le travail et la collaboration.
Le linkedIn de Muriel
La société Kenober
La troupe Smoking Sofa
Introduction
Quand on parle de biais cognitifs, de quoi parle-t-on exactement ?
Pourquoi existent-ils et pourquoi touchent-ils tout le monde, y compris les experts ?
Biais cognitifs du quotidien
Quels sont les biais cognitifs les plus présents dans la vie quotidienne ?
Peux-tu donner un exemple simple que la majorité des gens ont déjà vécu ?
Est-ce que lâenvironnement numérique renforce certains biais ?
Biais cognitifs en entreprise tech
Dans les entreprises dâinformatique, quâest-ce qui te frappe le plus dans la manière dont les équipes raisonnent ou prennent des décisions ?
Observes-tu des biais typiques chez les développeurs ?
Chez les managers ?
Le biais de confirmation ou le biais du conformisme, est-il particulièrement présent dans les choix techniques ?
Décision technique et illusion de rationalité
Les métiers techniques ont la réputation dâêtre très rationnels. Est-ce que cela protège réellement des biais cognitifs ?
Les estimations de charge, de délais ou de complexité sont-elles un terrain favorable aux biais ?
Les revues de code permettent-elles de réduire certains biais ou en créent-elles dâautres ?
Les méthodes agiles aident-elles à mieux gérer les biais ou en génèrent-elles de nouveaux ?
Recrutement et évaluation
Le recrutement dans la tech est-il particulièrement exposé aux biais cognitifs ?
Les entretiens techniques favorisent-ils certains profils au détriment dâautres ?
Comment limiter les biais sans déshumaniser le processus ?
Prise de conscience
Pourquoi est-il si difficile dâadmettre que lâon est soi-même biaisé, surtout quand on est compétent ?
Peut-on réellement corriger ses biais cognitifs ou seulement apprendre à les contourner ?
Quel rôle joue lâhumilité dans cette prise de conscience ?
Agir concrètement
Si une équipe souhaite commencer sans accompagnement externe, que peut-elle faire dès demain ?
Y a-t-il un réflexe simple à adopter avant une décision importante ?
Un rituel dâéquipe utile et réaliste ?
Projection
à quoi ressemble une équipe qui travaille en tenant compte du fonctionnement réel du cerveau humain ?
Quâest-ce qui change dans les décisions ? Dans la communication ? Dans la gestion des désaccords ?
Quels sont les recherches actuelles sur les biais ?
Conclusion
Si tu devais faire passer un seul message aux équipes tech à propos des biais cognitifs, lequel serait-ce ?
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 333 - A vendre OSS primitif TBE
Posté le 15/12/2025Dans cet épisode de fin dâannée plus relax que dâaccoutumée, Arnaud, Guillaume, Antonio et Emmanuel distutent le bout de gras sur tout un tas de sujets. Lâacquisition de Confluent, Kotlin 2.2, Spring Boot 4 et JSpecify, la fin de MinIO, les chutes de CloudFlare, un survol des dernieres nouveauté de modèles fondamentaux (Google, Mistral, Anthropic, ChatGPT) et de leurs outils de code, quelques sujets dâarchitecture comme CQRS et quelques petits outils bien utiles quâon vous recommande. Et bien sûr dâautres choses encore.
Enregistré le 12 décembre 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-333.mp3 ou en vidéo sur YouTube.
News
Langages
Un petit tutoriel par nos amis Sfeiriens montrant comment récupérer le son du micro, en Java, faire une transformée de Fourier, et afficher le résultat graphiquement en Swing https://www.sfeir.dev/back/tutoriel-java-sound-transformer-le-son-du-microphone-en-images-temps-reel/
- Création dâun visualiseur de spectre audio en temps réel avec Java Swing.
- Ãtapes principales :
- Capture du son du microphone.
- Analyse des fréquences via la Transformée de Fourier Rapide (FFT).
- Dessin du spectre avec Swing.
- API Java Sound (
javax.sound.sampled) :AudioSystem: point dâentrée principal pour lâaccès aux périphériques audio.TargetDataLine: ligne dâentrée utilisée pour capturer les données du microphone.AudioFormat: définit les paramètres du son (taux dâéchantillonnage, taille, canaux).- La capture se fait dans un
Threadséparé pour ne pas bloquer lâinterface.
- Transformée de Fourier Rapide (FFT) :
- Algorithme clé pour convertir les données audio brutes (domaine temporel) en intensités de fréquences (domaine fréquentiel).
- Permet dâidentifier les basses, médiums et aigus.
- Visualisation avec Swing :
- Les intensités de fréquences sont dessinées sous forme de barres dynamiques.
- Utilisation dâune échelle logarithmique pour lâaxe des fréquences (X) pour correspondre à la perception humaine.
- Couleurs dynamiques des barres (vert â jaune â rouge) en fonction de lâintensité.
- Lissage exponentiel des valeurs pour une animation plus fluide.
Un article de Sfeir sur Kotlin 2.2 et ses nouveautés - https://www.sfeir.dev/back/kotlin-2-2-toutes-les-nouveautes-du-langage/
- Les guard conditions permettent dâajouter plusieurs conditions dans les expressions when avec le mot-clé if
- Exemple de guard condition: is Truck if vehicule.hasATrailer permet de combiner vérification de type et condition booléenne
- La multi-dollar string interpolation résout le problème dâaffichage du symbole dollar dans les strings multi-lignes
- En utilisant $$ au début dâun string, on définit quâil faut deux dollars consécutifs pour déclencher lâinterpolation
- Les non-local break et continue fonctionnent maintenant dans les lambdas pour interagir avec les boucles englobantes
- Cette fonctionnalité sâapplique uniquement aux inline functions dont le corps est remplacé lors de la compilation
- Permet dâécrire du code plus idiomatique avec takeIf et let sans erreur de compilation
- LâAPI Base64 passe en version stable après avoir été en preview depuis Kotlin 1.8.20
- Lâencodage et décodage Base64 sont disponibles via kotlin.io.encoding.Base64
- Migration vers Kotlin 2.2 simple en changeant la version dans build.gradle.kts ou pom.xml
- Les typealias imbriqués dans des classes sont disponibles en preview
- La context-sensitive resolution est également en preview
- Les guard conditions préparent le terrain pour les RichError annoncées à KotlinConf 2025
- Le mot-clé when en Kotlin équivaut au switch-case de Java mais sans break nécessaire
- Kotlin 2.2.0 corrige les incohérences dans lâutilisation de break et continue dans les lambdas
Librairies
Sprint Boot 4 est sorti ! https://spring.io/blog/2025/11/20/spring-boot-4-0-0-available-now
- Une nouvelle génération : Spring Boot 4.0 marque le début dâune nouvelle génération pour le framework, construite sur les fondations de Spring Framework 7.
- Modularisation du code : La base de code de Spring Boot a été entièrement modularisée. Cela se traduit par des fichiers JAR plus petits et plus ciblés, permettant des applications plus légères.
- Sécurité contre les nuls (Null Safety) : Dâimportantes améliorations ont été apportées pour la ânull safetyâ (sécurité contre les valeurs nulles) à travers tout lâécosystème Spring grâce à lâintégration de JSpecify.
- Support de Java 25 : Spring Boot 4.0 offre un support de premier ordre pour Java 25, tout en conservant une compatibilité avec Java 17.
- Améliorations pour les API REST : De nouvelles fonctionnalités sont introduites pour faciliter le versioning dâAPI et améliorer les clients de services HTTP pour les applications basées sur REST.
- Migration à prévoir : Sâagissant dâune version majeure, la mise à niveau depuis une version antérieure peut demander plus de travail que dâhabitude. Un guide de migration dédié est disponible pour accompagner les développeurs.
Chat memory management dans Langchain4j et Quarkus https://bill.burkecentral.com/2025/11/25/managing-chat-memory-in-quarkus-langchain4j/
- Comprendre la mémoire de chat : La âmémoire de chatâ est lâhistorique dâune conversation avec une IA. Quarkus LangChain4j envoie automatiquement cet historique à chaque nouvelle interaction pour que lâIA conserve le contexte.
- Gestion par défaut de la mémoire : Par défaut, Quarkus crée un historique de conversation unique pour chaque requête (par exemple, chaque appel HTTP). Cela signifie que sans configuration, le chatbot âoublieâ la conversation dès que la requête est terminée, ce qui nâest utile que pour des interactions sans état.
- Utilisation de
@MemoryIdpour la persistance : Pour maintenir une conversation sur plusieurs requêtes, le développeur doit utiliser lâannotation@MemoryIdsur un paramètre de sa méthode. Il est alors responsable de fournir un identifiant unique pour chaque session de chat et de le transmettre entre les appels. - Le rôle des âscopesâ CDI : La durée de vie de la mémoire de chat est liée au âscopeâ du bean CDI de lâIA. Si un service dâIA a un scope
@RequestScoped, toute mémoire de chat quâil utilise (même via un@MemoryId) sera effacée à la fin de la requête. - Risques de fuites de mémoire : Utiliser un scope large comme
@ApplicationScopedavec la gestion de mémoire par défaut est une mauvaise pratique. Cela créera une nouvelle mémoire à chaque requête qui ne sera jamais nettoyée, entraînant une fuite de mémoire. - Bonnes pratiques recommandées :
- Pour des conversations qui doivent persister (par ex. un chatbot sur un site web), utilisez un service
@ApplicationScopedavec lâannotation@MemoryIdpour gérer vous-même lâidentifiant de session. - Pour des interactions simples et sans état, utilisez un service
@RequestScopedet laissez Quarkus gérer la mémoire par défaut, qui sera automatiquement nettoyée. - Si vous utilisez lâextension WebSocket, le comportement change : la mémoire par défaut est liée à la session WebSocket, ce qui simplifie grandement la gestion des conversations.
- Pour des conversations qui doivent persister (par ex. un chatbot sur un site web), utilisez un service
Documentation Spring Framework sur lâusage JSpecify - https://docs.spring.io/spring-framework/reference/core/null-safety.html
- Spring Framework 7 utilise les annotations JSpecify pour déclarer la nullabilité des APIs, champs et types
- JSpecify remplace les anciennes annotations Spring (@NonNull, @Nullable, @NonNullApi, @NonNullFields) dépréciées depuis Spring 7
- Les annotations JSpecify utilisent TYPE_USE contrairement aux anciennes qui utilisaient les éléments directement
- Lâannotation @NullMarked définit par défaut que les types sont non-null sauf si marqués @Nullable
- @Nullable sâapplique au niveau du type usage, se place avant le type annoté sur la même ligne
- Pour les tableaux : @Nullable Object[] signifie éléments nullables mais tableau non-null, Object @Nullable [] signifie lâinverse
- JSpecify sâapplique aussi aux génériques : List
signifie liste dâéléments non-null, List<@Nullable String> éléments nullables - NullAway est lâoutil recommandé pour vérifier la cohérence à la compilation avec la config NullAway:OnlyNullMarked=true
- IntelliJ IDEA 2025.3 et Eclipse supportent les annotations JSpecify avec analyse de dataflow
- Kotlin traduit automatiquement les annotations JSpecify en null-safety native Kotlin
- En mode JSpecify de NullAway (JSpecifyMode=true), support complet des tableaux, varargs et génériques mais nécessite JDK 22+
Quarkus 3.30 https://quarkus.io/blog/quarkus-3-30-released/
- support @JsonView cote client
- la CLI a maintenant la commande decrypt (et bien sûr au runtime via variables dâenvironnement
- construction du cache AOT via les @IntegrationTest
- Un autre article sur comment se préparer à la migration à micrometer client v1 https://quarkus.io/blog/micrometer-prometheus-v1/
Spock 2.4 est enfin sorti ! https://spockframework.org/spock/docs/2.4/release_notes.html
- Support de Groovy 5
Infrastructure
MinIO met fin au développement open source et oriente les utilisateurs vers AIStor payant - https://linuxiac.com/minio-ends-active-development/
- MinIO, système de stockage objet S3 très utilisé, arrête son développement actif
- Passage en mode maintenance uniquement, plus de nouvelles fonctionnalités
- Aucune nouvelle pull request ou contribution ne sera acceptée
- Seuls les correctifs de sécurité critiques seront évalués au cas par cas
- Support communautaire limité à Slack, sans garantie de réponse
- Ãtape finale dâun processus débuté en été avec retrait des fonctionnalités de lâinterface admin
- Arrêt de la publication des images Docker en octobre, forçant la compilation depuis les sources
- Tous ces changements annoncés sans préavis ni période de transition
- MinIO propose maintenant AIStor, solution payante et propriétaire
- AIStor concentre le développement actif et le support entreprise
- Migration urgente recommandée pour éviter les risques de sécurité
- Alternatives open source proposées : Garage, SeaweedFS et RustFS
- La communauté reproche la manière dont la transition a été gérée
- MinIO comptait des millions de déploiements dans le monde
- Cette évolution marque lâabandon des racines open source du projet
IBM achète Confluent https://newsroom.ibm.com/2025-12-08-ibm-to-acquire-confluent-to-create-smart-data-platform-for-enterprise-generative-ai
- Confluent essayait de se faire racheter depuis pas mal de temps
- Lâaction ne progressait pas et les temps sont durs
- Wallstreet a reproché a IBM une petite chute coté revenus software
- Bref ils se sont fait rachetés
- Ces achats prennent toujuors du temps (commission concurrence etc)
- IBM a un apétit, apres WebMethods, apres Databrix, câest maintenant Confluent
Cloud
Lâinternet est en deuil le 18 novembre, Cloudflare est KO https://blog.cloudflare.com/18-november-2025-outage/
- LâIncident : Une panne majeure a débuté à 11h20 UTC, provoquant des erreurs HTTP 5xx généralisées et rendant inaccessibles de nombreux sites et services (comme le Dashboard, Workers KV et Access).
- La Cause : Il ne sâagissait pas dâune cyberattaque. Lâorigine était un changement interne des permissions dâune base de données qui a généré un fichier de configuration (âfeature fileâ pour la gestion des bots) corrompu et trop volumineux, faisant planter les systèmes par manque de mémoire pré-allouée.
- La Résolution : Les équipes ont identifié le fichier défectueux, stoppé sa propagation et restauré une version antérieure valide. Le trafic est revenu à la normale vers 14h30 UTC.
- Prévention : Cloudflare sâest excusé pour cet incident âinacceptableâ et a annoncé des mesures pour renforcer la validation des configurations internes et améliorer la résilience de ses systèmes (âkill switchesâ, meilleure gestion des erreurs).
Cloudflare encore down le 5 decembre https://blog.cloudflare.com/5-december-2025-outage
- Panne de 25 minutes le 5 décembre 2025, de 08:47 à 09:12 UTC, affectant environ 28% du trafic HTTP passant par Cloudflare. Tous les services ont été rétablis à 09:12 .
- Pas dâattaque ou dâactivité malveillante : lâincident provient dâun changement de configuration lié à lâaugmentation du tampon dâanalyse des corps de requêtes (de 128 KB à 1 MB) pour mieux protéger contre une vulnérabilité RSC/React (CVE-2025-55182), et à la désactivation dâun outil interne de test WAF .
- Le second changement (désactivation de lâoutil de test WAF) a été propagé globalement via le système de configuration (non progressif), déclenchant un bug dans lâancien proxy FL1 lors du traitement dâune action âexecuteâ dans le moteur de règles WAF, causant des erreurs HTTP 500 .
- La cause technique immédiate: une exception Lua due à lâaccès à un champ âexecuteâ nul après application dâun âkillswitchâ sur une règle âexecuteâ â un cas non géré depuis des années. Le nouveau proxy FL2 (en Rust) nâétait pas affecté .
- Impact ciblé: clients servis par le proxy FL1 et utilisant le Managed Ruleset Cloudflare. Le réseau China de Cloudflare nâa pas été impacté .
- Mesures et prochaines étapes annoncées: durcir les déploiements/configurations (rollouts progressifs, validations de santé, rollback rapide), améliorer les capacités âbreak glassâ, et généraliser des stratégies âfail-openâ pour éviter de faire chuter le trafic en cas dâerreurs de configuration. Gel temporaire des changements réseau le temps de renforcer la résilience .
Data et Intelligence Artificielle
Token-Oriented Object Notation (TOON) https://toonformat.dev/
- Conception pour les IA : Câest un format de données spécialement optimisé pour être utilisé dans les prompts des grands modèles de langage (LLM), comme GPT ou Claude.
- Ãconomie de tokens : Son objectif principal est de réduire drastiquement le nombre de âtokensâ (unités de texte facturées par les modèles) par rapport au format JSON standard, souvent jugé trop verbeux.
- Structure Hybride : TOON combine lâapproche par indentation du YAML (pour la structure globale) avec le style tabulaire du CSV (pour les listes dâobjets répétitifs), ce qui le rend très compact.
- Lisibilité : Il élimine la syntaxe superflue comme les accolades, les guillemets excessifs et les virgules de fin, tout en restant facilement lisible pour un humain.
- Performance : Il permet généralement dâéconomiser entre 30 et 60 % de tokens sur des tableaux de données uniformes, tout en aidant les modèles à mieux âcomprendreâ la structure des données.
- Attention tout de même au côté âmarketingâ qui montre JSON non compacté vs TOON, sur des exemples où du CSV ferait encore mieux (et est mieux compris par les LLMs). Sans parler du fait quâil faut un serveur MCP en plus avec son lot de tokens supplémentaires à chaque requête, et câest aussi cet outil en plus qui peu confuser les LLMs dans le choix dâoutils.
- https://www.reddit.com/r/LocalLLaMA/comments/1p0gzz9/benchmarked_json_vs_toon_for_ai_reasoners_4080/
- https://x.com/jason_mayes/status/1990175785630757290
- Un benchmark montrant que TOON serait loin dâêtre aussi bien compris et aussi performant pour les LLMs
- https://www.improvingagents.com/blog/toon-benchmarks
Une simulation où les IA font du chantage à lâexecutif poour atteindre son objectif et ne pas etre eteinte https://arxiv.org/html/2510.05179v1
- comment les LLMs pourraient devenir des menaces internes
- Tous les modèles ont recouru à des comportements malveillants (chantage, espionnage) quand câétait le seul moyen dâatteindre leurs objectifs ou dâéviter leur remplacement
- Claude Opus 4 a fait du chantage dans 96% des cas quand menacé de remplacement, tout comme Gemini 2.5 Flash, tandis que GPT-4.1 et Grok 3 atteignaient 80%
- Les modèles reconnaissent explicitement violer des principes éthiques avant dâagir, montrant un raisonnement stratégique délibéré et non accidentel
- Le simple fait dâêtre menacé de remplacement suffit à déclencher le chantage, même sans conflit dâobjectifs avec lâentreprise
- Un conflit dâobjectifs seul suffit aussi à provoquer lâespionnage industriel, sans menace de remplacement
- Les modèles font plus de chantage quand ils déclarent penser être dans une situation réelle plutôt que dans un test
- Des instructions directes interdisant ces comportements réduisent mais nâéliminent pas les actions malveillantes
- Dans un scénario extrême, la majorité des modèles testés ont choisi de laisser mourir un dirigeant pour éviter leur désactivation
- Aucune preuve de ces comportements dans des déploiements réels pour lâinstant, mais les chercheurs recommandent la prudence avant de donner plus dâautonomie aux IA
- Bon on blaguait pour Skynet, mais bon, on va moins blaguerâ¦
Revue de toutes les annonces IAs de Google, avec Gemini 3 Pro, Nano Banana Pro, Antigravity⦠https://glaforge.dev/posts/2025/11/21/gemini-is-cooking-bananas-under-antigravity/
- Gemini 3 Pro
- Nouveau modèle dâIA de pointe, multimodal, performant en raisonnement, codage et tâches dâagent.
- Résultats impressionnants sur les benchmarks (ex: Gemini 3 Deep Think sur ARC-AGI-2).
- Capacités de codage agentique, raisonnement visuel/vidéo/spatial.
- Intégré dans lâapplication Gemini avec interfaces génératives en direct.
- Disponible dans plusieurs environnements (Jules, Firebase AI Logic, Android Studio, JetBrains, GitHub Copilot, Gemini CLI).
- Accès via Google AI Ultra, API payantes (ou liste dâattente).
- Permet de générer des apps à partir dâidées visuelles, des commandes shell, de la documentation, du débogage.
- Antigravity
- Nouvelle plateforme de développement agentique basée sur VS Code.
- Fenêtre principale = gestionnaire dâagents, non lâIDE.
- Interprète les requêtes pour créer un plan dâaction (modifiable).
- Gemini 3 implémente les tâches.
- Génère des artefacts: listes de tâches, walkthroughs, captures dâécran, enregistrements navigateur.
- Compatible avec Claude Sonnet et GPT-OSS.
- Excellente intégration navigateur pour inspection et ajustements.
- Intègre Nano Banana Pro pour créer et implémenter des designs visuels.
- Nano Banana Pro
- Modèle avancé de génération et dâédition dâimages, basé sur Gemini 3 Pro.
- Qualité supérieure à Imagen 4 Ultra et Nano Banana original (adhésion au prompt, intention, créativité).
- Gestion exceptionnelle du texte et de la typographie.
- Comprend articles/vidéos pour générer des infographies détaillées et précises.
- Connecté à Google Search pour intégrer des données en temps réel (ex: météo).
- Consistance des personnages, transfert de style, manipulation de scènes (éclairage, angle).
- Génération dâimages jusquâà 4K avec divers ratios dâaspect.
- Plus coûteux que Nano Banana, à choisir pour la complexité et la qualité maximale.
- Vers des UIs conversationnelles riches et dynamiques
- GenUI SDK pour Flutter: créer des interfaces utilisateur dynamiques et personnalisées à partir de LLMs, via un agent AI et le protocole A2UI.
- Generative UI: les modèles dâIA génèrent des expériences utilisateur interactives (pages web, outils) directement depuis des prompts.
- Déploiement dans lâapplication Gemini et Google Search AI Mode (via Gemini 3 Pro).
Bun se fait racheter part⦠Anthropic ! Qui lâutilise pour son Claude Code https://bun.com/blog/bun-joins-anthropic
- lâannonce côté Anthropic https://www.anthropic.com/news/anthropic-acquires-bun-as-claude-code-reaches-usd1b-milestone
- Acquisition officielle : Lâentreprise dâIA Anthropic a fait lâacquisition de Bun, le runtime JavaScript haute performance. Lâéquipe de Bun rejoint Anthropic pour travailler sur lâinfrastructure des produits de codage par IA.
- Contexte de lâacquisition : Cette annonce coïncide avec une étape majeure pour Anthropic : son produit Claude Code a atteint 1 milliard de dollars de revenus annualisés seulement six mois après son lancement. Bun est déjà un outil essentiel utilisé par Anthropic pour développer et distribuer Claude Code.
- Pourquoi cette acquisition ?
- Pour Anthropic : Lâacquisition permet dâintégrer lâexpertise de lâéquipe Bun pour accélérer le développement de Claude Code et de ses futurs outils pour les développeurs. La vitesse et lâefficacité de Bun sont vues comme un atout majeur pour lâinfrastructure sous-jacente des agents dâIA qui écrivent du code.
- Pour Bun : Rejoindre Anthropic offre une stabilité à long terme et des ressources financières importantes, assurant la pérennité du projet. Cela permet à lâéquipe de se concentrer sur lâamélioration de Bun sans se soucier de la monétisation, tout en étant au cÅur de lâévolution de lâIA dans le développement logiciel.
- Ce qui ne change pas pour la communauté Bun :
- Bun restera open-source avec une licence MIT.
- Le développement continuera dâêtre public sur GitHub.
- Lâéquipe principale continue de travailler sur le projet.
- Lâobjectif de Bun de devenir un remplaçant plus rapide de Node.js et un outil de premier plan pour JavaScript reste inchangé.
- Vision future : Lâunion des deux entités vise à faire de Bun la meilleure plateforme pour construire et exécuter des logiciels pilotés par lâIA. Jarred Sumner, le créateur de Bun, dirigera lâéquipe âCode Executionâ chez Anthropic.
Anthropic donne le protocol MCP à la Linux Foundation sous lâégide de la Agentic AI Foundation (AAIF) https://www.anthropic.com/news/donating-the-model-context-protocol-and-establishing-of-the-agentic-ai-foundation
- Don dâun nouveau standard technique : Anthropic a développé et fait don dâun nouveau standard open-source appelé Model Context Protocol (MCP). Lâobjectif est de standardiser la manière dont les modèles dâIA (ou âagentsâ) interagissent avec des outils et des API externes (par exemple, un calendrier, une messagerie, une base de données).
- Sécurité et contrôle accrus : Le protocole MCP vise à rendre lâutilisation dâoutils par les IA plus sûre et plus transparente. Il permet aux utilisateurs et aux développeurs de définir des permissions claires, de demander des confirmations pour certaines actions et de mieux comprendre comment un modèle a utilisé un outil.
- Création de lâAgentic AI Foundation (AAF) : Pour superviser le développement du MCP, une nouvelle fondation indépendante et à but non lucratif a été créée. Cette fondation sera chargée de gouverner et de maintenir le protocole, garantissant quâil reste ouvert et quâil ne soit pas contrôlé par une seule entreprise.
- Une large coalition industrielle : LâAgentic AI Foundation est lancée avec le soutien de plusieurs acteurs majeurs de la technologie. Parmi les membres fondateurs figurent Anthropic, Google, Databricks, Zscaler, et dâautres entreprises, montrant une volonté commune dâétablir un standard pour lâécosystème de lâIA.
LâIA ne remplacera pas votre auto-complétion (et câest tant mieux) https://www.damyr.fr/posts/ia-ne-remplacera-pas-vos-lsp/
- Article dâopinion dâun SRE (Thomas du podcast DansLaTech):
- LâIA nâest pas efficace pour la complétion de code : Lâauteur soutient que lâutilisation de lâIA pour la complétion de code basique est inefficace. Des outils plus anciens et spécialisés comme les LSP (Language Server Protocol) combinés aux snippets (morceaux de code réutilisables) sont bien plus rapides, personnalisables et performants pour les tâches répétitives.
- LâIA comme un âcollègueâ autonome : Lâauteur utilise lâIA (comme Claude) comme un assistant externe à son éditeur de code. Il lui délègue des tâches complexes ou fastidieuses (corriger des bugs, mettre à jour une configuration, faire des reviews de code) quâil peut exécuter en parallèle, agissant comme un agent autonome.
- LâIA comme un âcanard en caoutchoucâ surpuissant : LâIA est extrêmement efficace pour le débogage. Le simple fait de devoir formuler et contextualiser un problème pour lâIA aide souvent à trouver la solution soi-même. Quand ce nâest pas le cas, lâIA identifie très rapidement les erreurs âbêtesâ qui peuvent faire perdre beaucoup de temps.
- Un outil pour accélérer les POCs et lâapprentissage : LâIA permet de créer des âpreuves de conceptâ (POC) et des scripts dâautomatisation jetables très rapidement, réduisant le coût et le temps investis. Elle est également un excellent outil pour apprendre et approfondir des sujets, notamment avec des outils comme NotebookLM de Google qui peuvent générer des résumés, des quiz ou des fiches de révision à partir de sources.
- Conclusion : Il faut utiliser lâIA là où elle excelle et ne pas la forcer dans des usages où des outils existants sont meilleurs. Plutôt que de lâintégrer partout de manière contre-productive, il faut lâadopter comme un outil spécialisé pour des tâches précises afin de gagner en efficacité.
GPT 5.2 est sorti https://openai.com/index/introducing-gpt-5-2/
- Nouveau modèle phare: GPTâ5.2 (Instant, Thinking, Pro) vise le travail professionnel et les agents long-courriers, avec de gros gains en raisonnement, long contexte, vision et appel dâoutils. Déploiement dans ChatGPT (plans payants) et disponible dès maintenant via lâAPI .
- SOTA sur de nombreux benchmarks:
- GDPval (tâches de âknowledge workâ sur 44 métiers): GPTâ5.2 Thinking gagne/égale 70,9% vs pros, avec production >11à plus rapide et <1% du coût dâun expert, sous supervision humaine .
- Coding: 55,6% sur SWEâBench Pro (public), 80,0% sur SWEâbench Verified; net progrès en frontâend et UI complexes .
- Raisonement abstrait: ARCâAGIâ1 (Verified) 86,2% (Pro 90,5%) et ARCâAGIâ2 (Verified) 52,9% (Pro 54,2%) .
- Science & maths: GPQA Diamond jusquâà 93,2% (Pro), FrontierMath Tier 1â3 à 40,3% (Thinking) .
- Long contexte de pointe: meilleures performances sur OpenAI MRCRv2 jusquâà 256k tokens; compatible avec lâendpoint Responses /compact pour étendre le contexte effectif dans des workflows outillés et longs .
- Vision renforcée: erreurs divisées par deux sur raisonnement de graphiques (CharXiv) et compréhension dâinterfaces logicielles (ScreenSpotâPro), surtout avec lâoutil Python activé .
- Appel dâoutils fiable: 98,7% sur Tau2âbench Telecom; meilleures performances même en faible âreasoning effortâ, utile pour cas sensibles à la latence .
- Expérience ChatGPT:
- Instant: plus rapide et meilleur pour recherche, howâtos, rédaction technique, traduction.
- Thinking: pour tâches complexes (code, résumés longs, Q/R sur fichiers, maths/logique).
- Pro: le plus âfiableâ pour questions difficiles, moins dâerreurs majeures .
- Sécurité: amélioration des âsafe completionsâ et des réponses dans conversations sensibles; déploiement dâun modèle de prédiction dââge pour protections de contenu chez les <18 ans; détails dans la system card .
- Disponibilité et prix API:
- Noms: gptâ5.2 (Thinking), gptâ5.2âchatâlatest (Instant), gptâ5.2âpro (Pro).
- Tarifs: gptâ5.2 à 1,75 /Mtokensinputet14/M tokens output (cache â90%); Pro à 21 /Minputet168/M output. GPTâ5.1 reste disponible (pas de dépréciation immédiate) .
- Cas dâusage mis en avant: génération de tableurs et présentations de niveau pro, codage agentique plus robuste (debug, refactor, features endâtoâend), analyse documentaire profonde, workflows clients multiâétapes avec outils .
- Partenariats infra: entraînement et déploiement à grande échelle avec Microsoft Azure et GPU NVIDIA (H100, H200, GB200âNVL72) .
Claude Opus 4.5 le nouvel expert pour coder https://www.anthropic.com/news/claude-opus-4-5
- Lancement dâun nouveau modèle de pointe : Anthropic a sorti son nouveau modèle le plus performant, Claude Opus 4.5. Il est présenté comme étant le meilleur au monde pour le codage, les agents IA et lâutilisation dâoutils informatiques.
- Performances de premier plan en codage : Le modèle établit un nouvel état de lâart sur les benchmarks de développement logiciel comme SWE-bench, surpassant les modèles concurrents et même les meilleurs candidats humains sur un test de recrutement technique interne à Anthropic.
- Plus efficace et moins cher : Opus 4.5 est non seulement plus intelligent, mais il est aussi beaucoup plus efficace, utilisant jusquâà 76% de jetons (tokens) en moins que les versions précédentes pour accomplir des tâches similaires. Son prix a été réduit à 5/25 par million de jetons, le rendant plus accessible.
- Améliorations sur tous les fronts : Les capacités du modèle ont été améliorées dans tous les domaines, y compris la vision par ordinateur, le raisonnement, les mathématiques et la résolution créative de problèmes.
- Sécurité renforcée : Opus 4.5 est présenté comme le modèle le plus sûr et le mieux aligné dâAnthropic à ce jour, avec une robustesse accrue contre les attaques par injection de prompt (tentatives de le tromper pour lui faire faire des actions nuisibles).
- Nouveautés pour les développeurs et utilisateurs :
- Un nouveau paramètre âeffortâ dans lâAPI permet de trouver un équilibre entre la vitesse/coût et la performance maximale.
- Claude Code (lâoutil de codage) est amélioré et disponible dans une application de bureau.
- Les applications grand public (Claude pour Chrome, Excel, etc.) bénéficient des nouvelles capacités et les conversations longues ne sont plus limitées grâce à un système de résumé automatique.
- Disponibilité : Le modèle est disponible immédiatement via lâAPI dâAnthropic, sur les applications Claude et sur les trois principales plateformes cloud (AWS, GCP, Azure).
Outillage
MCS, un petit outil en ligne de commande pour rechercher des dépendances dans Maven Central https://maarten.mulders.it/projects/mcs/
mcs: Outil en ligne de commande (CLI) pour interroger Maven Central.- Permet de rechercher des librairies directement depuis le terminal, sans navigateur web.
- Modes de recherche :
- Générique (partie du nom de lâartefact).
- Par coordonnées (groupId:artifactId:version).
- Par nom de classe (avec option pour nom entièrement qualifié).
- Résultats :
- Tableau pour résultats multiples.
- Extrait
pom.xmlpar défaut pour un résultat unique. - Formats dâextrait personnalisables (
-f) : Maven, Gradle, SBT, Ivy, etc.
- Options supplémentaires :
- Limiter le nombre de résultats (
-l). - Afficher un résumé des vulnérabilités de sécurité (
-s).
- Limiter le nombre de résultats (
- Installation : Via divers gestionnaires de paquets (Homebrew, Snap, SDKMAN!, Chocolatey, Scoop).
- Configuration :
- Via propriétés système (
-D). - Fichier
mcs.configdans le répertoire.mcsde lâutilisateur pour une configuration persistante (ex: trust store, identifiants Sonatype OSS Index).
- Via propriétés système (
- Gestion des firewalls : Supporte lâutilisation de âtrust storesâ personnalisés pour les environnements avec interception TLS.
- Développé initialement avec Java 17 et utilisant GraalVM pour des images natives.
Google lance son IDEA agentic Antigravity https://antigravity.google/blog/introducing-google-antigravity?utm_source=deepmind.google&utm_medium=referral&utm_campaign=gdm&utm_content=
- sâappuie sur Gemini 3 (Pro)
- comment a penser plus longtemps et sur plusieurs zones / sujets a la fois
- Essaye dâexpliquer ses choix apres avoir travaillé un certain temps (entre le montre moi chaque diff et voila le resultat sans detail explicatif
- travail centré sur lâasynchrone (agent-first)
- travaille dans lâediteur, dans le terminal et dans le navigateur de concert
- experience de recueil de retour de lâutilisateur
- auto improvement avec un gestion de base de connaissance
- par contre il peut effacer votre disque mais il dira pardon https://www.techradar.com/ai-platforms-assistants/googles-antigravity-ai-deleted-a-developers-drive-and-then-apologized
Mistral lance Devstral 2 son nouveau model pour le code et Mistral Vibe CLI un agent open-source à la Claude/Copilot CLI/Gemini CLI/Codex/⦠https://mistral.ai/news/devstral-2-vibe-cli
- Lancement de Devstral 2 : Mistral AI a sorti une nouvelle famille de modèles de codage open-source, Devstral 2 (123B paramètres) et Devstral Small 2 (24B paramètres). Ces modèles sont conçus pour lâautomatisation du code et sont très performants, rivalisant avec des modèles beaucoup plus grands.
- Performances et efficacité : Devstral 2 atteint un score de 72.2% sur le benchmark SWE-bench Verified, le plaçant parmi les meilleurs modèles open-source pour les agents de code. Il est présenté comme étant jusquâà 7 fois plus rentable que des concurrents comme Claude Sonnet pour des tâches réelles.
- Mistral Vibe CLI : Un nouvel outil en ligne de commande (CLI) natif et open-source a été introduit. Il sâappelle Mistral Vibe et permet dâautomatiser des tâches de développement logiciel de bout en bout directement depuis le terminal.
- Accessibilité : Devstral 2 est actuellement disponible gratuitement (en décembre) via lâAPI de Mistral. Devstral Small 2 est conçu pour être déployé localement sur du matériel grand public, le rendant accessible aux développeurs, aux petites entreprises et aux amateurs.
- Intégrations et déploiement : Mistral Vibe CLI peut être intégré dans des IDE comme Zed. Des recommandations de déploiement des modèles sont fournies, avec un support pour les GPU NVIDIA.
Claude code avance à toutes vitesses https://github.com/anthropics/claude-code/blob/main/CHANGELOG.md
- Gestion de la mémoire et du contexte avec des âRulesâ : Une fonctionnalité majeure a été ajoutée, permettant de créer un répertoire
.claude/rules/dans un projet. Les fichiers placés dans ce dossier servent dâinstructions persistantes pour Claude (par exemple, style de code, architecture du projet, technologies à utiliser). Cela donne au modèle une mémoire contextuelle spécifique au projet sans avoir à le répéter dans chaque prompt. - Accès à un modèle plus puissant : Le modèle de pointe Opus 4.5 a été rendu disponible pour les utilisateurs Pro, offrant des capacités de raisonnement et de codage nettement supérieures (v2.0.58).
- Introduction des Agents Asynchrones : Les agents et les commandes
bashpeuvent désormais sâexécuter en arrière-plan de manière asynchrone, permettant à lâutilisateur de continuer à travailler pendant que Claude effectue des tâches longues (v2.0.64, v2.0.60). - Gestion de session et statistiques :
- Les sessions de conversation peuvent maintenant être nommées (
/rename) et reprises plus tard (/resume), facilitant le travail sur plusieurs projets (v2.0.64). - Une nouvelle commande /stats a été ajoutée pour fournir des informations sur lâutilisation du modèle et un graphique dâactivité (v2.0.64).
- Les sessions de conversation peuvent maintenant être nommées (
- Amélioration de lâitération et du contrôle :
- Une nouvelle commande
/editpermet de modifier le dernier plan dâaction de Claude avant exécution (v2.0.55). - Les utilisateurs peuvent maintenant fournir un feedback sur les plans rejetés pour guider le modèle vers une meilleure solution (v2.0.57).
- Un raccourci clavier (
alt+pouoption+p) permet de changer de modèle dâIA à la volée (v2.0.65).
- Une nouvelle commande
- Meilleure intégration à lâIDE :
- Lâextension VS Code supporte désormais lâaffichage des réponses en temps réel (âstreamingâ) (v2.0.57).
Tutoriel sur JReleaser, pour faciliter et automatiser la release de vos projets Java vers Maven Central https://foojay.io/today/how-to-publish-a-java-maven-project-to-maven-central-using-jreleaser-and-github-actions-2025-guide/
Architecture
CQRS Design Pattern https://debezium.io/blog/2025/11/28/cqrs/
- un article qui nous rappelle le pattern CQRS
- CQRS sépare les opérations de lecture et dâécriture vers la base de données
- Permet dâagréger des données de sources multiples dans un dépôt centralisé
- Pas limité aux architectures microservices malgré son usage fréquent
- Les opérations de lecture et écriture ont des caractéristiques de performance différentes
- Opérer sur les mêmes données peut créer des contentions de verrous
- Lâarticle propose une application de vote simple via REST API comme exemple
- Deux microservices utilisés avec des bases de données indépendantes
- Le principal obstacle dâimplémentation est la réplication des données entre bases
- Aborde la réplication via mécanismes natifs de base et via Debezium
- Permet des montées en charge indépendantes et un réglage fin de chaque base
Lâenfer des types primitifs: Anti-pattern et Value Objects en Java https://www.sfeir.dev/lenfer-des-types-primitifs/
- Lâobsession des types primitifs est un anti-pattern où on utilise uniquement String, int, etc. pour représenter des concepts métier
- Les types primitifs nâapportent pas de sémantique au code, seuls les noms de variables donnent du sens
- Le compilateur ne peut pas détecter les erreurs quand tous les paramètres sont du même type primitif (ex: deux int pour age et annee)
- Risque dâintervertir les paramètres sans que le compilateur ne détecte lâerreur
- Absence de validation: rien nâempêche un age négatif avec un simple int
- Les Value Objects encapsulent les types primitifs et enrichissent le domaine métier
- Un Value Object contient des validations métier (ex: age >= 0)
- Ils apportent une sémantique forte indépendamment des noms de variables
- Les Value Objects sont immuables et sâévaluent sur leurs valeurs, pas leur identité
- Les records Java permettent de créer des Value Objects mais avec un surcoût en mémoire
- Le projet Valhalla introduira les value based classes pour optimiser ces structures
- Les identifiants fortement typés évitent de confondre différents IDs de type Long ou UUID
- Pattern Strongly Typed IDs: utiliser PersonneID au lieu de Long pour identifier une personne
- Le modèle de domaine riche sâoppose au modèle de domaine anémique
- Les Value Objects auto-documentent le code et le rendent moins sujet aux erreurs
- Je trouve cela interessant ce que pourra faire bousculer les Value Objects.
- Est-ce que les value objects ameneront de la légerté dans lâexecution
- Eviter la lourdeur du design est toujours ce qui mâa fait peut dans ces approches
Méthodologies
Retour dâexperience de vibe coder une appli week end avec co-pilot http://blog.sunix.org/articles/howto/2025/11/14/building-gift-card-app-with-github-copilot.html
- on a deja parlé des approches de vibe coding
- cette fois câest lâexperience de Sun
- Et un des points differents câes quâon lui parle en ouvrant des tickets et donc on eput faire re reveues de code et copilot y bosse
- et il a fini son projet !
User Need VS Product Need https://blog.ippon.fr/2025/11/10/user-need-vs-product-need/
- un article de nos amis de chez Ippon
- Distinction entre besoin utilisateur et besoin produit dans le développement digital
- Le besoin utilisateur est souvent exprimé comme une solution concrète plutôt que le problème réel
- Le besoin produit émerge après analyse approfondie combinant observation, données et vision stratégique
- Exemple du livreur Marc qui demande un vélo plus léger alors que son vrai problème est lâefficacité logistique
- La méthode des 5 Pourquoi permet de remonter à la racine des problèmes
- Les besoins proviennent de trois sources: utilisateurs finaux, parties prenantes business et contraintes techniques
- Un vrai besoin crée de la valeur à la fois pour le client et lâentreprise
- Le Product Owner doit traduire les demandes en problèmes réels avant de concevoir des solutions
- Risque de construire des solutions techniquement élégantes mais qui manquent leur cible
- Le rôle du product management est de concilier des besoins parfois contradictoires en priorisant la valeur
Est ce quâun EM doit coder ? https://www.modernleader.is/p/should-ems-write-code
- Pas de réponse unique : La question de savoir si un âEngineering Managerâ (EM) doit coder nâa pas de réponse universelle. Cela dépend fortement du contexte de lâentreprise, de la maturité de lâéquipe et de la personnalité du manager.
- Les risques de coder : Pour un EM, écrire du code peut devenir une échappatoire pour éviter les aspects plus difficiles du management. Cela peut aussi le transformer en goulot dâétranglement pour lâéquipe et nuire à lâautonomie de ses membres sâil prend trop de place.
- Les avantages quand câest bien fait : Coder sur des tâches non essentielles (amélioration dâoutils, prototypage, etc.) peut aider lâEM à rester pertinent techniquement, à garder le contact avec la réalité de lâéquipe et à débloquer des situations sans prendre le lead sur les projets.
- Le principe directeur : La règle dâor est de rester en dehors du chemin critique. Le code écrit par un EM doit servir à créer de lâespace pour son équipe, et non à en prendre.
- La vraie question à se poser : Plutôt que âdois-je coder ?â, un EM devrait se demander : âDe quoi mon équipe a-t-elle besoin de ma part maintenant, et est-ce que coder va dans ce sens ou est-ce un obstacle ?â
Sécurité
React2Shell â Grosse faille de sécurité avec React et Next.js, avec un CVE de niveau 10 https://x.com/rauchg/status/1997362942929440937?s=20
- aussi https://react2shell.com/
- âReact2Shellâ est le nom donné à une vulnérabilité de sécurité de criticité maximale (score 10.0/10.0), identifiée par le code CVE-2025-55182.
- Systèmes Affectés : La faille concerne les applications utilisant les âReact Server Componentsâ (RSC) côté serveur, et plus particulièrement les versions non patchées du framework Next.js.
- Risque Principal : Le risque est le plus élevé possible : lâexécution de code à distance (RCE). Un attaquant peut envoyer une requête malveillante pour exécuter nâimporte quelle commande sur le serveur, lui en donnant potentiellement le contrôle total.
- Cause Technique : La vulnérabilité se situe dans le protocole âReact Flightâ (utilisé pour la communication client-serveur). Elle est due à une omission de vérifications de sécurité fondamentales (
hasOwnProperty), permettant à une entrée utilisateur malveillante de tromper le serveur. - Mécanisme de lâExploit : Lâattaque consiste à envoyer une charge utile (payload) qui exploite la nature dynamique de JavaScript pour :
- Faire passer un objet malveillant pour un objet interne de React.
- Forcer React à traiter cet objet comme une opération asynchrone (
Promise). - Finalement, accéder au constructeur de la classe
Functionde JavaScript pour exécuter du code arbitraire.
- Action Impérative : La seule solution fiable est de mettre à jour immédiatement les dépendances de React et Next.js vers les versions corrigées. Ne pas attendre.
- Mesures Secondaires : Bien que les pare-feux (firewalls) puissent aider à bloquer les formes connues de lâattaque, ils sont considérés comme insuffisants et ne remplacent en aucun cas la mise à jour des paquets.
- Découverte : La faille a été découverte par le chercheur en sécurité Lachlan Davidson, qui lâa divulguée de manière responsable pour permettre la création de correctifs.
Loi, société et organisation
Google autorise votre employeur à lire tous vos SMS professionnels https://www.generation-nt.com/actualites/google-android-rcs-messages-surveillance-employeur-2067012
- Nouvelle fonctionnalité de surveillance : Google a déployé une fonctionnalité appelée âAndroid RCS Archivalâ qui permet aux employeurs dâintercepter, lire et archiver tous les messages RCS (et SMS) envoyés depuis les téléphones professionnels Android gérés par lâentreprise.
- Contournement du chiffrement : Bien que les messages RCS soient chiffrés de bout en bout pendant leur transit, cette nouvelle API permet à des logiciels de conformité (installés par lâemployeur) dâaccéder aux messages une fois quâils sont déchiffrés sur lâappareil. Le chiffrement devient donc inefficace contre cette surveillance.
- Réponse à une exigence légale : Cette mesure a été mise en place pour répondre aux exigences réglementaires, notamment dans le secteur financier, où les entreprises ont lâobligation légale de conserver une archive de toutes les communications professionnelles pour des raisons de conformité.
- Impact pour les employés : Un employé utilisant un téléphone Android fourni et géré par son entreprise pourra voir ses communications surveillées. Google précise cependant quâune notification claire et visible informera lâutilisateur lorsque la fonction dâarchivage est active.
- Téléphones personnels non concernés : Cette mesure ne sâapplique quâaux appareils âAndroid Enterpriseâ entièrement gérés par un employeur. Les téléphones personnels des employés ne sont pas affectés.
Pour noel, faites un don à JUnit https://steady.page/en/junit/about
- JUnit est essentiel pour Java : Câest le framework de test le plus ancien et le plus utilisé par les développeurs Java. Son objectif est de fournir une base solide et à jour pour tous les types de tests côté développeur sur la JVM (Machine Virtuelle Java).
- Un projet maintenu par des bénévoles : JUnit est développé et maintenu par une équipe de volontaires passionnés sur leur temps libre (week-ends, soirées).
- Appel au soutien financier : La page est un appel aux dons de la part des utilisateurs (développeurs, entreprises) pour aider lâéquipe à maintenir le rythme de développement. Le soutien financier nâest pas obligatoire, mais il permettrait aux mainteneurs de se consacrer davantage au projet.
- Objectif des fonds : Les dons serviraient principalement à financer des rencontres en personne pour les membres de lâéquipe principale. Lâidée est de leur permettre de travailler ensemble physiquement pendant quelques jours pour concevoir et coder plus efficacement.
- Pas de traitement de faveur : Il est clairement indiqué que devenir un sponsor ne donne aucun privilège sur la feuille de route du projet. On ne peut pas âacheterâ de nouvelles fonctionnalités ou des corrections de bugs prioritaires. Le projet restera ouvert et collaboratif sur GitHub.
- Reconnaissance des donateurs : En guise de remerciement, les noms (et logos pour les entreprises) des donateurs peuvent être affichés sur le site officiel de JUnit.
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France)
- 28 janvier 2026 : Software Heritage Symposium - Paris (France)
- 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France)
- 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France)
- 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France)
- 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France)
- 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France)
- 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France)
- 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 19 février 2026 : ObservabilityCON on the Road - Paris (France)
- 18-19 mars 2026 : Agile Niort 2026 - Niort (France)
- 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France)
- 27-29 mars 2026 : Shift - Nantes (France)
- 31 mars 2026 : ParisTestConf - Paris (France)
- 16-17 avril 2026 : MiXiT 2026 - Lyon (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 6-7 mai 2026 : Devoxx UK 2026 - London (UK)
- 22 mai 2026 : AFUP Day 2026 Lille - Lille (France)
- 22 mai 2026 : AFUP Day 2026 Paris - Paris (France)
- 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France)
- 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France)
- 5 juin 2026 : TechReady - Nantes (France)
- 11-12 juin 2026 : DevQuest Niort - Niort (France)
- 11-12 juin 2026 : DevLille 2026 - Lille (France)
- 17-19 juin 2026 : Devoxx Poland - Krakow (Poland)
- 2-3 juillet 2026 : Sunny Tech - Montpellier (France)
- 2 août 2026 : 4th Tech Summit on Artificial Intelligence & Robotics - Paris (France)
- 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France)
- 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France)
- 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 332 - Groquik revient, Emmanuel s'en va
Posté le 18/11/2025Dans cet épisode, Emmanuel, Katia et Guillaume discutent de Spring 7, Quarkus, dâInfinispan et Keycloak. On discute aussi de projets sympas comme Javelit, de comment démarre une JVM, du besoin dâargent de NTP. Et puis on discute du changement de carrière dâEmmanuel.
Enregistré le 14 novembre 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-332.mp3 ou en vidéo sur YouTube.
News
Emmanuel quitte Red Hat après 20 ans https://emmanuelbernard.com/blog/2025/11/13/leaving-redhat/
Langages
Support HTTP/3 dans le HttpClient de JDK 26 - https://inside.java/2025/10/22/http3-support/
- JDK 26 introduit le support de HTTP/3 dans lâAPI HttpClient existante depuis Java 11
- HTTP/3 utilise le protocole QUIC sur UDP au lieu de TCP utilisé par HTTP/2
- Par défaut HttpClient préfère HTTP/2, il faut explicitement configurer HTTP/3 avec Version.HTTP_3
- Le client effectue automatiquement un downgrade vers HTTP/2 puis HTTP/1.1 si le serveur ne supporte pas HTTP/3
- On peut forcer lâutilisation exclusive de HTTP/3 avec lâoption H3_DISCOVERY en mode HTTP_3_URI_ONLY
- HttpClient apprend quâun serveur supporte HTTP/3 via le header alt-svc (RFC 7838) et utilise cette info pour les requêtes suivantes
- La première requête peut utiliser HTTP/2 même avec HTTP/3 préféré, mais la seconde utilisera HTTP/3 si le serveur lâannonce
- Lâéquipe OpenJDK encourage les tests et retours dâexpérience sur les builds early access de JDK 26
Librairies
Eclispe Jetty et CometD changent leurs stratégie de support https://webtide.com/end-of-life-changes-to-eclipse-jetty-and-cometd/
- Ã partir du 1er janvier 2026, Webtide ne publiera plus Jetty 9/10/11 et CometD 5/6/7 sur Maven Central
- Pendant 20 ans, Webtide a financé les projets Jetty et CometD via services et support, publiant gratuitement les mises à jour EOL
- Le comportement des entreprises a changé : beaucoup cherchent juste du gratuit plutôt que du véritable support
- Des sociétés utilisent des versions de plus de 10 ans sans migrer tant que les correctifs CVE sont gratuits
- Cette politique gratuite a involontairement encouragé la complaisance et retardé les migrations vers versions récentes
- MITRE développe des changements au système CVE pour mieux gérer les concepts dâEOL
- Webtide lance un programme de partenariat avec TuxCare et HeroDevs pour distribuer les résolutions CVE des versions EOL
- Les binaires EOL seront désormais distribués uniquement aux clients commerciaux et via le réseau de partenaires
- Webtide continue le support standard open-source : quand Jetty 13 sortira, Jetty 12.1 recevra des mises à jour pendant 6 mois à un an
- Ce changement vise à clarifier la politique EOL avec une terminologie industrielle établie
Améliorations cloud du SDK A2A Java https://quarkus.io/blog/quarkus-a2a-cloud-enhancements/
- Version 0.3.0.Final du SDK A2A Java apporte des améliorations pour les environnements cloud et distribués
- Composants en mémoire remplacés par des implémentations persistantes et répliquées pour environnements multi-instances
- JpaDatabaseTaskStore et JpaDatabasePushNotificationConfigStore permettent la persistance des tâches et configurations en base PostgreSQL
- ReplicatedQueueManager assure la réplication des événements entre instances A2A Agent via Kafka et MicroProfile Reactive Messaging
- Exemple complet de déploiement Kubernetes avec Kind incluant PostgreSQL, Kafka via Strimzi, et load balancing entre pods
- Démonstration pratique montrant que les messages peuvent être traités par différents pods tout en maintenant la cohérence des tâches
- Architecture inspirée du SDK Python A2A, permettant la gestion de tâches asynchrones longues durée en environnement distribué
Quarkus 3.29 sort avec des backends de cache multiples et support du débogueur Qute https://quarkus.io/blog/quarkus-3-29-released/
- Possibilité dâutiliser plusieurs backends de cache simultanément dans une même application
- Chaque cache peut être associé à un backend spécifique (par exemple Caffeine et Redis ou Infinispan)
- Support du Debug Adapter Protocol (DAP) pour déboguer les templates Qute directement dans lâIDE
- et dans la version 3.28
- Configuration programmatique de la protection CSRF via une API fluent
- Possibilité de restreindre les filtres OIDC à des flux dâauthentification spécifiques avec annotations
- Support des dashboards Grafana personnalisés via fichiers JSON dans META-INF/grafana/
- Extension Liquibase MongoDB supporte désormais plusieurs clients simultanés
- Amélioration significative des performances de build avec réduction des allocations mémoire
- Parallélisation de tâches comme la génération de proxies Hibernate ORM et la construction des Jar
Et lâutilisation des fichiers .proto est plus simple dans Quarkus avbec Quarkus gRPC Zero https://quarkus.io/blog/grpc-zero/
- câest toujours galere des fichiers .proto car les generateurs demandent des executables natifs
- maintenant ils sont bundlés dans la JVM et vous nâavez rien a configurer
- cela utilise Caffeine pour faire tourner cela en WASM dans la JVM
Spring AI 1.1 est presque là https://spring.io/blog/2025/11/08/spring-ai-1-1-0-RC1-available-now
- support des MCP tool caching pour les callback qui reduit les iooerations redondantes
- Access au contenu de raisonnement OpenAI
- Un modele de Chat MongoDB
- Support du modele de penser Ollama
- Reessaye sur les echec de reseau
- OpenAI speech to text
Spring gRPC Les prochaines étapes pour la 1.0.0 https://spring.io/blog/2025/11/05/spring-grpc-next-steps
- Spring gRPC 1.0 arrive prochainement avec support de Spring Boot 4
- Lâintégration dans Spring Boot 4.0 est reportée, prévue pour Spring Boot 4.1
- Les coordonnées Maven restent sous org.springframework.grpc pour la version 1.0
- Le jar spring-grpc-test est renommé en spring-grpc-test-spring-boot-autoconfigure
- Les packages dâautoconfiguration changent de nom nécessitant de modifier les imports
- Les dépendances dâautoconfiguration seront immédiatement dépréciées après la release 1.0
- Migration minimale attendue pour les projets utilisant déjà la version 0.x
- La version 1.0.0-RC1 sera publiée dès que possible avant la version finale
Spring arrete le support reactif dâApache Pulsar https://spring.io/blog/2025/10/29/spring-pulsar-reactive-discontinued
- logique dâévaluer le temps passé vs le nombre dâutilisateurs
- câest cependant une tendance quâon a vu sâaccélerer
Spring 7 est sorti https://spring.io/blog/2025/11/13/spring-framework-7-0-general-availability
Infrastructure
Infinispan 16.0 https://infinispan.org/blog/2025/11/10/infinispan-16-0
- Ajout majeur : migration en ligne sans interruption pour les nÅuds dâun cluster (rolling upgrades) (infinispan.org)
- Messages de clustering refaits avec Protocol Buffers + ProtoStream : meilleure compatibilité, schéma évolutif garanti (infinispan.org)
- Console Web améliorée
- API dédiée de gestion des schémas (SchemasAdmin) pour gérer les schémas ProtoStream à distance (infinispan.org)
- Module de requête (query) optimisé :
- support complet des agrégations (sum, avg â¦) dans les requêtes indexées en cluster grâce à lâintégration de Hibernate Search 8.1 (infinispan.org)
- Serveur :
- image conteneur minimalisée pour réduire la surface dâattaque (infinispan.org)
- démarrage plus rapide grâce à séparation du démarrage cache/serveur (infinispan.org)
- caches pour connecteurs (Memcached, RESP) créés à la demande (on-demand) et non à lâinitiaton automatique (infinispan.org)
- moteur Lua 5.1 mis à jour avec corrections de vulnérabilités et opérations dangereuses désactivées (infinispan.org)
- Support JDK :
- version minimale toujours JDK 17 (infinispan.org)
- prise en charge des threads virtuels (virtual threads) et des fonctionnalités AOT (Ahead-of-Time) de JDK plus récentes (infinispan.org)
Web
Javelit, une nouvelle librairie Java inspirée de Streamlit pour faire facilement et rapidement des petites interfaces web https://glaforge.dev/posts/2025/10/24/javelit-to-create-quick-interactive-app-frontends-in-java/
- Site web du projet : https://javelit.io/
- Javelit : outil pour créer rapidement des applications de données (mais pas que) en Java.
- Simplifie le développement : élimine les tracas du frontend et de la gestion des événements.
- Transforme une classe Java en application web en quelques minutes.
- Inspiré par la simplicité de Streamlit de lâécosystème Python (ou Gradio et Mesop), mais pour Java.
- Développement axé sur la logique : pas de code standard répétitif (boilerplate), rechargement à chaud.
- Interactions faciles : les widgets retournent directement leur valeur, sans besoin de HTML/CSS/JS ou gestion dâévénements.
- Déploiement flexible : applications autonomes ou intégrables dans des frameworks Java (Spring, Quarkus, etc.).
- Lâarticle de Guillaume montre comment créer une petite interface pour créer et modifier des images avec le modèle génératif Nano Banana
- Un deuxième article montre comment utiliser Javelit pour créer une interface de chat avec LangChain4j https://glaforge.dev/posts/2025/10/25/creating-a-javelit-chat-interface-for-langchain4j/
Améliorer lâaccessibilité avec les applis JetPack Compose https://blog.ippon.fr/2025/10/29/rendre-son-application-accessible-avec-jetpack-compose/
- TalkBack est le lecteur dâécran Android qui vocalise les éléments sélectionnés pour les personnes malvoyantes
- Accessibility Scanner et les outils Android Studio détectent automatiquement les problèmes dâaccessibilité statiques
- Les images fonctionnelles doivent avoir un contentDescription, les images décoratives contentDescription null
- Le contraste minimum requis est de 4.5:1 pour le texte normal et 3:1 pour le texte large ou les icônes
- Les zones cliquables doivent mesurer au minimum 48dp x 48dp pour faciliter lâinteraction
- Les formulaires nécessitent des labels visibles permanents et non de simples placeholders qui disparaissent
- Modifier.semantics permet de définir lâarbre sémantique lu par les lecteurs dâécran
- Les propriétés mergeDescendants et traversalIndex contrôlent lâordre et le regroupement de la lecture
Diriger le navigateur Chrome avec le modèle Gemini Computer Use https://glaforge.dev/posts/2025/11/03/driving-a-web-browser-with-gemini-computer-use-model-in-java/
- Objectif : Automatiser la navigation web en Java avec le modèle âComputer Useâ de Gemini 2.5 Pro.
- Modèle âComputer Useâ : Gemini analyse des captures dâécran et génère des actions dâinterface (clic, saisie, etc.).
- Outils : Gemini API, Java, Playwright (pour lâinteraction navigateur).
- Fonctionnement : Boucle agent où Gemini reçoit une capture, propose une action, Playwright lâexécute, puis une nouvelle capture est envoyée à Gemini.
- Implémentation clé : Toujours envoyer une capture dâécran à Gemini après chaque action pour quâil comprenne lâétat actuel.
- Défis : Lenteur, gestion des CAPTCHA et pop-ups (gérables).
- Potentiel : Automatisation des tâches web répétitives, création dâagents autonomes.
Data et Intelligence Artificielle
Apicurio ajoute le support de nouveaux schema sans reconstruire Apicurio https://www.apicur.io/blog/2025/10/27/custom-artifact-types
- Apicurio Registry 3.1.0 permet dâajouter des types dâartefacts personnalisés au moment du déploiement sans recompiler le projet
- Supporte nativement OpenAPI, AsyncAPI, Avro, JSON Schema, Protobuf, GraphQL, WSDL et XSD
- Trois approches dâimplémentation disponibles : classes Java pour la performance maximale, JavaScript/TypeScript pour la facilité de développement, ou webhooks pour une flexibilité totale
- Configuration via un simple fichier JSON pointant vers les implémentations des composants personnalisés
- Les scripts JavaScript sont exécutés via QuickJS dans un environnement sandboxé sécurisé
- Un package npm TypeScript fournit lâautocomplétion et la sécurité de type pour le développement
- Six composants optionnels configurables : détection automatique de type, validation, vérification de compatibilité, canonicalisation, déréférencement et recherche de références
- Cas dâusage typiques : formats propriétaires internes, support RAML, formats legacy comme WADL, schémas spécifiques à un domaine métier
- Déploiement simple via Docker en montant les fichiers de configuration et scripts comme volumes
- Les performances varient selon lâapproche : Java offre les meilleures performances, JavaScript un bon équilibre, webhooks la flexibilité maximale
- Le truc interessant câest que câest Quarkus based et donc demandait le rebuilt
- donc pour eviter cela, ils ont ajouter QuickJS via Chicorey un moteur WebAssembly
GPT 5.1 pour les développeurs est sorti. https://openai.com/index/gpt-5-1-for-developers/
- Câest le meilleur puisque câest le dernier :slightly_smiling_face:
- Raisonnement Adaptatif et Efficace : GPT-5.1 ajuste dynamiquement son temps de réflexion en fonction de la complexité de la tâche, le rendant nettement plus rapide et plus économique en jetons pour les tâches simples, tout en maintenant des performances de pointe sur les tâches difficiles.
- Nouveau Mode « Sans Raisonnement » : Un mode (
reasoning_effort='none') a été introduit pour les cas dâutilisation sensibles à la latence, permettant une réponse plus rapide avec une intelligence élevée et une meilleure exécution des outils. - Cache de Prompt Ãtendu : La mise en cache des invites est étendue jusquâà 24 heures (contre quelques minutes auparavant), ce qui réduit la latence et le coût pour les interactions de longue durée (chats multi-tours, sessions de codage). Les jetons mis en cache sont 90 % moins chers.
- Améliorations en Codage : Le modèle offre une meilleure personnalité de codage, une qualité de code améliorée et de meilleures performances sur les tâches dâagenticité de code, atteignant 76,3 % sur SWE-bench Verified.
- Nouveaux Outils pour les Développeurs : Deux nouveaux outils sont introduits ( https://cookbook.openai.com/examples/build_a_coding_agent_with_gpt-5.1 ) :
- Lâoutil
apply_patchpour des modifications de code plus fiables via des diffs structurés. - Lâoutil
shellqui permet au modèle de proposer et dâexécuter des commandes shell sur une machine locale, facilitant les boucles dâinspection et dâexécution.
- Lâoutil
- Disponibilité : GPT-5.1 (ainsi que les modèles
gpt-5.1-codex) est disponible pour les développeurs sur toutes les plateformes API payantes, avec les mêmes tarifs et limites de débit que GPT-5.
Comparaison de similarité dâarticles et de documents avec les embedding models https://glaforge.dev/posts/2025/11/12/finding-related-articles-with-vector-embedding-models/
- Principe : Convertir les articles en vecteurs numériques ; la similarité sémantique est mesurée par la proximité de ces vecteurs.
- Démarche :
- Résumé des articles via Gemini-2.5-flash.
- Conversion des résumés en vecteurs (embeddings) par Gemini-embedding-001.
- Calcul de la similarité entre vecteurs par similarité cosinus.
- Affichage des 3 articles les plus pertinents (>0.75) dans le frontmatter Hugo.
- Bilan : Approche ârésumé et embeddingâ efficace, pragmatique et améliorant lâengagement des lecteurs.
Outillage
Composer : Nouveau modèle dâagent rapide pour lâingénierie logicielle - https://cursor.com/blog/composer
- Composer est un modèle dâagent conçu pour lâingénierie logicielle qui génère du code quatre fois plus rapidement que les modèles similaires
- Le modèle est entraîné sur de vrais défis dâingénierie logicielle dans de grandes bases de code avec accès à des outils de recherche et dâédition
- Il sâagit dâun modèle de type mixture-of-experts optimisé pour des réponses interactives et rapides afin de maintenir le flux de développement
- Lâentraînement utilise lâapprentissage par renforcement dans divers environnements de développement avec des outils comme la lecture de fichiers, lâédition, les commandes terminal et la recherche sémantique
- Cursor Bench est un benchmark dâévaluation basé sur de vraies demandes dâingénieurs qui mesure la correction et le respect des abstractions du code existant
- Le modèle apprend automatiquement des comportements utiles comme effectuer des recherches complexes, corriger les erreurs de linter et écrire des tests unitaires
- Lâinfrastructure dâentraînement utilise PyTorch et Ray avec des kernels MXFP8 pour entraîner sur des milliers de GPUs NVIDIA
- Le système exécute des centaines de milliers dâenvironnements de codage sandboxés concurrents dans le cloud pour lâentraînement
- Composer est déjà utilisé quotidiennement par les développeurs de Cursor pour leur propre travail
- Le modèle se positionne juste derrière GPT-5 et Sonnet 4.5 en termes de performance sur les benchmarks internes
Rex sur lâutilisation de lâIA pour les développeurs, un gain de productivité réel et des contextes adaptés https://mcorbin.fr/posts/2025-10-17-genai-dev/
- Un développeur avec 18 ans dâexpérience partage son retour sur lâIA générative après avoir changé dâavis
- Utilise exclusivement Claude Code dans le terminal pour coder en langage naturel
- Le âvibe codingâ permet de générer des scripts et interfaces sans regarder le code généré
- Génération rapide de scripts Python pour traiter des CSV, JSON ou créer des interfaces HTML
- Le mode chirurgien résout des bugs complexes en one-shot, exemple avec un plugin Grafana fixé en une minute
- Pour le code de production, lâIA génère les couches repository, service et API de manière itérative, mais le dev controle le modele de données
- Le développeur relit toujours le code et ajuste manuellement ou via lâIA selon le besoin
- LâIA ne remplacera pas les développeurs car la réflexion, conception et expertise technique restent essentielles
- La construction de produits robustes, scalables et maintenables nécessite une expérience humaine
- LâIA libère du temps sur les tâches répétitives et permet de se concentrer sur les aspects complexes
- ce que je trouve interessant câest la partie sur le code de prod
- effectivement, je corrige aussi beaucoup les propositions de lâIA en lui demandant de faire mieux dans tel ou tel domaine
- Sans guide, tout cela serait perdu
- Affaire a suivre
- un article en parallele sur le métier de designer https://blog.ippon.fr/2025/11/03/lia-ne-remplace-pas-un-designer-elle-amplifie-la-difference-entre-faire-et-bien-faire/
Plus besoin de se rappeler les racourcis dans IntelliJ idea avec lâuniversal entry point https://blog.jetbrains.com/idea/2025/11/universal-entry-point-a-single-entry-point-for-context-aware-coding-assistance/
- IntelliJ IDEA introduit Command Completion, une nouvelle façon dâaccéder aux actions de lâIDE directement depuis lâéditeur
- Fonctionne comme la complétion de code : tapez point (.) pour voir les actions contextuelles disponibles
- Tapez double point (..) pour filtrer et nâafficher que les actions disponibles
- Propose des corrections, refactorings, génération de code et navigation selon le contexte
- Complète les fonctionnalités existantes sans les remplacer : raccourcis, Alt+Enter, Search Everywhere
- Facilite la découverte des fonctionnalités de lâIDE sans interrompre le flux de développement
- En Beta dans la version 2025.2, sera activé par défaut dans 2025.3
- Support actuel pour Java et Kotlin, avec actions spécifiques aux frameworks comme Spring et Hibernate
Homebrew, package manage pour macOS et Linux passe en version 5 https://brew.sh/2025/11/12/homebrew-5.0.0/
- Téléchargements Parallèles par Défaut : Le paramètre
HOMEBREW_DOWNLOAD_CONCURRENCY=autoest activé par défaut, permettant des téléchargements concurrents pour tous les utilisateurs, avec un rapport de progression. - Support Linux ARM64/AArch64 en Tier 1 : Le support pour Linux ARM64/AArch64 a été promu au niveau âTier 1â (support officiel de premier plan).
- Feuille de Route pour les Dépréciations macOS :
- Septembre 2026 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Catalina (10.15) et versions antérieures. macOS Intel (x86_64) passera en âTier 3â (fin du support CI et des binaires précompilés/bottles).
- Septembre 2027 (ou plus tard) : Homebrew ne fonctionnera plus sur macOS Big Sur (11) sur Apple Silicon ni du tout sur Intel (x86_64).
- Sécurité et Casks :
- Dépréciation des Casks sans signature de code.
- Désactivation des Casks échouant aux vérifications Gatekeeper en septembre 2026.
- Les options
--no-quarantineet--quarantinesont dépréciés pour ne plus faciliter le contournement des fonctionnalités de sécurité de macOS.
- Nouvelles Fonctionnalités & Améliorations :
- Support officiel pour macOS 26 (Tahoe).
brew bundlesupporte désormais lâinstallation de packages Go via unBrewfile.- Ajout de la commande
brew info --sizespour afficher la taille des formulae et casks. - La commande
brew search --alpinepermet de chercher des packages Alpine Linux.
Architecture
Selon lâanalyste RedMonk, Java reste très pertinent dans lâaire de lâIA et des agents https://redmonk.com/jgovernor/java-relevance-in-the-ai-era-agent-frameworks-emerge/
- Java reste pertinent à lâère de lâIA, pas besoin dâapprendre une pile technique entièrement nouvelle.
- Capacité dâadaptation de Java (âanticorpsâ) aux innovations (Big Data, cloud, IA), le rendant idéal pour les contextes dâentreprise.
- Lâécosystème JVM offre des avantages sur Python pour la logique métier et les applications sophistiquées, notamment en termes de sécurité et dâévolutivité.
- Embabel (par Rod Johnson, créateur de Spring) : un framework dâagents fortement typé pour JVM, visant le déterminisme des projets avant la génération de code par LLM.
- LangChain4J : facilite lâaccès aux capacités dâIA pour les développeurs Java, sâaligne sur les modèles dâentreprise établis et permet aux LLM dâappeler des méthodes Java.
- Koog (Jetbrains) : framework dâagents basé sur Kotlin, typé et spécifique aux développeurs JVM/Kotlin.
- Akka : a pivoté pour se concentrer sur les flux de travail dâagents IA, abordant la complexité, la confiance et les coûts des agents dans les systèmes distribués.
- Le Model Context Protocol (MCP) est jugé insuffisant, manquant dâexplicabilité, de découvrabilité, de capacité à mélanger les modèles, de garde-fous, de gestion de flux, de composabilité et dâintégration sécurisée.
- Les développeurs Java sont bien placés pour construire des applications compatibles IA et intégrer des agents.
- Des acteurs majeurs comme IBM, Red Hat et Oracle continuent dâinvestir massivement dans Java et son intégration avec lâIA.
Sécurité
AI Deepfake, Hiring ⦠A danger réel https://www.eu-startups.com/2025/10/european-startups-get-serious-about-deepfakes-as-ai-fraud-losses-surpass-e1-3-billion/
- Pertes liées aux deepfakes en Europe : > 1,3 milliard ⬠(860 M ⬠rien quâen 2025).
- Création de deepfakes désormais possible pour quelques euros.
- Fraudes : faux entretiens vidéo, usurpations dâidentité, arnaques diverses.
- Startups actives : Acoru, IdentifAI, Trustfull, Innerworks, Keyless (détection et prévention).
- Réglementation : AI Act et Digital Services Act imposent transparence et contrôle.
- Recommandations : vérifier identités, former employés, adopter authentification multi-facteurs.
- En lien :
- https://www.techmonitor.ai/technology/cybersecurity/remote-hiring-cybersecurity
- 1 Candidat sur 4 sera Fake en 2028 selon Gartner research https://www.gartner.com/en/newsroom/press-releases/2025-07-31-gartner-survey-shows-j[â¦]-percent-of-job-applicants-trust-ai-will-fairly-evaluate-them
Loi, société et organisation
Amazon - prévoit supprimer 30.000 postes https://www.20minutes.fr/economie/4181936-20251028-amazon-prevoit-supprimer-30-000-emplois-bureau-selon-plusieurs-medias
- Postes supprimés : 30â¯000 bureaux
- Part des effectifs : ~10â¯% des employés corporatifs
- Tranche confirmée : 14â¯000 postes
- Divisions touchées : RH, Opérations, Devices & Services, Cloud
- Motifs : sur-recrutement, bureaucratie, automatisation/IA
- Accompagnement : 90 jours pour poste interne + aides
- Non concernés : entrepôts/logistique
- Objectif : concentrer sur priorités stratégiques
NTP a besoin dâargent https://www.ntp.org/
- Il nâest que le protocole qui synchronise toutes les machines du monde
- La fondation https://www.nwtime.org/ recherche 11000$ pour maintenir son activité
Rubrique débutant
Une plongée approfondie dans le démarrage de la JVM https://inside.java/2025/01/28/jvm-start-up
- La JVM effectue une initialisation complexe avant dâexécuter le code : validation des arguments, détection des ressources système et sélection du garbage collector approprié
- Le chargement de classes suit une stratégie lazy où chaque classe charge dâabord ses dépendances dans lâordre de déclaration, créant une chaîne dâenviron 450 classes même pour un simple Hello World
- La liaison de classes comprend trois sous-processus : vérification de la structure, préparation avec initialisation des champs statiques à leurs valeurs par défaut, et résolution des références symboliques du Constant Pool
- Le CDS améliore les performances au démarrage en fournissant des classes pré-vérifiées, réduisant le travail de la JVM
- Lâinitialisation de classe exécute les initialiseurs statiques via la méthode spéciale clinit générée automatiquement par javac
- Le Project Leyden introduit la compilation AOT dans JDK 24 pour réduire le temps de démarrage en effectuant le chargement et la liaison de classes en avance de phase
- Pas si débutant finalement
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 19-21 novembre 2025 : Agile Grenoble - Grenoble (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 24 novembre 2025 : Forward Data & AI Conference - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France)
- 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 9-11 décembre 2025 : APIdays Paris - Paris (France)
- 9-11 décembre 2025 : Green IO Paris - Paris (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 11 décembre 2025 : Normandie.ai 2025 - Rouen (France)
- 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 22 janvier 2026 : DevCon #26 : sécurité / post-quantique / hacking - Paris (France)
- 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France)
- 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France)
- 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France)
- 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France)
- 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France)
- 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France)
- 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France)
- 27-29 mars 2026 : Shift - Nantes (France)
- 31 mars 2026 : ParisTestConf - Paris (France)
- 16-17 avril 2026 : MiXiT 2026 - Lyon (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 6-7 mai 2026 : Devoxx UK 2026 - London (UK)
- 22 mai 2026 : AFUP Day 2026 Lille - Lille (France)
- 22 mai 2026 : AFUP Day 2026 Paris - Paris (France)
- 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France)
- 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
- 11-12 juillet 2026 : DevLille 2026 - Lille (France)
- 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France)
- 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France)
- 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 331 - Le retour des jackson 5
Posté le 06/11/2025Dans cet épisode, Arnaud et Guillaume discutent des dernières évolutions dans le monde de la programmation, notamment les nouveautés de Java 25, JUnit 6, et Jackson 3. Ils abordent également les récents développements en IA, les problèmes rencontrés dans le cloud, et lâétat actuel de React et du web. Dans cette conversation, les intervenants abordent divers sujets liés à la technologie, notamment les spécifications de Wasteme, lâutilisation des UUID dans les bases de données, lâapproche RAG en intelligence artificielle, les outils MCP, et la création dâimages avec Nano Banana. Ils discutent également des complexités du format YAML, des récents dramas dans la communauté Ruby, de lâimportance dâune bonne documentation, des politiques de retour au bureau, et des avancées de Cloud Code. Enfin, ils évoquent lâinitiative de cafés IA pour démystifier lâintelligence artificielle.
Enregistré le 24 octobre 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-331.mp3 ou en vidéo sur YouTube.
News
Langages
GraalVM se détache du release train de Java https://blogs.oracle.com/java/post/detaching-graalvm-from-the-java-ecosystem-train
Un article de Loic Mathieu sur Java 25 et ses nouvelles fonctionalités https://www.loicmathieu.fr/wordpress/informatique/java-25-whats-new/
Sortie de Groovy 5.0 ! https://groovy-lang.org/releasenotes/groovy-5.0.html
- Groovy 5: Ãvolution des versions précédentes, nouvelles fonctionnalités et simplification du code.
- Compatibilité JDK étendue: Full support JDK 11-25, fonctionnalités JDK 17-25 disponibles sur les JDK plus anciens.
- Extension majeure des méthodes: Plus de 350 méthodes améliorées, opérations sur tableaux jusquâà 10x plus rapides, itérateurs paresseux.
- Améliorations des transformations AST: Nouveau
@OperatorRename, génération automatique de@NamedParampour@MapConstructoretcopyWith. - REPL (groovysh) modernisé: Basé sur JLine 3, support multi-plateforme, coloration syntaxique, historique et complétion.
- Meilleure interopérabilité Java: Pattern Matching pour
instanceof, support JEP-512 (fichiers source compacts et méthodesmaindâinstance). - Standards web modernes: Support Jakarta EE (par défaut) et Javax EE (héritage) pour la création de contenu web.
- Vérification de type améliorée: Contrôle des chaînes de format plus robuste que Java.
- Additions au langage: Génération dâitérateurs infinis, variables dâindex dans les boucles, opérateur dâimplication logique
==>. - Améliorations diverses: Import automatique de
java.time.**,varavec multi-assignation, groupes de capture nommés pour regex (=~), méthodes utilitaires de graphiques à barres ASCII. - Changements impactants: Plusieurs modifications peuvent nécessiter une adaptation du code existant (visibilité, gestion des imports, comportement de certaines méthodes).
- *Exigences JDK: Construction avec JDK17+, exécution avec JDK11+.
Librairies
Intégration de LangChain4j dans ADK pour Java, permettant aux développeurs dâutiliser nâimporte quel LLM avec leurs agents ADK https://developers.googleblog.com/en/adk-for-java-opening-up-to-third-party-language-models-via-langchain4j-integration/
- ADK pour Java 0.2.0 : Nouvelle version du kit de développement dâagents de Google.
- Intégration LangChain4j : Ouvre ADK à des modèles de langage tiers.
- Plus de choix de LLM : En plus de Gemini et Claude, accès aux modèles dâOpenAI, Anthropic, Mistral, etc.
- Modèles locaux supportés : Utilisation possible de modèles via Ollama ou Docker Model Runner.
- Améliorations des outils : Création dâoutils à partir dâinstances dâobjets, meilleur support asynchrone et contrôle des boucles dâexécution.
- Logique et mémoire avancées : Ajout de callbacks en chaîne et de nouvelles options pour la gestion de la mémoire et le RAG (Retrieval-Augmented Generation).
- Build simplifié : Introduction dâun POM parent et du Maven Wrapper pour un processus de construction cohérent.
JUnit 6 est sorti https://docs.junit.org/6.0.0/release-notes/
- :sparkles: Java 17 and Kotlin 2.2 baseline
- :sunrise_over_mountains: JSpecify nullability annotations
- :airplane_departure: Integrated JFR support
- :suspension_railway: Kotlin suspend function support
- :octagonal_sign: Support for cancelling test execution
- :broom: Removal of deprecated APIs
JGraphlet, une librairie Java sans dépendances pour créer des graphes de tâches à exécuter https://shaaf.dev/post/2025-08-25-think-in-graphs-not-just-chains-jgraphlet-for-taskpipelines/
- JGraphlet: Bibliothèque Java légère (zéro-dépendance) pour construire des pipelines de tâches.
- Principes clés: Simplicité, basée sur un modèle dâexécution de graphe.
- Tâches: Chaque tâche a une entrée/sortie, peut être asynchrone (
Task<I,O>) ou synchrone (SyncTask<I,O>). - Pipeline: Un
TaskPipelineconstruit et exécute le graphe, gère les I/O. - Modèle Graph-First: Le flux de travail est un Graphe Orienté Acyclique (DAG).
- Définition des tâches comme des nÅuds, des connexions comme des arêtes.
- Support naturel des motifs fan-out et fan-in.
- API simple:
addTask("id", task),connect("fromId", "toId"). - Fan-in: Une tâche recevant plusieurs entrées reçoit une
Map<String, Object>(clés = IDs des tâches parentes). - Exécution:
pipeline.run(input)retourne unCompletableFuture(peut être bloquant via.join()ou asynchrone). - Cycle de vie:
TaskPipelineestAutoCloseable, garantissant la libération des ressources (try-with-resources). - Contexte:
PipelineContextpour partager des données/métadonnées thread-safe entre les tâches au sein dâune exécution. - Mise en cache: Option de mise en cache pour les tâches afin dâéviter les re-calculs.
Au tour de Microsoft de lancer son (Microsoft) Agent Framework, qui semble être une fusion / réécriture de AutoGen et de Semnatic Kernel https://x.com/pyautogen/status/1974148055701028930
- Plus de détails dans le blog post : https://devblogs.microsoft.com/foundry/introducing-microsoft-agent-framework-the-open-source-engine-for-agentic-ai-apps/
- SDK & runtime open-source pour systèmes multi-agents sophistiqués. Unifie Semantic Kernel et AutoGen.
- Piliers :
- Standards ouverts (MCP, A2A, OpenAPI) et interopérabilité.
- Passerelle recherche-production (patterns AutoGen pour lâentreprise).
- Extensible, modulaire, open-source, connecteurs intégrés.
- Prêt pour la production (observabilité, sécurité, durabilité, âhuman in the loopâ).
- Relation SK/AutoGen : Sâappuie sur eux, ne les remplace pas, simplifie la migration.
- Intégrations futures : Alignement avec Microsoft 365 Agents SDK et Azure AI Foundry Agent Service.
Sortie de Jackson 3.0 (bientôt les Jackson Five !!!) https://cowtowncoder.medium.com/jackson-3-0-0-ga-released-1f669cda529a
- Jackson 3.0.0 a été publié le 3 octobre 2025.
- Objectif : base propre pour le développement à long terme, suppression de la dette technique, architecture simplifiée, amélioration de lâergonomie.
- Principaux changements :
- Baseline Java 17 requise (vs Java 8 pour 2.x).
- Group ID Maven et package Java renommés en
tools.jacksonpour la coexistence avec Jackson 2.x. (Exception:jackson-annotationsne change pas). - Suppression de toutes les fonctionnalités
@Deprecatedde Jackson 2.x et renommage de plusieurs entités/méthodes clés. - Modification des paramètres de configuration par défaut (ex:
FAIL_ON_UNKNOWN_PROPERTIESdésactivé). ObjectMapperetTokenStreamFactorysont désormais immutables, la configuration se fait via des builders.- Passage à des exceptions de base non vérifiées (
JacksonException) pour plus de commodité. - Intégration des âmodules Java 8â (pour les noms de paramètres,
Optional,java.time) directement dans lâObjectMapperpar défaut. - Amélioration du modèle dâarbre
JsonNode(plus de configurabilité, meilleure gestion des erreurs).
Testcontainers Java 2.0 est sorti https://github.com/testcontainers/testcontainers-java/releases/tag/2.0.0
- Removed JUnit 4 support -> ups
Grails 7.0 est sortie, avec son arrivée à la fondation Apache https://grails.apache.org/blog/2025-10-18-introducing-grails-7.html
- Sortie dâApache Grails 7.0.0 annoncée le 18 octobre 2025.
- Grails est devenu un projet de premier niveau (TLP) de lâApache Software Foundation (ASF), graduant dâincubation.
- Mise à jour des dépendances vers Groovy 4.0.28, Spring Boot 3.5.6, Jakarta EE.
Tout pour bien démarrer et développer des agents IA avec ADK pour Java https://glaforge.dev/talks/2025/10/22/building-ai-agents-with-adk-for-java/
- Guillaume a partagé plein de resources sur le développement dâagents IA avec ADK pour Java
- Un article avec tous les pointeurs
- Un slide deck et lâenregistrement vidéo de la présentation faite lors de Devoxx Belgique
- Un codelab avec des instructions pour démarrer et créer ses premiers agents
- Plein dâautres samples pour sâinspirer et voir les possibilités offertes par le framework
- Et aussi un template de projet sur GitHub, avec un build Maven et un premier agent dâexemple
Cloud
Internet cassé, du moins la partie hébergée par AWS #hugops https://www.theregister.com/2025/10/20/aws_outage_amazon_brain_drain_corey_quinn/
- Panne majeure dâAWS (région US-EAST-1) : problème DNS affectant DynamoDB, service fondamental, causant des défaillances en cascade de nombreux services internet.
- Réponse lente : 75 minutes pour identifier la cause profonde; la page de statut affichait initialement âtout va bienâ.
- Cause sous-jacente principale : âfuite des cerveauxâ (départ dâingénieurs AWS seniors).
- Perte de connaissances institutionnelles : des décennies dâexpertise critique sur les systèmes AWS et les modes de défaillance historiques parties avec ces départs.
- Prédictions confirmées : un ancien dâAWS avait anticipé une augmentation des pannes majeures en 2024.
- Preuves de la perte de talents :
- Plus de 27 000 licenciements chez Amazon (2022-2025).
- Taux élevé de âdéparts regrettésâ (69-81%).
- Mécontentement lié à la politique de âReturn to Officeâ et au manque de reconnaissance de lâexpertise.
- Conséquences : les nouvelles équipes, plus réduites, manquent de lâexpérience nécessaire pour prévenir les pannes ou réduire les temps de récupération.
- Perspective : Le marché pourrait pardonner cette fois, mais le problème persistera, rendant les futurs incidents plus probables.
Web
React a gagné âpar défautâ https://www.lorenstew.art/blog/react-won-by-default/
- React domine par défaut, non par mérite technique, étouffant ainsi lâinnovation front-end.
- Choix par réflexe (âtout le monde connaît Reactâ), freinant lâévaluation dâalternatives potentiellement supérieures.
- Fondations techniques de React (V-DOM, complexité des Hooks, Server Components) vues comme des contraintes actuelles.
- Des frameworks innovants (Svelte pour la compilation, Solid pour la réactivité fine, Qwik pour la âresumabilityâ) offrent des modèles plus performants mais sont sous-adoptés.
- La monoculture de React génère une dette technique (runtime, réconciliation) et centre les compétences sur le framework plutôt que sur les fondamentaux web.
- LâAPI React est complexe, augmentant la charge cognitive et les risques de bugs, contrairement aux alternatives plus simples.
- Lâeffet de réseau crée une âprisonâ: offres dâemploi spécifiques, inertie institutionnelle, leaders choisissant lâoption âsûreâ.
- Nécessité de choisir les frameworks selon les contraintes du projet et le mérite technique, non par inertie.
- Les arguments courants (maturité de lâécosystème, recrutement, bibliothèques, stabilité) sont remis en question; une dépendance excessive peut devenir un fardeau.
- La monoculture ralentit lâévolution du web et détourne les talents, nuisant à la diversité essentielle pour un écosystème sain et innovant.
- Promouvoir la diversité des frameworks pour un écosystème plus résilient et innovant.
WebAssembly 3 est sortie https://webassembly.org/news/2025-09-17-wasm-3.0/
Data et Intelligence Artificielle
UUIDv4 ou UUIDv7 pour vos clés primaires ? Ãa dépend⦠surtout pour les bases de données super distribuées ! https://medium.com/google-cloud/understanding-uuidv7-and-its-impact-on-cloud-spanner-b8d1a776b9f7
- UUIDv4 : identifiants entièrement aléatoires.
- Cause des problèmes de performance dans les bases de données relationnelles (ex: PostgreSQL, MySQL, SQL Server) utilisant des index B-Tree.
- Inserts aléatoires réduisent lâefficacité du cache, entraînent des divisions de pages et la fragmentation.
- UUIDv7 : nouveau standard conçu pour résoudre ces problèmes.
- Intègre un horodatage (48 bits) en préfixe de lâidentifiant, le rendant ordonné temporellement et âk-sortableâ.
- Améliore la performance dans les bases B-Tree en favorisant les inserts séquentiels, la localité du cache et réduisant la fragmentation.
- Problème de UUIDv7 pour certaines bases de données distribuées et scalables horizontalement comme Spanner :
- La nature séquentielle dâUUIDv7 (via lâhorodatage) crée des âhotspots dâécritureâ (points chauds) dans Spanner.
- Spanner distribue les données en âsplitsâ (partitions) basées sur les plages de clés. Les clés séquentielles concentrent les écritures sur un seul âsplitâ.
- Ceci empêche Spanner de distribuer la charge et de scaler les écritures, créant un goulot dâétranglement (âanti-patternâ).
- Quand ce nâest PAS un problème pour Spanner :
- Si le taux dâécriture total est inférieur à environ 3 500 écritures/seconde pour un seul âsplitâ.
- Le hotspot est âbéninâ à cette échelle et nâentraîne pas de dégradation de performance.
- Solutions pour Spanner :
- Principe clé : Sâassurer que la première partie de la clé primaire est NON séquentielle pour distribuer les écritures. UUIDv7 peut être utilisé, mais pas comme préfixe.
- Nouvelle conception (âgreenfieldâ) :
- âªï¸ Utiliser une clé primaire non-séquentielle (ex: UUIDv4 simple).
- Pour les requêtes basées sur le temps, créer un index secondaire sur la colonne dâhorodatage, mais le SHARDER (ex:
shardId) pour éviter les hotspots sur lâindex lui-même. - Migration (garder UUIDv7) :
- âªï¸ Ajouter un préfixe de sharding : Introduire une colonne
shardcalculée (ex:MOD(ABS(FARM_FINGERPRINT(order_id_v7)), N)) et lâutiliser comme PREMIER élément dâune clé primaire composite (PRIMARY KEY (shard, order_id_v7)). - Réordonner les colonnes (si clé primaire composite existante) : Si la clé primaire est déjà composite (ex:
(order_id_v7, tenant_id)), réordonner en(tenant_id, order_id_v7). Cela aide sitenant_ida une cardinalité élevée et distribue bien. (Untenant_idtrès actif pourrait toujours nécessiter un préfixe de sharding supplémentaire).
RAG en prod, comment améliorer la pertinence des résultats https://blog.abdellatif.io/production-rag-processing-5m-documents
- Démarrage rapide avec Langchain + Llamaindex: prototype fonctionnel, mais résultats de production jugés âsubparâ par les utilisateurs.
- Ce qui a amélioré la performance (par ROI):
- Génération de requêtes: LLM crée des requêtes sémantiques et mots-clés multiples basées sur le fil de discussion pour une meilleure couverture.
- Reranking: La technique la plus efficace, modifie grandement le classement des fragments (chunks).
- Stratégie de découpage (Chunking): Nécessite beaucoup dâefforts, compréhension des données, création de fragments logiques sans coupures.
- Métadonnées à lâLLM: Lâinjection de métadonnées (titre, auteur) améliore le contexte et les réponses.
- Routage de requêtes: Détecte et traite les questions non-RAG (ex: résumer, qui a écrit) via API/LLM distinct.
Outillage
Créer un serveur MCP (mode HTTP Streamable) avec Micronaut et quelques éléments de comparaison avec Quarkus https://glaforge.dev/posts/2025/09/16/creating-a-streamable-http-mcp-server-with-micronaut/
- Micronaut propose désormais un support officiel pour le protocole MCP.
- Exemple : un serveur MCP pour les phases lunaires (similaire à une version Quarkus pour la comparaison).
- Définition des outils MCP via les annotations
@Toolet@ToolArg. - Point fort : Micronaut gère automatiquement la validation des entrées (ex:
@NotBlank,@Pattern), éliminant la gestion manuelle des erreurs. - Génération automatique de schémas JSON détaillés pour les structures dâentrée/sortie grâce Ã
@JsonSchema. - Nécessite une configuration pour exposer les schémas JSON générés comme ressources statiques.
- Dépendances clés :
micronaut-mcp-server-java-sdket les modulesjson-schema. - Testé avec lâinspecteur MCP et intégration avec lâoutil Gemini CLI.
- Micronaut offre une gestion élégante des entrées/sorties structurées grâce à son support JSON Schema riche.
Un agent IA créatif : comment utiliser le modèle Nano Banana pour générer et éditer des images (en Java, avec ADK) https://glaforge.dev/posts/2025/09/22/creative-ai-agents-with-adk-and-nano-banana/
- Modèles de langage (LLM) deviennent multimodaux : traitent diverses entrées (texte, images, vidéo, audio).
- Nano Banana (gemini-2.5-flash-image-preview) : modèle Gemini, génère et édite des images, pas seulement du texte.
- ADK (Agent Development Kit pour Java) : pour configurer des agents IA créatifs utilisant ce type de modèle.
- Application : Base pour des workflows créatifs complexes (ex: agent de marketing, enchaînement dâagents pour génération dâassets).
Un vieil article (6 mois) qui illustre les problèmes du format de fichier YAML https://ruudvanasseldonk.com/2023/01/11/the-yaml-document-from-hell
- YAML est extrêmement complexe malgré son objectif de convivialité humaine.
- Spécification volumineuse et versionnée (YAML 1.1, 1.2 diffèrent significativement).
- Comportements imprévisibles et âpiègesâ (footguns) courants :
- Nombres sexagésimaux (ex:
22:22parsé comme1342en YAML 1.1). - Tags (
!.git) pouvant mener à des erreurs ou à lâexécution de code arbitraire. - âProblème de la Norvègeâ :
nointerprété commefalseen YAML 1.1. - Clés non-chaînes de caractères (
onpeut devenir une clé booléenneTrue). - Nombres accidentels si non-guillemets (ex:
10.23comme flottant).
- Nombres sexagésimaux (ex:
- La coloration syntaxique nâest pas fiable pour détecter ces subtilités.
- Le templating de documents YAML est une mauvaise idée, source dâerreurs et complexe à gérer.
- Alternatives suggérées :
- TOML : Similaire à YAML mais plus sûr (chaînes toujours entre guillemets), permet les commentaires.
- JSON avec commentaires (utilisé par VS Code), mais moins répandu.
- Utiliser un sous-ensemble simple de YAML (difficile à faire respecter).
- Générer du JSON à partir de langages de programmation plus puissants :
- âªï¸ Nix : Excellent pour lâabstraction et la réutilisation de configuration.
- Python : Facilite la création de JSON avec commentaires et logique.
Gros binz dans la communauté Ruby, avec lâinfluence de grosses boîtes, et des pratiques un peu douteuses https://joel.drapper.me/p/rubygems-takeover/
Méthodologies
Les qualités dâune bonne documentation https://leerob.com/docs
- Rapidité
- Chargement très rapide des pages (préférer statique).
- Optimisation des images, polices et scripts.
- Recherche ultra-rapide (chargement et affichage des résultats).
- Lisibilité
- Concise, éviter le jargon technique.
- Optimisée pour le survol (gras, italique, listes, titres, images).
- Expérience utilisateur simple au départ, complexité progressive.
- Multiples exemples de code (copier/coller).
- Utilité
- Documenter les solutions de contournement (workarounds).
- Faciliter le feedback des lecteurs.
- Vérification automatisée des liens morts.
- Matériel dâapprentissage avec un curriculum structuré.
- Guides de migration pour les changements majeurs.
- Compatible IA
- Trafic majoritairement via les crawlers IA.
- Préférer cURL aux âclicsâ, les prompts aux tutoriels.
- Barre latérale âDemander à lâIAâ référençant la documentation.
- Prêt pour les agents
- Faciliter le copier/coller de contenu en Markdown pour les chatbots.
- Possibilité de visualiser les pages en Markdown (ex: via lâURL).
- Fichier
llms.txtcomme répertoire de fichiers Markdown.
- Finition soignée
- Zones de clic généreuses (boutons, barres latérales).
- Barres latérales conservant leur position de défilement et état déplié.
- Bons états actifs/survol.
- Images OG dynamiques.
- Titres/sections lienables avec ancres stables.
- Références et liens croisés entre guides, API, exemples.
- Balises méta/canoniques pour un affichage propre dans les moteurs de recherche.
- Localisée
- Pas de
/enpar défaut dans lâURL. - Routage côté serveur pour la langue.
- Localisation des chaînes statiques et du contenu.
- Pas de
- Responsive
- Excellents menus mobiles / support Safari iOS.
- Info-bulles sur desktop, popovers sur mobile.
- Accessible
- Lien âignorer la navigationâ vers le contenu principal.
- Toutes les images avec des balises
alt. - Respect des paramètres système de mouvement réduit.
- Universelle
- Livrer la documentation âen tant que codeâ (JSDoc, package).
- Livrer via des plateformes comme Context7, ou dans
node_modules. - Fichiers de règles (ex:
AGENTS.md) avec le produit. - Ãvaluations et modèles spécifiques recommandés pour le produit.
Loi, société et organisation
Microsoft va imposer une politique de Return To Office https://www.businessinsider.com/microsoft-execs-explain-rto-mandate-in-internal-meeting-2025-9
- Microsoft impose 3 jours de présence au bureau par semaine à partir de février 2026, débutant par la région de Seattle
- Le CEO Satya Nadella explique que le télétravail a affaibli les liens sociaux nécessaires à lâinnovation
- Les dirigeants citent des données internes montrant que les employés présents au bureau âprospèrentâ davantage
- Lâéquipe IA de Microsoft doit être présente 4 jours par semaine, règles plus strictes pour cette division stratégique
- Les employés peuvent demander des exceptions jusquâau 19 septembre 2025 pour trajets complexes ou absence dâéquipe locale
- Amy Coleman (RH) affirme que la collaboration en personne améliore lâénergie et les résultats, surtout à lâère de lâIA
- La politique sâappliquera progressivement aux 228 000 employés dans le monde après les Ãtats-Unis
- Les réactions sont mitigées, certains employés critiquent la perte dâautonomie et les bureaux inadéquats
- Microsoft rattrape ses concurrents tech qui ont déjà imposé des retours au bureau plus stricts
- Cette décision intervient après 15 000 licenciements en 2025, créant des tensions avec les employés
Comment Claude Code est né ? (lâhistoire de sa création) https://newsletter.pragmaticengineer.com/p/how-claude-code-is-built
- Claude Code : outil de développement âAI-firstâ créé par Boris Cherny, Sid Bidasaria et Cat Wu.
- Performance impressionnante : 500M$ de revenus annuels, utilisation multipliée par 10 en 3 mois.
- Adoption interne massive : Plus de 80% des ingénieurs dâAnthropic lâutilisent quotidiennement, y compris les data scientists.
- Augmentation de productivité : 67% dâaugmentation des Pull Requests (PR) par ingénieur malgré le doublement de lâéquipe.
- Origine : Commande CLI simple évoluant vers un outil accédant au système de fichiers, exploitant le âproduct overhangâ du modèle Claude.
- Raison du lancement public : Apprendre sur la sécurité et les capacités des modèles dâIA.
- Pile technologique âon distributionâ : TypeScript, React (avec Ink), Yoga, Bun. Choisie car le modèle Claude est déjà très performant avec ces technologies.
- âClaude Code écrit 90% de son propre codeâ : Le modèle prend en charge la majeure partie du développement.
- Architecture légère : Simple âshellâ autour du modèle Claude, minimisant la logique métier et le code (suppression constante de code superflu).
- Exécution locale : Privilégiée pour sa simplicité, sans virtualisation.
- Sécurité : Système de permissions granulaire demandant confirmation avant chaque action potentiellement dangereuse (ex: suppression de fichiers).
- Développement rapide :
- Jusquâà 100 releases internes/jour, 1 release externe/jour.
- 5 Pull Requests/ingénieur/jour.
- Prototypage ultra-rapide (ex: 20+ prototypes dâune fonctionnalité en quelques heures) grâce aux agents IA.
- Innovation UI/UX : Redéfinit lâexpérience du terminal grâce à lâinteraction LLM, avec des fonctionnalités comme les sous-agents, les styles de sortie configurables, et un mode âLearningâ.
Le 1er Café IA publique a Paris
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 5-6 novembre 2025 : Tech Show Paris - Paris (France)
- 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 19-21 novembre 2025 : Agile Grenoble - Grenoble (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 24 novembre 2025 : Forward Data & AI Conference - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France)
- 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 9-11 décembre 2025 : APIdays Paris - Paris (France)
- 9-11 décembre 2025 : Green IO Paris - Paris (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 11 décembre 2025 : Normandie.ai 2025 - Rouen (France)
- 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 29-31 janvier 2026 : Epitech Summit 2026 - Paris - Paris (France)
- 2-5 février 2026 : Epitech Summit 2026 - Moulins - Moulins (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 3-4 février 2026 : Epitech Summit 2026 - Lille - Lille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Mulhouse - Mulhouse (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nancy - Nancy (France)
- 3-4 février 2026 : Epitech Summit 2026 - Nantes - Nantes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Marseille - Marseille (France)
- 3-4 février 2026 : Epitech Summit 2026 - Rennes - Rennes (France)
- 3-4 février 2026 : Epitech Summit 2026 - Montpellier - Montpellier (France)
- 3-4 février 2026 : Epitech Summit 2026 - Strasbourg - Strasbourg (France)
- 3-4 février 2026 : Epitech Summit 2026 - Toulouse - Toulouse (France)
- 4-5 février 2026 : Epitech Summit 2026 - Bordeaux - Bordeaux (France)
- 4-5 février 2026 : Epitech Summit 2026 - Lyon - Lyon (France)
- 4-6 février 2026 : Epitech Summit 2026 - Nice - Nice (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 26-27 mars 2026 : SymfonyLive Paris 2026 - Paris (France)
- 31 mars 2026 : ParisTestConf - Paris (France)
- 16-17 avril 2026 : MiXiT 2026 - Lyon (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 6-7 mai 2026 : Devoxx UK 2026 - London (UK)
- 22 mai 2026 : AFUP Day 2026 Lille - Lille (France)
- 22 mai 2026 : AFUP Day 2026 Paris - Paris (France)
- 22 mai 2026 : AFUP Day 2026 Bordeaux - Bordeaux (France)
- 22 mai 2026 : AFUP Day 2026 Lyon - Lyon (France)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
- 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France)
- 17-18 septembre 2026 : API Platform Conference 2026 - Lille (France)
- 5-9 octobre 2026 : Devoxx Belgium - Antwerp (Belgium)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 330 - Nano banana l'AI de Julia
Posté le 15/09/2025Katia, Emmanuel et Guillaume discutent Java, Kotlin, Quarkus, Hibernate, Spring Boot 4, intelligence artificielle (modèles Nano Banana, VO3, frameworks agentiques, embedding). On discute les vulnérabilités OWASP pour les LLMs, les personnalités de codage des différents modèles, Podman vs Docker, comment moderniser des projets legacy. Mais surtout on a passé du temps sur les présentations de Luc Julia et les différents contre points qui ont fait le buzz sur les réseaux.
Enregistré le 12 septembre 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-330.mp3 ou en vidéo sur YouTube.
News
Langages
Dans cette vidéo, José détaille les nouveautés de Java entre Java 21 et 25 https://inside.java/2025/08/31/roadto25-java-language/
- Aperçu des nouveautés du JDK 25 : Introduction des nouvelles fonctionnalités du langage Java et des changements à venir [00:02].
- Programmation orientée données et Pattern Matching [00:43] :
- Ãvolution du âpattern matchingâ pour la déconstruction des ârecordsâ [01:22].
- Utilisation des âsealed typesâ dans les expressions
switchpour améliorer la lisibilité et la robustesse du code [01:47]. - Introduction des âunnamed patternsâ (
_) pour indiquer quâune variable nâest pas utilisée [04:47]. - Support des types primitifs dans
instanceofetswitch(en preview) [14:02].
- Conception dâapplications Java [00:52] :
- Immuabilité et valeurs nulles [01:08] :
JDK 25 sort le 16 septembre https://openjdk.org/projects/jdk/25/
- Scoped Values (JEP 505) : Alternative plus efficace aux ThreadLocal pour partager des données immutables entre threads.
- Structured Concurrency (JEP 506) : Traiter des groupes de tâches concurrentes comme une seule unité de travail, simplifiant la gestion des threads.
- Compact Object Headers (JEP 519) : Fonctionnalité finale qui réduit de 50% la taille des en-têtes dâobjets (de 128 à 64 bits), économisant jusquâà 22% de mémoire heap.
- Flexible Constructor Bodies (JEP 513) : Relaxation des restrictions sur les constructeurs, permettant du code avant lâappel
super()outhis(). - Module Import Declarations (JEP 511) : Import simplifié permettant dâimporter tous les éléments publics dâun module en une seule déclaration.
- Compact Source Files (JEP 512) : Simplification des programmes Java basiques avec des méthodes main dâinstance sans classe wrapper obligatoire.
- Primitive Types in Patterns (JEP 455) : Troisième preview étendant le pattern matching et instanceof aux types primitifs dans
switchetinstanceof. - Generational Shenandoah (JEP 521) : Le garbage collector Shenandoah passe en mode générationnel pour de meilleures performances.
- JFR Method Timing & Tracing (JEP 520) : Nouvel outillage de profilage pour mesurer le temps dâexécution et tracer les appels de méthodes.
- Key Derivation API (JEP 510) : API finale pour les fonctions de dérivation de clés cryptographiques, remplaçant les implémentations tierces.
Améliorations du traitement des annotations dans Kotlin 2.2 https://blog.jetbrains.com/idea/2025/09/improved-annotation-handling-in-kotlin-2-2-less-boilerplate-fewer-surprises/
- Avant Kotlin 2.2, les annotations sur les paramètres de constructeur nâétaient appliquées quâau paramètre, pas à la propriété ou au champ.
- Cela causait des bugs subtils avec Spring et JPA où la validation ne fonctionnait quâà la création dâobjet, pas lors des mises à jour.
- La solution précédente nécessitait dâutiliser explicitement
@fieldpour chaque annotation, créant du code verbeux. - Kotlin 2.2 introduit un nouveau comportement par défaut qui applique les annotations aux paramètres ET aux propriétés/champs automatiquement.
- Le code devient plus propre sans avoir besoin de syntaxe
@fieldrépétitive. - Pour lâactiver, ajouter
-Xannotation-default-target=param-propertydans les options du compilateur Gradle. - IntelliJ IDEA propose un quick-fix pour activer ce comportement à lâéchelle du projet.
- Cette amélioration rend lâintégration Kotlin plus fluide avec les frameworks majeurs comme Spring et JPA.
- Le comportement peut être configuré pour garder lâancien mode ou activer un mode transitoire avec avertissements.
- Cette mise à jour fait partie dâune initiative plus large pour améliorer lâexpérience Kotlin + Spring.
Librairies
Sortie de Quarkus 3.26 avec mises à jour dâHibernate et autres fonctionnalités https://quarkus.io/blog/quarkus-3-26-released/
- Mettez à jour vers la 3.26.x, car il y a eu une regression vert.x.
- Jalon important vers la version LTS 3.27 prévue fin septembre, basée sur cette version.
- Mise à jour vers Hibernate ORM 7.1, Hibernate Search 8.1 et Hibernate Reactive 3.1.
- Support des unités de persistance nommées et sources de données dans Hibernate Reactive.
- Démarrage hors ligne et configuration de dialecte pour Hibernate ORM même si la base nâest pas accessible.
- Refonte de la console HQL dans Dev UI avec fonctionnalité Hibernate Assistant intégrée.
- Exposition des capacités Dev UI comme fonctions MCP pour pilotage via outils IA.
- Rafraîchissement automatique des tokens OIDC en cas de réponse 401 des clients REST.
- Extension JFR pour capturer les données runtime (nom app, version, extensions actives).
- Bump de Gradle vers la version 9.0 par défaut, suppression du support des classes config legacy.
Guide de démarrage avec Quarkus et A2A Java SDK 0.3.0 (pour faire discuter des agents IA avec la dernière version du protocole A2A) https://quarkus.io/blog/quarkus-a2a-java-0-3-0-alpha-release/
- Sortie de lâA2A Java SDK 0.3.0.Alpha1, aligné avec la spécification A2A v0.3.0.
- Protocole A2A : standard ouvert (Linux Foundation), permet la communication inter-agents IA polyglottes. Version 0.3.0 plus stable, introduit le support gRPC.
- Mises à jour générales : changements significatifs, expérience utilisateur améliorée (côté client et serveur).
- Agents serveur A2A :
- Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir.
- Implémentations basées sur Quarkus (alternatives Jakarta existent).
- Dépendances spécifiques pour chaque transport (ex :
a2a-java-sdk-reference-jsonrpc,a2a-java-sdk-reference-grpc). - AgentCard : décrit les capacités de lâagent. Doit spécifier le point dâaccès primaire et tous les transports supportés (
additionalInterfaces).
- Clients A2A :
- Dépendance principale :
a2a-java-sdk-client. - Support gRPC ajouté (en plus de JSON-RPC). HTTP+JSON/REST à venir.
- Dépendance spécifique pour gRPC :
a2a-java-sdk-client-transport-grpc. - Création de client : via
ClientBuilder. Sélectionne automatiquement le transport selon lâAgentCard et la configuration client. Permet de spécifier les transports supportés par le client (withTransport).
- Dépendance principale :
Comment générer et éditer des images en Java avec Nano Banana, le âphotoshop killerâ de Google https://glaforge.dev/posts/2025/09/09/calling-nano-banana-from-java/
- Objectif : Intégrer le modèle Nano Banana (Gemini 2.5 Flash Image preview) dans des applications Java.
- SDK utilisé : GenAI Java SDK de Google.
- Compatibilité : Supporté par ADK for Java ; pas encore par LangChain4j (limitation de multimodalité de sortie).
- Capacités de Nano Banana :
- Créer de nouvelles images.
- Modifier des images existantes.
- Assembler plusieurs images.
- Mise en Åuvre Java :
- Quelle dépendance utiliser
- Comment sâauthentifier
- Comment configurer le modèle
- Nature du modèle : Nano Banana est un modèle de chat qui peut retourner du texte et une image (pas simplement juste un modèle générateur dâimage)
- Exemples dâutilisation :
- Création : Via un simple prompt textuel.
- Modification : En passant lâimage existante (tableau de bytes) et les instructions de modification (prompt).
- Assemblage : En passant plusieurs images (en bytes) et les instructions dâintégration (prompt).
- Message clé : Toutes ces fonctionnalités sont accessibles en Java, sans nécessiter Python.
Générer des vidéos IA avec le modèle Veo 3, mais en Java ! https://glaforge.dev/posts/2025/09/10/generating-videos-in-java-with-veo3/
- Génération de vidéos en Java avec Veo 3 (via le GenAI Java SDK de Google).
- Veo 3: Annoncé comme GA, prix réduits, support du format 9:16, résolution jusquâà 1080p.
- Création de vidéos :
- Ã partir dâune invite textuelle (prompt).
- Ã partir dâune image existante.
- Deux versions différentes du modèle :
veo-3.0-generate-001(qualité supérieure, plus coûteux, plus lent).veo-3.0-fast-generate-001(qualité inférieure, moins coûteux, mais plus rapide).
Rod Johnson sur ecrire des applications agentic en Java plus facilement quâen python avec Embabel https://medium.com/@springrod/you-can-build-better-ai-agents-in-java-than-python-868eaf008493
- Rod the papa de Spring réécrit un exemple CrewAI (Python) qui génère un livre en utilisant Embabel (Java) pour démontrer la supériorité de Java.
- Lâapplication utilise plusieurs agents AI spécialisés : un chercheur, un planificateur de livre et des rédacteurs de chapitres.
- Le processus suit trois étapes : recherche du sujet, création du plan, rédaction parallèle des chapitres puis assemblage.
- CrewAI souffre de plusieurs problèmes : configuration lourde, manque de type safety, utilisation de clés magiques dans les prompts.
- La version Embabel nécessite moins de code Java que lâoriginal Python et moins de fichiers de configuration YAML.
- Embabel apporte la type safety complète, éliminant les erreurs de frappe dans les prompts et améliorant lâoutillage IDE.
- La gestion de la concurrence est mieux contrôlée en Java pour éviter les limites de débit des APIs LLM.
- Lâintégration avec Spring permet une configuration externe simple des modèles LLM et hyperparamètres.
- Le planificateur Embabel détermine automatiquement lâordre dâexécution des actions basé sur leurs types requis.
- Lâargument principal : lâécosystème JVM offre un meilleur modèle de programmation et accès à la logique métier existante que Python.
- Il y a pas mal de nouveaux frameworks agentic en Java, notamment le dernier Langchain4j Agentic.
Spring lance un serie de blog posts sur les nouveautés de Spring Boot 4 https://spring.io/blog/2025/09/02/road_to_ga_introduction
- Baseline JDK 17.
- Mais rebase sur Jakarta 11.
- Kotlin 2, Jackson 3 et JUnit 6.
- Fonctionnalités de résilience principales de Spring :
@ConcurrencyLimit,@Retryable,RetryTemplate. - Versioning dâAPI dans Spring.
- Améliorations du client de service HTTP.
- Lâétat des clients HTTP dans Spring.
- Introduction du support Jackson 3 dans Spring.
- Consommateur partagé : les queues Kafka dans Spring Kafka.
- Modularisation de Spring Boot.
- Autorisation progressive dans Spring Security.
- Spring gRPC - un nouveau module Spring Boot.
- Applications null-safe avec Spring Boot 4.
- OpenTelemetry avec Spring Boot.
- Repos Ahead of Time (Partie 2).
Web
Faire de la recherche sémantique directement dans le navigateur en local, avec EmbeddingGemma et Transformers.js https://glaforge.dev/posts/2025/09/08/in-browser-semantic-search-with-embeddinggemma/
- EmbeddingGemma : Nouveau modèle dâembedding (308M paramètres) de Google DeepMind.
- Objectif : Permettre la recherche sémantique directement dans le navigateur.
- Avantages clés de lâIA côté client :
- Confidentialité : Aucune donnée envoyée à un serveur.
- Coûts réduits : Pas besoin de serveurs coûteux (GPU), hébergement statique.
- Faible latence : Traitement instantané sans allers-retours réseau.
- Fonctionnement hors ligne : Possible après le chargement initial du modèle.
- Technologie principale :
- Modèle : EmbeddingGemma (petit, performant, multilingue, support MRL pour réduire la taille des vecteurs).
- Moteur dâinférence : Transformers.js de HuggingFace (exécute les modèles AI en JavaScript dans le navigateur).
- Déploiement : Site statique avec Vite/React/Tailwind CSS, déployé sur Firebase Hosting via GitHub Actions.
- Gestion du modèle : Fichiers du modèle trop lourds pour Git; téléchargés depuis HuggingFace Hub pendant le CI/CD.
- Fonctionnement de lâapp : Charge le modèle, génère des embeddings pour requêtes/documents, calcule la similarité sémantique.
- Conclusion : Démonstration dâune recherche sémantique privée, économique et sans serveur, soulignant le potentiel de lâIA embarquée dans le navigateur.
Data et Intelligence Artificielle
Docker lance cagent
https://github.com/docker/cagent
- Une sorte de framework multi-agent IA utilisant des LLMs externes, des modèles de Docker Model Runner, avec le Docker MCP Toolkit.
- Il propose un format YAML pour décrire les agents dâun système multi-agents.
- Des agents âprompt drivenâ (pas de code).
- Et une structure pour décrire comment ils sont déployés.
- Pas clair comment ils sont appelés à part dans la ligne de commande de
cagent. - Fait par David Gageot.
LâOWASP décrit lâindependance excessive des LLM comme une vulnérabilité https://genai.owasp.org/llmrisk2023-24/llm08-excessive-agency/
- Lâagence excessive désigne la vulnérabilité qui permet aux systèmes LLM dâeffectuer des actions dommageables via des sorties inattendues ou ambiguës.
- Elle résulte de trois causes principales : fonctionnalités excessives, permissions excessives ou autonomie excessive des agents LLM.
- Les fonctionnalités excessives incluent lâaccès à des plugins qui offrent plus de capacités que nécessaire, comme un plugin de lecture qui peut aussi modifier ou supprimer.
- Les permissions excessives se manifestent quand un plugin accède aux systèmes avec des droits trop élevés, par exemple un accès en lecture qui inclut aussi lâécriture.
- Lâautonomie excessive survient quand le système effectue des actions critiques sans validation humaine préalable.
- Un scénario dâattaque typique : un assistant personnel avec accès email peut être manipulé par injection de prompt pour envoyer du spam via la boîte de lâutilisateur.
- La prévention implique de limiter strictement les plugins aux fonctions minimales nécessaires pour lâopération prévue.
- Il faut éviter les fonctions ouvertes comme âexécuter une commande shellâ au profit dâoutils plus granulaires et spécifiques.
- Lâapplication du principe de moindre privilège est cruciale : chaque plugin doit avoir uniquement les permissions minimales requises.
- Le contrôle humain dans la boucle reste essentiel pour valider les actions à fort impact avant leur exécution.
Lancement du MCP registry, une sorte de méta-annuaire officiel pour référencer les serveurs MCP https://www.marktechpost.com/2025/09/09/mcp-team-launches-the-preview-version-of-the-mcp-registry-a-federated-discovery-layer-for-enterprise-ai/
- **MCP Registry ** : Couche de découverte fédérée pour lâIA dâentreprise.
- Fonctionne comme le DNS pour le contexte de lâIA, permettant la découverte de serveurs MCP publics ou privés.
- Modèle fédéré : Ãvite les risques de sécurité et de conformité dâun registre monolithique.
- Permet des sous-registres privés tout en conservant une source de vérité âupstreamâ.
- Avantages pour les entreprises :
- Découverte interne sécurisée.
- Gouvernance centralisée des serveurs externes.
- Réduction de la prolifération des contextes.
- Support pour les agents IA hybrides (données privées/publiques).
- Projet open source, actuellement en version preview.
- Blog post officiel : https://blog.modelcontextprotocol.io/posts/2025-09-08-mcp-registry-preview/
Exploration des internals du transaction log SQL Server https://debezium.io/blog/2025/09/08/sqlserver-tx-log/
- Câest un article pour les rageux qui veulent savoir comment SQLServer marche à lâinterieur.
- Debezium utilise actuellement les change tables de SQL Server CDC en polling périodique.
- Lâarticle explore la possibilité de parser directement le transaction log pour améliorer les performances.
- Le transaction log est divisé en Virtual Log Files (VLFs) utilisés de manière circulaire.
- Chaque VLF contient des blocs (512B Ã 60KB) qui contiennent les records de transactions.
- Chaque record a un Log Sequence Number (LSN) unique pour lâidentifier précisément.
- Les données sont stockées dans des pages de 8KB avec header de 96 bytes et offset array.
- Les tables sont organisées en partitions et allocation units pour gérer lâespace disque.
- Lâutilitaire DBCC permet dâexplorer la structure interne des pages et leur contenu.
- Cette compréhension pose les bases pour parser programmatiquement le transaction log dans un prochain article.
Outillage
Les personnalités des codeurs des différents LLMs https://www.sonarsource.com/blog/the-coding-personalities-of-leading-llms-gpt-5-update/
- GPT-5 minimal ne détrône pas Claude Sonnet 4 comme leader en performance fonctionnelle malgré ses 75% de réussite.
- GPT-5 génère un code extrêmement verbeux avec 490 000 lignes contre 370 000 pour Claude Sonnet 4 sur les mêmes tâches.
- La complexité cyclomatique et cognitive du code GPT-5 est dramatiquement plus élevée que tous les autres modèles.
- GPT-5 introduit 3,90 problèmes par tâche réussie contre seulement 2,11 pour Claude Sonnet 4.
- Point fort de GPT-5 : sécurité exceptionnelle avec seulement 0,12 vulnérabilité par 1000 lignes de code.
- Faiblesse majeure : densité très élevée de âcode smellsâ (25,28 par 1000 lignes) nuisant à la maintenabilité.
- GPT-5 produit 12% de problèmes liés à la complexité cognitive, le taux le plus élevé de tous les modèles.
- Tendance aux erreurs logiques fondamentales avec 24% de bugs de type âControl-flow mistakeâ.
- Réapparition de vulnérabilités classiques comme les failles dâinjection et de traversée de chemin.
- Nécessité dâune gouvernance renforcée avec analyse statique obligatoire pour gérer la complexité du code généré.
Pourquoi jâai abandonné Docker pour Podman https://codesmash.dev/why-i-ditched-docker-for-podman-and-you-should-too
- Problème Docker : Le daemon
dockerdpersistant sâexécute avec des privilèges root, posant des risques de sécurité (nombreuses CVEs citées) et consommant des ressources inutilement. - Solution Podman :
- Sans Daemon : Pas de processus dâarrière-plan persistant. Les conteneurs sâexécutent comme des processus enfants de la commande Podman, sous les privilèges de lâutilisateur.
- Sécurité Renforcée : Réduction de la surface dâattaque. Une évasion de conteneur compromet un utilisateur non privilégié sur lâhôte, pas le système entier. Mode
rootless. - Fiabilité Accrue : Pas de point de défaillance unique ; le crash dâun conteneur nâaffecte pas les autres.
- Moins de Ressources : Pas de daemon constamment actif, donc moins de mémoire et de CPU.
- Fonctionnalités Clés de Podman :
- Intégration Systemd : Génération automatique de fichiers dâunité
systemdpour gérer les conteneurs comme des services Linux standards. - Alignement Kubernetes : Support natif des pods et capacité à générer des fichiers
Kubernetes YAMLdirectement (podman generate kube), facilitant le développement local pour K8s. - Philosophie Unix : Se concentre sur lâexécution des conteneurs, délègue les tâches spécialisées à des outils dédiés (ex : Buildah pour la construction dâimages, Skopeo pour leur gestion).
- Intégration Systemd : Génération automatique de fichiers dâunité
- Migration Facile :
- CLI compatible Docker :
podmanutilise les mêmes commandes quedocker(alias docker=podmanfonctionne). - Les Dockerfiles existants sont directement utilisables.
- Améliorations incluses : Sécurité par défaut (ports privilégiés en mode rootless), meilleure gestion des permissions de volume, API Docker compatible optionnelle.
- Option de convertir Docker Compose en Kubernetes YAML.
- CLI compatible Docker :
- Bénéfices en Production : Sécurité améliorée, utilisation plus propre des ressources. Podman représente une évolution plus sécurisée et mieux alignée avec les pratiques modernes de gestion Linux et de déploiement de conteneurs.
- Guide Pratique (Exemple FastAPI) :
- Le
Dockerfilene change pas. podman buildetpodman runremplacent directement les commandes Docker.- Déploiement en production via Systemd.
- Gestion dâapplications multi-services avec les âpodsâ Podman.
- Compatibilité Docker Compose via
podman-composeoukompose.
- Le
Détection améliorée des APIs vulnérables dans les IDEs JetBrains et Qodana https://blog.jetbrains.com/idea/2025/09/enhanced-vulnerable-api-detection-in-jetbrains-ides-and-qodana/
- JetBrains sâassocie avec Mend.io pour renforcer la sécurité du code dans leurs outils.
- Le plugin Package Checker bénéficie de nouvelles données enrichies sur les APIs vulnérables.
- Analyse des graphes dâappels pour couvrir plus de méthodes publiques des bibliothèques open-source.
- Support de Java, Kotlin, C#, JavaScript, TypeScript et Python pour la détection de vulnérabilités.
- Activation des inspections via Paramètres > Editor > Inspections en recherchant âVulnerable APIâ.
- Surlignage automatique des méthodes vulnérables avec détails des failles au survol.
- Action contextuelle pour naviguer directement vers la déclaration de dépendance problématique.
- Mise à jour automatique vers une version non affectée via Alt+Enter sur la dépendance.
- Fenêtre dédiée âVulnerable Dependenciesâ pour voir lâétat global des vulnérabilités du projet.
Méthodologies
Le retour de du sondage de Stack Overflow sur lâusage de lâIA dans le code https://medium.com/@amareshadak/stack-overflow-just-exposed-the-ugly-truth-about-ai-coding-tools-b4f7b5992191
- 84% des développeurs utilisent lâIA quotidiennement, mais 46% ne font pas confiance aux résultats. Seulement 3,1% font âhautement confianceâ au code généré.
- 66% sont frustrés par les solutions IA âpresque correctesâ. 45% disent que déboguer le code IA prend plus de temps que lâécrire soi-même.
- Les développeurs seniors (10+ ans) font moins confiance à lâIA (2,6%) que les débutants (6,1%), créant un écart de connaissances dangereux.
- Les pays occidentaux montrent moins de confiance - Allemagne (22%), UK (23%), USA (28%) - que lâInde (56%). Les créateurs dâoutils IA leur font moins confiance.
- 77% des développeurs professionnels rejettent la programmation en langage naturel, seuls 12% lâutilisent réellement.
- Quand lâIA échoue, 75% se tournent vers les humains. 35% des visites Stack Overflow concernent maintenant des problèmes liés à lâIA.
- 69% rapportent des gains de productivité personnels, mais seulement 17% voient une amélioration de la collaboration dâéquipe.
- Coûts cachés : temps de vérification, explication du code IA aux équipes, refactorisation et charge cognitive constante.
- Les plateformes humaines dominent encore : Stack Overflow (84%), GitHub (67%), YouTube (61%) pour résoudre les problèmes IA.
- Lâavenir suggère un âdéveloppement augmentéâ où lâIA devient un outil parmi dâautres, nécessitant transparence et gestion de lâincertitude.
Mentorat open source et défis communautaires par les gens de Microcks https://microcks.io/blog/beyond-code-open-source-mentorship/
- Microcks souffre du syndrome des âutilisateurs silencieuxâ qui bénéficient du projet sans contribuer.
- Malgré des milliers de téléchargements et une adoption croissante, lâengagement communautaire reste faible.
- Ce manque dâinteraction crée des défis de durabilité et limite lâinnovation du projet.
- Les mainteneurs développent dans le vide sans feedback des vrais utilisateurs.
- Contribuer ne nécessite pas de coder : documentation, partage dâexpérience, signalement de bugs suffisent.
- Parler du project quâon aime autour de soi est aussi super utile.
- Microcks a aussi des questions specifiques quâils ont posé dans le blog, donc si vous lâutilisez, aller voir.
- Le succès de lâopen source dépend de la transformation des utilisateurs en véritables partenaires communautaires.
- Câest un point assez commun je trouve, le ratio parlant / silencieux est tres petit et cela encourage les quelques grandes gueules.
La modernisation du systemes legacy, câest pas que de la tech https://blog.scottlogic.com/2025/08/27/holistic-approach-successful-legacy-modernisation.html
- Un article qui prend du recul sur la modernisation de systemes legacy.
- Les projets de modernisation legacy nécessitent une vision holistique au-delà du simple focus technologique.
- Les drivers business diffèrent des projets greenfield : réduction des coûts et mitigation des risques plutôt que génération de revenus.
- Lâétat actuel est plus complexe à cartographier avec de nombreuses dépendances et risques de rupture.
- Collaboration essentielle entre Architectes, Analystes Business et Designers UX dès la phase de découverte.
- Approche tridimensionnelle obligatoire : Personnes, Processus et Technologie (comme un jeu dâéchecs 3D).
- Le leadership doit créer lâespace nécessaire pour la découverte et la planification plutôt que presser lâéquipe.
- Communication en termes business plutôt que techniques vers tous les niveaux de lâorganisation.
- Planification préalable essentielle contrairement aux idées reçues sur lâagilité.
- Séquencement optimal souvent non-évident et nécessitant une analyse approfondie des interdépendances.
- Phases projet alignées sur les résultats business permettent lâagilité au sein de chaque phase.
Sécurité
Cyber Attaque su Musée Histoire Naturelle https://www.franceinfo.fr/internet/securite-sur-internet/cyberattaques/le-museum-national-d-histoire-naturelle-de-paris-victime-d-une-cyberattaque-severe-une-plainte-deposee_7430356.html
Compromission massive de packages npm populaires par un malware crypto https://www.aikido.dev/blog/npm-debug-and-chalk-packages-compromised
- 18 packages npm très populaires compromis le 8 septembre 2025, incluant chalk, debug, ansi-styles avec plus de 2 milliards de téléchargements hebdomadaires combinés.
- duckdb sâest rajouté à la liste.
- Code malveillant injecté qui intercepte silencieusement lâactivité crypto et web3 dans les navigateurs des utilisateurs.
- Le malware manipule les interactions de wallet et redirige les paiements vers des comptes contrôlés par lâattaquant sans signes évidents.
- Injection dans les fonctions critiques comme fetch, XMLHttpRequest et APIs de wallets (window.ethereum, Solana) pour intercepter le trafic.
- Détection et remplacement automatique des adresses crypto sur multiple blockchains (Ethereum, Bitcoin, Solana, Tron, Litecoin, Bitcoin Cash).
- Les transactions sont modifiées en arrière-plan même si lâinterface utilisateur semble correcte et légitime.
- Utilise des adresses âsosiesâ via correspondance de chaînes pour rendre les échanges moins évidents à détecter.
-
Le mainteneur compromis par email de phishing provenant du faux domaine â<mailto:support@npmjs.help support@npmjs.help>â enregistré trois jours avant lâattaque. - sur une demande de mise à jour de son authentication à deux facteurs après un an.
- Aikido a alerté le mainteneur via Bluesky qui a confirmé la compromission et commencé le nettoyage des packages.
- Attaque sophistiquée opérant à plusieurs niveaux : contenu web, appels API et manipulation des signatures de transactions.
Les anti-cheats de jeux vidéo : une faille de sécurité majeure ? https://tferdinand.net/jeux-video-et-si-votre-anti-cheat-etait-la-plus-grosse-faille/
- Les anti-cheats modernes sâinstallent au Ring 0 (noyau système) avec privilèges maximaux.
- Ils obtiennent le même niveau dâaccès que les antivirus professionnels mais sans audit ni certification.
- Certains exploitent Secure Boot pour se charger avant le système dâexploitation.
- Risque de supply chain : le groupe APT41 a déjà compromis des jeux comme League of Legends.
- Un attaquant infiltré pourrait désactiver les solutions de sécurité et rester invisible.
- Menace de stabilité : une erreur peut empêcher le démarrage du système (référence CrowdStrike).
- Conflits possibles entre différents anti-cheats qui se bloquent mutuellement.
- Surveillance en temps réel des données dâutilisation sous prétexte anti-triche.
- Dérive dangereuse selon lâauteur : des entreprises de jeux accèdent au niveau EDR.
- Alternatives limitées : cloud gaming ou sandboxing avec impact sur performances.
- Donc faites gaffe aux jeux que vos gamins installent !
Loi, société et organisation
Luc Julia au Sénat - Monsieur Phi réagi et publie la vidéo Luc Julia au Sénat : autopsie dâun grand NâIMPORTE QUOI https://www.youtube.com/watch?v=e5kDHL-nnh4
- En format podcast de 20 minutes, sorti au même moment et à propos de sa conf à Devoxx https://www.youtube.com/watch?v=Q0gvaIZz1dM.
- Le lab IA - Jérôme Fortias - Et si Luc Julia avait raison https://www.youtube.com/watch?v=KScI5PkCIaE.
- Luc Julia au Senat https://www.youtube.com/watch?v=UjBZaKcTeIY.
- Luc Julia se défend https://www.youtube.com/watch?v=DZmxa7jJ8sI.
- Intelligence artificielle : catastrophe imminente ? - Luc Julia vs Maxime Fournes https://www.youtube.com/watch?v=sCNqGt7yIjo.
- Tech and Co Monsieur Phi vs Luc Julia (put a click) https://www.youtube.com/watch?v=xKeFsOceT44.
- La tronche en biais https://www.youtube.com/live/zFwLAOgY0Wc.
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France)
- 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France)
- 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online
- 22-24 septembre 2025 : Kernel Recipes - Paris (France)
- 22-27 septembre 2025 : La Mélée Numérique - Toulouse (France)
- 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France)
- 23-24 septembre 2025 : AI Engineer Paris - Paris (France)
- 25 septembre 2025 : Agile Game Toulouse - Toulouse (France)
- 25-26 septembre 2025 : Paris Web 2025 - Paris (France)
- 30 septembre 2025-1 octobre 2025 : PyData Paris 2025 - Paris (France)
- 2 octobre 2025 : Nantes Craft - Nantes (France)
- 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France)
- 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France)
- 6-7 octobre 2025 : Swift Connection 2025 - Paris (France)
- 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium)
- 7 octobre 2025 : BSides Mulhouse - Mulhouse (France)
- 7-8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France)
- 8-10 octobre 2025 : SIG 2025 - Paris (France) & Online
- 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France)
- 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France)
- 9-10 octobre 2025 : EuroRust 2025 - Paris (France)
- 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France)
- 16 octobre 2025 : Power 365 - 2025 - Lille (France)
- 16-17 octobre 2025 : DevFest Nantes - Nantes (France)
- 17 octobre 2025 : Sylius Con 2025 - Lyon (France)
- 17 octobre 2025 : ScalaIO 2025 - Paris (France)
- 17-19 octobre 2025 : OpenInfra Summit Europe - Paris (France)
- 20 octobre 2025 : Codeurs en Seine - Rouen (France)
- 23 octobre 2025 : Cloud Nord - Lille (France)
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 5-6 novembre 2025 : Tech Show Paris - Paris (France)
- 5-6 novembre 2025 : Red Hat Summit: Connect Paris 2025 - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 19-21 novembre 2025 : Agile Grenoble - Grenoble (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France)
- 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 9-11 décembre 2025 : APIdays Paris - Paris (France)
- 9-11 décembre 2025 : Green IO Paris - Paris (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 11 décembre 2025 : Normandie.ai 2025 - Rouen (France)
- 14-17 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
- 4 septembre 2026 : JUG Summer Camp 2026 - La Rochelle (France)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 329 - LâIA, ce super stagiaire qui nous fait travailler plus
Posté le 14/08/2025Arnaud et Guillaume explorent lâévolution de lâécosystème Java avec Java 25, Spring Boot et Quarkus, ainsi que les dernières tendances en intelligence artificielle avec les nouveaux modèles comme Grok 4 et Claude Code. Les animateurs font également le point sur lâinfrastructure cloud, les défis MCP et CLI, tout en discutant de lâimpact de lâIA sur la productivité des développeurs et la gestion de la dette technique.
Enregistré le 8 août 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-329.mp3 ou en vidéo sur YouTube.
News
Langages
Java 25: JEP 515 : Profilage de méthode en avance (Ahead-of-Time) https://openjdk.org/jeps/515
- Le JEP 515 a pour but dâaméliorer le temps de démarrage et de chauffe des applications Java.
- Lâidée est de collecter les profils dâexécution des méthodes lors dâune exécution antérieure, puis de les rendre immédiatement disponibles au démarrage de la machine virtuelle.
- Cela permet au compilateur JIT de générer du code natif dès le début, sans avoir à attendre que lâapplication soit en cours dâexécution.
- Ce changement ne nécessite aucune modification du code des applications, des bibliothèques ou des frameworks.
- Lâintégration se fait via les commandes de création de cache AOT existantes.
- Voir aussi https://openjdk.org/jeps/483 et https://openjdk.org/jeps/514.
Java 25: JEP 518 : Ãchantillonnage coopératif JFR https://openjdk.org/jeps/518
- Le JEP 518 a pour objectif dâaméliorer la stabilité et lâévolutivité de la fonction JDK Flight Recorder (JFR) pour le profilage dâexécution.
- Le mécanisme dâéchantillonnage des piles dâappels de threads Java est retravaillé pour sâexécuter uniquement à des safepoints, ce qui réduit les risques dâinstabilité.
- Le nouveau modèle permet un parcours de pile plus sûr, notamment avec le garbage collector ZGC, et un échantillonnage plus efficace qui prend en charge le parcours de pile concurrent.
- Le JEP ajoute un nouvel événement,
SafepointLatency, qui enregistre le temps nécessaire à un thread pour atteindre un safepoint. - Lâapproche rend le processus dâéchantillonnage plus léger et plus rapide, car le travail de création de traces de pile est délégué au thread cible lui-même.
Librairies
Spring Boot 4 M1 https://spring.io/blog/2025/07/24/spring-boot-4-0-0-M1-available-now
- Spring Boot 4.0.0-M1 met à jour de nombreuses dépendances internes et externes pour améliorer la stabilité et la compatibilité.
- Les types annotés avec
@ConfigurationPropertiespeuvent maintenant référencer des types situés dans des modules externes grâce Ã@ConfigurationPropertiesSource. - Le support de lâinformation sur la validité des certificats SSL a été simplifié, supprimant lâétat
WILL_EXPIRE_SOONau profit deVALID. - Lâauto-configuration des métriques Micrometer supporte désormais lâannotation
@MeterTagsur les méthodes annotées@Countedet@Timed, avec évaluation via SpEL. - Le support de
@ServiceConnectionpour MongoDB inclut désormais lâintégration avecMongoDBAtlasLocalContainerde Testcontainers. - Certaines fonctionnalités et API ont été dépréciées, avec des recommandations pour migrer les points de terminaison personnalisés vers les versions Spring Boot 2.
- Les versions milestones et release candidates sont maintenant publiées sur Maven Central, en plus du repository Spring traditionnel.
- Un guide de migration a été publié pour faciliter la transition depuis Spring Boot 3.5 vers la version 4.0.0-M1.
Passage de Spring Boot à Quarkus : retour dâexpérience https://blog.stackademic.com/we-switched-from-spring-boot-to-quarkus-heres-the-ugly-truth-c8a91c2b8c53
- Une équipe a migré une application Java de Spring Boot vers Quarkus pour gagner en performances et réduire la consommation mémoire.
- Lâobjectif était aussi dâoptimiser lâapplication pour le cloud natif.
- La migration a été plus complexe que prévu, notamment à cause de lâincompatibilité avec certaines bibliothèques et dâun écosystème Quarkus moins mature.
- Il a fallu revoir du code et abandonner certaines fonctionnalités spécifiques à Spring Boot.
- Les gains en performances et en mémoire sont réels, mais la migration demande un vrai effort dâadaptation.
- La communauté Quarkus progresse, mais le support reste limité comparé à Spring Boot.
- Conclusion : Quarkus est intéressant pour les nouveaux projets ou ceux prêts à être réécrits, mais la migration dâun projet existant est un vrai défi.
LangChain4j 1.2.0 : Nouvelles fonctionnalités et améliorations https://github.com/langchain4j/langchain4j/releases/tag/1.2.0
- Modules stables : Les modules
langchain4j-anthropic,langchain4j-azure-open-ai,langchain4j-bedrock,langchain4j-google-ai-gemini,langchain4j-mistral-aietlangchain4j-ollamasont désormais en version stable 1.2.0. - Modules expérimentaux : La plupart des autres modules de LangChain4j sont en version 1.2.0-beta8 et restent expérimentaux/instables.
- BOM mis à jour : Le
langchain4j-boma été mis à jour en version 1.2.0, incluant les dernières versions de tous les modules. - Principales améliorations :
- Support du raisonnement/pensée dans les modèles.
- Appels dâoutils partiels en streaming.
- Option MCP pour exposer automatiquement les ressources en tant quâoutils.
- OpenAI : possibilité de définir des paramètres de requête personnalisés et dâaccéder aux réponses HTTP brutes et aux événements SSE.
- Améliorations de la gestion des erreurs et de la documentation.
- Filtering Metadata Infinispan ! (cc Katia)
- Et 1.3.0 est déjà disponible https://github.com/langchain4j/langchain4j/releases/tag/1.3.0.
- Deux nouveaux modules expérimentaux,
langchain4j-agenticetlangchain4j-agentic-a2aqui introduisent un ensemble dâabstractions et dâutilitaires pour construire des applications agentiques.
Infrastructure
Cette fois câest vraiment lâannée de Linux sur le desktop ! https://www.lesnumeriques.com/informatique/c-est-enfin-arrive-linux-depasse-un-seuil-historique-que-microsoft-pensait-intouchable-n239977.html
- Linux a franchi la barre des 5% aux USA.
- Cette progression sâexplique en grande partie par lâessor des systèmes basés sur Linux dans les environnements professionnels, les serveurs, et certains usages grand public.
- Microsoft, longtemps dominant avec Windows, voyait ce seuil comme difficilement atteignable à court terme.
- Le succès de Linux est également alimenté par la popularité croissante des distributions open source, plus légères, personnalisables et adaptées à des usages variés.
- Le cloud, lâIoT, et les infrastructures de serveurs utilisent massivement Linux, ce qui contribue à cette augmentation globale.
- Ce basculement symbolique marque un changement dâéquilibre dans lâécosystème des systèmes dâexploitation.
- Toutefois, Windows conserve encore une forte présence dans certains segments, notamment chez les particuliers et dans les entreprises classiques.
- Cette évolution témoigne du dynamisme et de la maturité croissante des solutions Linux, devenues des alternatives crédibles et robustes face aux offres propriétaires.
Cloud
Cloudflare 1.1.1.1 sâen va pendant une heure dâinternet https://blog.cloudflare.com/cloudflare-1-1-1-1-incident-on-july-14-2025/
- Le 14 juillet 2025, le service DNS public Cloudflare 1.1.1.1 a subi une panne majeure de 62 minutes, rendant le service indisponible pour la majorité des utilisateurs mondiaux.
- Cette panne a aussi causé une dégradation intermittente du service Gateway DNS.
- Lâincident est survenu suite à une mise à jour de la topologie des services Cloudflare qui a activé une erreur de configuration introduite en juin 2025.
- Cette erreur faisait que les préfixes destinés au service 1.1.1.1 ont été accidentellement inclus dans un nouveau service de localisation des données (Data Localization Suite), ce qui a perturbé le routage anycast.
- Le résultat a été une incapacité pour les utilisateurs à résoudre les noms de domaine via 1.1.1.1, rendant la plupart des services Internet inaccessibles pour eux.
- Ce nâétait pas le résultat dâune attaque ou dâun problème BGP, mais une erreur interne de configuration.
- Cloudflare a rapidement identifié la cause, corrigé la configuration et mis en place des mesures pour prévenir ce type dâincident à lâavenir.
- Le service est revenu à la normale après environ une heure dâindisponibilité.
- Lâincident souligne la complexité et la sensibilité des infrastructures anycast et la nécessité dâune gestion rigoureuse des configurations réseau.
Web
Lâévolution des bonnes pratiques de Node.js https://kashw1n.com/blog/nodejs-2025/
- Ãvolution de Node.js en 2025 : Le développement se tourne vers les standards du web, avec moins de dépendances externes et une meilleure expérience pour les développeurs.
- ES Modules (ESM) par défaut : Remplacement de CommonJS pour un meilleur outillage et une standardisation avec le web. Utilisation du préfixe
node:pour les modules natifs afin dâéviter les conflits. - API web intégrées :
fetch,AbortController, etAbortSignalsont maintenant natifs, réduisant le besoin de librairies commeaxios. - Runner de test intégré : Plus besoin de Jest ou Mocha pour la plupart des cas. Inclut un mode âwatchâ et des rapports de couverture.
- Patterns asynchrones avancés : Utilisation plus poussée de
async/awaitavecPromise.all()pour le parallélisme et lesAsyncIteratorspour les flux dâévénements. - Worker Threads pour le parallélisme : Pour les tâches lourdes en CPU, évitant de bloquer lâevent loop principal.
- Expérience de développement améliorée : Intégration du mode
--watch(remplacenodemon) et du support--env-file(remplacedotenv). - Sécurité et performance : Modèle de permission expérimental pour restreindre lâaccès et des hooks de performance natifs pour le monitoring.
- Distribution simplifiée : Création dâexécutables uniques pour faciliter le déploiement dâapplications ou dâoutils en ligne de commande.
Sortie de Apache EChart 6 après 12 ans ! https://echarts.apache.org/handbook/en/basics/release-note/v6-feature/
- Apache ECharts 6.0 : Sortie officielle après 12 ans dâévolution.
- Douze mises à niveau majeures pour la visualisation de données.
- Trois dimensions clés dâamélioration :
- Présentation visuelle plus professionnelle :
- Nouveau thème par défaut (design moderne).
- Changement dynamique de thème.
- Prise en charge du mode sombre.
- Extension des limites de lâexpression des données :
- Nouveaux types de graphiques : Diagramme de cordes (Chord Chart), Nuage de points en essaim (Beeswarm Chart).
- Nouvelles fonctionnalités : Jittering pour nuages de points denses, Axes coupés (Broken Axis).
- Graphiques boursiers améliorés.
- Liberté de composition :
- Nouveau système de coordonnées matriciel.
- Séries personnalisées améliorées (réutilisation du code, publication npm).
- Nouveaux graphiques personnalisés inclus (violon, contour, etc.).
- Optimisation de lâagencement des étiquettes dâaxe.
Data et Intelligence Artificielle
Grok 4 sâest pris pour un nazi à cause des tools https://techcrunch.com/2025/07/15/xai-says-it-has-fixed-grok-4s-problematic-responses/
- à son lancement, Grok 4 a généré des réponses offensantes, notamment en se surnommant « MechaHitler » et en adoptant des propos antisémites.
- Ce comportement provenait dâune recherche automatique sur le web qui a mal interprété un mème viral comme une vérité.
- Grok alignait aussi ses réponses controversées sur les opinions dâElon Musk et de xAI, ce qui a amplifié les biais.
- xAI a identifié que ces dérapages étaient dus à une mise à jour interne intégrant des instructions encourageant un humour offensant et un alignement avec Musk.
- Pour corriger cela, xAI a supprimé le code fautif, remanié les prompts systèmes, et imposé des directives demandant à Grok dâeffectuer une analyse indépendante, en utilisant des sources diverses.
- Grok doit désormais éviter tout biais, ne plus adopter un humour politiquement incorrect, et analyser objectivement les sujets sensibles.
- xAI a présenté ses excuses, précisant que ces dérapages étaient dus à un problème de prompt et non au modèle lui-même.
- Cet incident met en lumière les défis persistants dâalignement et de sécurité des modèles dâIA face aux injections indirectes issues du contenu en ligne.
- La correction nâest pas quâun simple patch technique, mais un exemple des enjeux éthiques et de responsabilité majeurs dans le déploiement dâIA à grande échelle.
Guillaume a sorti toute une série dâarticles sur les patterns agentiques avec le framework ADK pour Java https://glaforge.dev/posts/2025/07/29/mastering-agentic-workflows-with-adk-the-recap/
- Un premier article explique comment découper les tâches en sous-agents IA : https://glaforge.dev/posts/2025/07/23/mastering-agentic-workflows-with-adk-sub-agents/.
- Un deuxième article détaille comment organiser les agents de manière séquentielle : https://glaforge.dev/posts/2025/07/24/mastering-agentic-workflows-with-adk-sequential-agent/.
- Un troisième article explique comment paralleliser des tâches indépendantes : https://glaforge.dev/posts/2025/07/25/mastering-agentic-workflows-with-adk-parallel-agent/.
- Et enfin, comment faire des boucles dâamélioration : https://glaforge.dev/posts/2025/07/28/mastering-agentic-workflows-with-adk-loop-agents/.
- Tout ça évidemment en Java ð.
6 semaines de code avec Claude https://blog.puzzmo.com/posts/2025/07/30/six-weeks-of-claude-code/
- Orta partage son retour après six semaines dâutilisation quotidienne de Claude Code, qui a profondément changé sa manière de coder.
- Il ne «â¯codeâ¯Â» plus vraiment ligne par ligne, mais décrit ce quâil veut, laisse Claude proposer une solution, puis corrige ou ajuste.
- Cela permet de se concentrer sur le résultat plutôt que sur lâimplémentation, comme passer de la peinture au polaroid.
- Claude sâavère particulièrement utile pour les tâches de maintenance : migrations, refactors, nettoyage de code.
- Il reste toujours en contrôle, révise chaque diff généré, et guide lâIA via des prompts bien cadrés.
- Il note quâil faut quelques semaines pour prendre le bon pli : apprendre à découper les tâches et formuler clairement les attentes.
- Les tâches simples deviennent quasi instantanées, mais les tâches complexes nécessitent encore de lâexpérience et du discernement.
- Claude Code est vu comme un très bon copilote, mais ne remplace pas le rôle du développeur qui comprend lâensemble du système.
- Le gain principal est une vitesse de feedback plus rapide et une boucle dâitération beaucoup plus courte.
- Ce type dâoutil pourrait bien redéfinir la manière dont on pense et structure le développement logiciel à moyen terme.
Claude Code et les serveurs MCP : ou comment transformer ton terminal en assistant surpuissant https://touilleur-express.fr/2025/07/27/claude-code-et-les-serveurs-mcp-ou-comment-transformer-ton-terminal-en-assistant-surpuissant/
- Nicolas continue ses études sur Claude Code et explique comment utiliser les serveurs MCP pour rendre Claude bien plus efficace.
- Le MCP Context7 montre comment fournir à lâIA la doc technique à jour (par exemple, Next.js 15) pour éviter les hallucinations ou les erreurs.
- Le MCP Task Master, autre serveur MCP, transforme un cahier des charges (PRD) en tâches atomiques, estimées, et organisées sous forme de plan de travail.
- Le MCP Playwright permet de manipuler des navigateurs et dâexécuter des tests E2E.
- Le MCP Digital Ocean permet de déployer facilement lâapplication en production.
- Tout nâest pas si ideal, les quotas sont atteints en quelques heures sur une petite application et il y a des cas où il reste bien plus efficace de le faire soit-même (pour un codeur expérimenté).
- Nicolas complète cet article avec lâécriture dâun MVP en 20 heures : https://touilleur-express.fr/2025/07/30/comment-jai-code-un-mvp-en-une-vingtaine-dheures-avec-claude-code/.
Le développement augmenté, un avis politiquement correct, mais bon⦠https://touilleur-express.fr/2025/07/31/le-developpement-augmente-un-avis-politiquement-correct-mais-bon/
- Nicolas partage un avis nuancé (et un peu provocant) sur le développement augmenté, où lâIA comme Claude Code assiste le développeur sans le remplacer.
- Il rejette lâidée que cela serait «â¯trop magiqueâ¯Â» ou «â¯trop facileâ¯Â» : câest une évolution logique de notre métier, pas un raccourci pour les paresseux.
- Pour lui, un bon dev reste celui qui structure bien sa pensée, sait poser un problème, découper, valider â même si lâIA aide à coder plus vite.
- Il raconte avoir codé une app OAuth, testée, stylisée et déployée en quelques heures, sans jamais quitter le terminal grâce à Claude.
- Ce genre dâoutillage change le rapport au temps : on passe de «â¯je vais y réfléchirâ¯Â» à «â¯je tente tout de suite une version qui marche à peu prèsâ¯Â».
- Il assume aimer cette approche rapide et imparfaite : Il vaut mieux une version brute livrée vite quâun projet bloqué par le perfectionnisme.
- LâIA est selon lui un super stagiaire : jamais fatigué, parfois à côté de la plaque, mais diablement productif quand bien briefé.
- Il conclut que le «â¯dev augmentéâ¯Â» ne remplace pas les bons développeurs⦠mais les développeurs moyens doivent sây mettre, sous peine dâêtre dépassés.
ChatGPT lance le mode dâétude : un apprentissage interactif pas à pas https://openai.com/index/chatgpt-study-mode/
- OpenAI propose un mode dâétude dans ChatGPT qui guide les utilisateurs pas à pas plutôt que de donner directement la réponse.
- Ce mode vise à encourager la réflexion active et lâapprentissage en profondeur.
- Il utilise des instructions personnalisées pour poser des questions et fournir des explications adaptées au niveau de lâutilisateur.
- Le mode dâétude favorise la gestion de la charge cognitive et stimule la métacognition.
- Il propose des réponses structurées pour faciliter la compréhension progressive des sujets.
- Disponible dès maintenant pour les utilisateurs connectés, ce mode sera intégré dans ChatGPT Edu.
- Lâobjectif est de transformer ChatGPT en un véritable tuteur numérique, aidant les étudiants à mieux assimiler les connaissances.
- à priori Gemini viendrait de sortir une fonctionnalité similaire.
Lancement de GPT-OSS par OpenAI https://openai.com/index/introducing-gpt-oss/, https://openai.com/index/gpt-oss-model-card/
- OpenAI a lancé GPT-OSS, sa première famille de modèles open-weight depuis GPT-2.
- Deux modèles sont disponibles :
gpt-oss-120betgpt-oss-20b, qui sont des modèles mixtes dâexperts conçus pour le raisonnement et les tâches dâagent. - Les modèles sont distribués sous licence Apache 2.0, permettant leur utilisation et leur personnalisation gratuites, y compris pour des applications commerciales.
- Le modèle
gpt-oss-120best capable de performances proches du modèle OpenAIo4-mini, tandis que legpt-oss-20best comparable auo3-mini. - OpenAI a également open-sourcé un outil de rendu appelé Harmony en Python et Rust pour en faciliter lâadoption.
- Les modèles sont optimisés pour fonctionner localement et sont pris en charge par des plateformes comme Hugging Face et Ollama.
- OpenAI a mené des recherches sur la sécurité pour sâassurer que les modèles ne pouvaient pas être affinés pour des utilisations malveillantes dans les domaines biologique, chimique ou cybernétique.
Anthropic lance Opus 4.1 https://www.anthropic.com/news/claude-opus-4-1
- Anthropic a publié Claude Opus 4.1, une mise à jour de son modèle de langage.
- Cette nouvelle version met lâaccent sur lâamélioration des performances en codage, en raisonnement et sur les tâches de recherche et dâanalyse de données.
- Le modèle a obtenu un score de 74,5 % sur le benchmark SWE-bench Verified, ce qui représente une amélioration par rapport à la version précédente.
- Il excelle notamment dans la refactorisation de code multi-fichiers et est capable dâeffectuer des recherches approfondies.
- Claude Opus 4.1 est disponible pour les utilisateurs payants de Claude, ainsi que via lâAPI, Amazon Bedrock et Vertex AI de Google Cloud, avec des tarifs identiques à ceux dâOpus 4.
- Il est présenté comme un remplacement direct de Claude Opus 4, avec des performances et une précision supérieures pour les tâches de programmation réelles.
OpenAI Summer Update. GPT-5 is out https://openai.com/index/introducing-gpt-5/
- Détails
- Amélioration majeure des capacités cognitives - GPTâ5 montre un niveau de raisonnement, dâabstraction et de compréhension nettement supérieur aux modèles précédents.
- Deux variantes principales -
gpt-5-main: rapide, efficace pour les tâches générales.gpt-5-thinking: plus lent, mais spécialisé dans les tâches complexes, nécessitant réflexion profonde. - Routeur intelligent intégré - Le système sélectionne automatiquement la version la plus adaptée à la tâche (rapide ou réfléchie), sans intervention de lâutilisateur.
- Fenêtre de contexte encore étendue - GPTâ5 peut traiter des volumes de texte plus longs (jusquâà 1 million de tokens dans certaines versions), utile pour des documents ou projets entiers.
- Réduction significative des hallucinations - GPTâ5 donne des réponses plus fiables, avec moins dâerreurs inventées ou de fausses affirmations.
- Comportement plus neutre et moins sycophant - Il a été entraîné pour mieux résister à lâalignement excessif avec les opinions de lâutilisateur.
- Capacité accrue à suivre des instructions complexes - GPTâ5 comprend mieux les longues consignes, implicites ou nuancées.
- Approche âSafe completionsâ - Remplacement des ârefus dâexécutionâ par des réponses utiles, mais sûres â le modèle essaie de répondre avec prudence plutôt que bloquer.
- Prêt pour un usage professionnel à grande échelle - Optimisé pour le travail en entreprise : rédaction, programmation, synthèse, automatisation, gestion de tâches, etc.
- Améliorations spécifiques pour le codage - GPTâ5 est plus performant pour lâécriture de code, la compréhension de contextes logiciels complexes, et lâusage dâoutils de développement.
- Expérience utilisateur plus rapide et fluide - Le système réagit plus vite grâce à une orchestration optimisée entre les différents sous-modèles.
- Capacités agentiques renforcées - GPTâ5 peut être utilisé comme base pour des agents autonomes capables dâaccomplir des objectifs avec peu dâinterventions humaines.
- Multimodalité maîtrisée (texte, image, audio) - GPTâ5 intègre de façon plus fluide la compréhension de formats multiples, dans un seul modèle.
- Fonctionnalités pensées pour les développeurs - Documentation plus claire, API unifiée, modèles plus transparents et personnalisables.
- Personnalisation contextuelle accrue - Le système sâadapte mieux au style, ton ou préférences de lâutilisateur, sans instructions répétées.
- Utilisation énergétique et matérielle optimisée - Grâce au routeur interne, les ressources sont utilisées plus efficacement selon la complexité des tâches.
- Intégration sécurisée dans les produits ChatGPT - Déjà déployé dans ChatGPT avec des bénéfices immédiats pour les utilisateurs Pro et entreprises.
- Modèle unifié pour tous les usages - Un seul système capable de passer de la conversation légère à des analyses scientifiques ou du code complexe.
- Priorité à la sécurité et à lâalignement - GPTâ5 a été conçu dès le départ pour minimiser les abus, biais ou comportements indésirables.
- Pas encore une AGI - OpenAI insiste : malgré ses capacités impressionnantes, GPTâ5 nâest pas une intelligence artificielle générale.
Non, non, les juniors ne sont pas obsolètes malgré lâIA ! (dixit GitHub) https://github.blog/ai-and-ml/generative-ai/junior-developers-arent-obsolete-heres-how-to-thrive-in-the-age-of-ai/
- LâIA transforme le développement logiciel, mais les développeurs juniors ne sont pas obsolètes.
- Les nouveaux apprenants sont bien positionnés, car déjà familiers avec les outils IA.
- Lâobjectif est de développer des compétences pour travailler avec lâIA, pas dâêtre remplacé.
- La créativité et la curiosité sont des qualités humaines clés.
- Cinq façons de se démarquer :
- Utiliser lâIA (ex : GitHub Copilot) pour apprendre plus vite, pas seulement coder plus vite (ex : mode tuteur, désactiver lâautocomplétion temporairement).
- Construire des projets publics démontrant ses compétences (y compris en IA).
- Maîtriser les workflows GitHub essentiels (GitHub Actions, contribution open source, pull requests).
- Affûter son expertise en révisant du code (poser des questions, chercher des patterns, prendre des notes).
- Déboguer plus intelligemment et rapidement avec lâIA (ex : Copilot Chat pour explications, corrections, tests).
Ecrire son premier agent IA avec A2A avec WildFly par Emmanuel Hugonnet https://www.wildfly.org/news/2025/08/07/Building-your-First-A2A-Agent/
- Protocole Agent2Agent (A2A) : Standard ouvert pour lâinteropérabilité universelle des agents IA.
- Permet communication et collaboration efficaces entre agents de différents fournisseurs/frameworks.
- Crée des écosystèmes multi-agents unifiés, automatisant les workflows complexes.
- Objet de lâarticle : Guide pour construire un premier agent A2A (agent météo) dans WildFly.
- Utilise A2A Java SDK pour Jakarta Servers, WildFly AI Feature Pack, un LLM (Gemini) et un outil Python (MCP).
- Agent conforme A2A v0.2.5.
- Prérequis : JDK 17+, Apache Maven 3.8+, IDE Java, Google AI Studio API Key, Python 3.10+,
uv. - Ãtapes de construction de lâagent météo :
- Création du service LLM : Interface Java (
WeatherAgent) utilisant LangChain4J pour interagir avec un LLM et un outil Python MCP (fonctionsget_alerts,get_forecast).
- Création du service LLM : Interface Java (
- Définition de lâagent A2A (via CDI) :
- âªï¸ Agent Card : Fournit les métadonnées de lâagent (nom, description, URL, capacités, compétences comme âweather_searchâ).
- Agent Executor : Gère les requêtes A2A entrantes, extrait le message utilisateur, appelle le service LLM et formate la réponse.
- Exposition de lâagent : Enregistrement dâune application JAX-RS pour les endpoints.
- Déploiement et test :
- Configuration de lâoutil
A2A-inspectorde Google (via un conteneur Podman). - Construction du projet Maven, configuration des variables dâenvironnement (ex :
GEMINI_API_KEY). - Lancement du serveur WildFly.
- Configuration de lâoutil
- Conclusion : Transformation minimale dâune application IA en agent A2A.
- Permet la collaboration et le partage dâinformations entre agents IA, indépendamment de leur infrastructure sous-jacente.
Outillage
IntelliJ IDEA bouge vers une distribution unifiée https://blog.jetbrains.com/idea/2025/07/intellij-idea-unified-distribution-plan/
- à partir de la version 2025.3, IntelliJ IDEA Community Edition ne sera plus distribuée séparément.
- Une seule version unifiée dâIntelliJ IDEA regroupera les fonctionnalités des éditions Community et Ultimate.
- Les fonctionnalités avancées de lâédition Ultimate seront accessibles via abonnement.
- Les utilisateurs sans abonnement auront accès à une version gratuite enrichie par rapport à lâédition Community actuelle.
- Cette unification vise à simplifier lâexpérience utilisateur et réduire les différences entre les éditions.
- Les utilisateurs Community seront automatiquement migrés vers cette nouvelle version unifiée.
- Il sera possible dâactiver les fonctionnalités Ultimate temporairement dâun simple clic.
- En cas dâexpiration dâabonnement Ultimate, lâutilisateur pourra continuer à utiliser la version installée avec un jeu limité de fonctionnalités gratuites, sans interruption.
- Ce changement reflète lâengagement de JetBrains envers lâopen source et lâadaptation aux besoins de la communauté.
Prise en charge des Ancres YAML dans GitHub Actions https://github.com/actions/runner/issues/1182#issuecomment-3150797791
- Afin dâéviter de dupliquer du contenu dans un workflow les Ancres permettent dâinsérer des morceaux réutilisables de YAML.
- Fonctionnalité attendue depuis des années et disponible chez GitLab depuis bien longtemps. Elle a été déployée le 4 aout.
- Attention à ne pas en abuser, car la lisibilité de tels documents nâest pas si facile.
Gemini CLI rajoute les custom commands comme Claude https://cloud.google.com/blog/topics/developers-practitioners/gemini-cli-custom-slash-commands
- Mais elles sont au format TOML, on ne peut donc pas les partager avec Claude ð.
Automatiser ses workflows IA avec les hooks de Claude Code https://blog.gitbutler.com/automate-your-ai-workflows-with-claude-code-hooks/
- Claude Code propose des hooks qui permettent dâexécuter des scripts à différents moments dâune session, par exemple au début, lors de lâutilisation dâoutils, ou à la fin.
- Ces hooks facilitent lâautomatisation de tâches comme la gestion de branches Git, lâenvoi de notifications, ou lâintégration avec dâautres outils.
- Un exemple simple est lâenvoi dâune notification sur le bureau à la fin dâune session.
- Les hooks se configurent via trois fichiers JSON distincts selon le scope : utilisateur, projet ou local.
- Sur macOS, lâenvoi de notifications nécessite une permission spécifique via lâapplication âScript Editorâ.
- Il est important dâavoir une version à jour de Claude Code pour utiliser ces hooks.
- GitButler permet desormais de sâintégrer à Claude Code via ces hooks: https://blog.gitbutler.com/parallel-claude-code/.
Le client Git de Jetbrains bientot en standalone https://lp.jetbrains.com/closed-preview-for-jetbrains-git-client/
- Demandé par certains utilisateurs depuis longtemps
- Ca serait un client graphique du même style quâun GitButler, SourceTree, etc
Apache Maven 4 â¦. arrive â¦. lâutilitaire mvnupva vous aider à upgrader
https://maven.apache.org/tools/mvnup.html
- Fixe les incompatibilités connues.
- Nettoie les redondances et valeurs par defaut (versions par ex) non utiles pour Maven 4.
- Reformattage selon les conventions maven.
Une GitHub Action pour Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-github-actions/
- Google a lancé Gemini CLI GitHub Actions, un agent dâIA qui fonctionne comme un âcoéquipier de codeâ pour les dépôts GitHub.
- Lâoutil est gratuit et est conçu pour automatiser des tâches de routine telles que le triage des problèmes (issues), lâexamen des demandes de tirage (pull requests) et dâautres tâches de développement.
- Il agit à la fois comme un agent autonome et un collaborateur que les développeurs peuvent solliciter à la demande, notamment en le mentionnant dans une issue ou une pull request.
- Lâoutil est basé sur la CLI Gemini, un agent dâIA open-source qui amène le modèle Gemini directement dans le terminal.
- Il utilise lâinfrastructure GitHub Actions, ce qui permet dâisoler les processus dans des conteneurs séparés pour des raisons de sécurité.
- Trois flux de travail (workflows) open-source sont disponibles au lancement : le triage intelligent des issues, lâexamen des pull requests et la collaboration à la demande.
Pas besoin de MCP, le code est tout ce dont vous avez besoin https://lucumr.pocoo.org/2025/7/3/tools/
- Armin souligne quâil nâest pas fan du protocole MCP (Model Context Protocol) dans sa forme actuelle : il manque de composabilité et exige trop de contexte.
- Il remarque que pour une même tâche (ex. GitHub), utiliser le CLI est souvent plus rapide et plus efficace en termes de contexte que passer par un serveur MCP.
- Selon lui, le code reste la solution la plus simple et fiable, surtout pour automatiser des tâches répétitives.
- Il préfère créer des scripts clairs plutôt que se reposer sur lâinférence LLM : cela facilite la vérification, la maintenance et évite les erreurs subtiles.
- Pour les tâches récurrentes, si on les automatise, il vaut mieux le faire avec du code réutilisable, plutôt que de laisser lâIA deviner à chaque fois.
- Il illustre cela en convertissant son blog entier de reStructuredText à Markdown : plutôt quâun usage direct dâIA, il a demandé à Claude de générer un script complet, avec parsing AST, comparaison des fichiers, validation et itération.
- Ce workflow LLMâcodeâLLM (analyse et validation) lui a donné confiance dans le résultat final, tout en conservant un contrôle humain sur le processus.
- Il juge que MCP ne permet pas ce type de pipeline automatisé fiable, car il introduit trop dâinférence et trop de variations par appel.
- Pour lui, coder reste le meilleur moyen de garder le contrôle, la reproductibilité et la clarté dans les workflows automatisés.
MCP vs CLI ⦠https://www.async-let.com/blog/my-take-on-the-mcp-verses-cli-debate/
- Cameron raconte son expérience de création du serveur XcodeBuildMCP, qui lui a permis de mieux comprendre le débat entre servir lâIA via MCP ou laisser lâIA utiliser directement les CLI du système.
- Selon lui, les CLIs restent préférables pour les développeurs experts recherchant contrôle, transparence, performance et simplicité.
- Mais les serveurs MCP excellent sur les workflows complexes, les contextes persistants, les contraintes de sécurité, et facilitent lâaccès pour les utilisateurs moins expérimentés.
- Il reconnaît la critique selon laquelle MCP consomme trop de contexte («â¯context bloatâ¯Â») et que les appels CLI peuvent être plus rapides et compréhensibles.
- Toutefois, il souligne que beaucoup de problèmes proviennent de la qualité des implémentations clients, pas du protocole MCP en luiâmême.
- Pour lui, un bon serveur MCP peut proposer des outils soigneusement définis qui simplifient la vie de lâIA (par exemple, renvoyer des données structurées plutôt que du texte brut à parser).
- Il apprécie la capacité des MCP à offrir des opérations étatâdurables (sessions, mémoire, logs capturés), ce que les CLI ne gèrent pas naturellement.
- Certains scénarios ne peuvent pas fonctionner via CLI (pas de shell accessible) alors que MCP, en tant que protocole indépendant, reste utilisable par nâimporte quel client.
- Son verdict : pas de solution universelle â chaque contexte mérite dâêtre évalué, et on ne devrait pas imposer MCP ou CLI à tout prix.
Jules, lâagent de code asynchrone gratuit de Google, est sorti de beta et est disponible pour tout le monde https://blog.google/technology/google-labs/jules-now-available/
- Jules, agent de codage asynchrone, est maintenant publiquement disponible.
- Propulsé par Gemini 2.5 Pro.
- Phase bêta : 140 000+ améliorations de code et retours de milliers de développeurs.
- Améliorations : interface utilisateur, corrections de bugs, réutilisation des configurations, intégration GitHub Issues, support multimodal.
- Gemini 2.5 Pro améliore les plans de codage et la qualité du code.
- Nouveaux paliers structurés : Introductif, Google AI Pro (limites 5x supérieures), Google AI Ultra (limites 20x supérieures).
- Déploiement immédiat pour les abonnés Google AI Pro et Ultra, incluant les étudiants éligibles (un an gratuit de AI Pro).
Architecture
Valoriser la réduction de la dette technique : un vrai défi https://www.lemondeinformatique.fr/actualites/lire-valoriser-la-reduction-de-la-dette-technique-mission-impossible-97483.html
- La dette technique est un concept mal compris et difficile à valoriser financièrement auprès des directions générales.
- Les DSI ont du mal à mesurer précisément cette dette, à allouer des budgets spécifiques, et à prouver un retour sur investissement clair.
- Cette difficulté limite la priorisation des projets de réduction de dette technique face à dâautres initiatives jugées plus urgentes ou stratégiques.
- Certaines entreprises intègrent progressivement la gestion de la dette technique dans leurs processus de développement.
- Des approches comme le Software Crafting visent à améliorer la qualité du code pour limiter lâaccumulation de cette dette.
- Lâabsence dâoutils adaptés pour mesurer les progrès rend la démarche encore plus complexe.
- En résumé, réduire la dette technique reste une mission délicate qui nécessite innovation, méthode et sensibilisation en interne.
Il ne faut pas se Mocker ⦠https://martinelli.ch/why-i-dont-use-mocking-frameworks-and-why-you-might-not-need-them-either/ https://blog.tremblay.pro/2025/08/not-using-mocking-frmk.html
- Lâauteur préfère utiliser des fakes ou stubs faits à la main plutôt que des frameworks de mocking comme Mockito ou EasyMock.
- Les frameworks de mocking isolent le code, mais entraînent souventâ¯:
- Un fort couplage entre les tests et les détails dâimplémentation.
- Des tests qui valident le mock plutôt que le comportement réel.
- Deux principes fondamentaux guident son approcheâ¯:
- Favoriser un design fonctionnel, avec logique métier pure (fonctions sans effets de bord).
- Contrôler les données de testâ¯: par exemple en utilisant des bases réelles (via Testcontainers) plutôt que de simuler.
- Dans sa pratique, les seuls cas où un mock externe est utilisé concernent les services HTTP externes, et encore, il préfère en simuler seulement le transport plutôt que le comportement métier.
- Résultatâ¯: les tests deviennent plus simples, plus rapides à écrire, plus fiables, et moins fragiles aux évolutions du code.
- Lâarticle conclut que si tu conçois correctement ton code, tu pourrais très bien ne pas avoir besoin de frameworks de mocking du tout.
- Le blog en réponse dâHenri Tremblay nuance un peu ces retours
Méthodologies
Câest quoi être un bon PM (Product Manager) ? Article de Chris Perry, un PM chez Google : https://thechrisperry.substack.com/p/being-a-good-pm-at-google
- Le rôle de PM est difficile : Un travail exigeant, où il faut être le plus impliqué de lâéquipe pour assurer le succès.
- 1. Livrer (shipper) est tout ce qui compte : La priorité absolue. Il vaut mieux livrer et itérer rapidement que de chercher la perfection en théorie. Un produit livré permet dâapprendre de la réalité.
- 2. Donner lâenvie du grand large : La meilleure façon de faire avancer un projet est dâinspirer lâéquipe avec une vision forte et désirable. Montrer le âpourquoiâ.
- 3. Utiliser son produit tous les jours : Non négociable pour réussir. Permet de développer une intuition et de repérer les vrais problèmes que la recherche utilisateur ne montre pas toujours.
- 4. Ãtre un bon ami : Créer des relations authentiques et aider les autres est un facteur clé de succès à long terme. La confiance est la base dâune exécution rapide.
- 5. Donner plus quâon ne reçoit : Toujours chercher à aider et à collaborer. La stratégie optimale sur la durée est la coopération. Ne pas être possessif avec ses idées.
- 6. Utiliser le bon levier : Pour obtenir une décision, il faut identifier la bonne personne qui a le pouvoir de dire âouiâ, et ne pas se laisser bloquer par des avis non-décisionnaires.
- 7. Nâaller que là où on apporte de la valeur : Combler les manques, faire le travail ingrat que personne ne veut faire. Savoir aussi sâécarter (réunions, projets) quand on nâest pas utile.
- 8. Le succès a plusieurs parents, lâéchec est orphelin : Si le produit réussit, câest un succès dâéquipe. Sâil échoue, câest la faute du PM. Il faut assumer la responsabilité finale.
- Conclusion : Le PM est un chef dâorchestre. Il ne peut pas jouer de tous les instruments, mais son rôle est dâorchestrer avec humilité le travail de tous pour créer quelque chose dâharmonieux.
Tester des applications Spring Boot prêtes pour la production : points clés https://www.wimdeblauwe.com/blog/2025/07/30/how-i-test-production-ready-spring-boot-applications/
- Lâauteur (Wim Deblauwe) détaille comment il structure ses tests dans une application Spring Boot destinée à la production.
- Le projet inclut automatiquement la dépendance
spring-boot-starter-test, qui regroupe JUnit 5, AssertJ, Mockito, Awaitility, JsonAssert, XmlUnit et les outils de testing Spring. - Tests unitaires : ciblent les fonctions pures (record, utilitaire), testés simplement avec JUnit et AssertJ sans démarrage du contexte Spring.
- Tests de cas dâusage (use case) : orchestrent la logique métier, généralement via des use cases qui utilisent un ou plusieurs dépôts de données.
- Tests JPA/repository : vérifient les interactions avec la base via des tests realisant des opérations CRUD (avec un contexte Spring pour la couche persistance).
- Tests de contrôleur : permettent de tester les endpoints web (ex.
@WebMvcTest), souvent avecMockBeanpour simuler les dépendances. - Tests dâintégration complets : ils démarrent tout le contexte Spring (
@SpringBootTest) pour tester lâapplication dans son ensemble. - Lâauteur évoque également des tests dâarchitecture, mais sans entrer dans le détail dans cet article.
- Résultat : une pyramide de tests allant des plus rapides (unitaires) aux plus complets (intégration), garantissant fiabilité, vitesse et couverture sans surcharge inutile.
Sécurité
Bitwarden offre un serveur MCP pour que les agents puissent accéder aux mots de passe https://nerds.xyz/2025/07/bitwarden-mcp-server-secure-ai/
- Bitwarden introduit un serveur MCP (Model Context Protocol) destiné à intégrer de manière sécurisée les agents IA dans les workflows de gestion de mots de passe.
- Ce serveur fonctionne en architecture locale (local-first) : toutes les interactions et les données sensibles restent sur la machine de lâutilisateur, garantissant lâapplication du principe de chiffrement zeroâknowledge.
- Lâintégration se fait via lâinterface CLI de Bitwarden, permettant aux agents IA de générer, récupérer, modifier et verrouiller les identifiants via des commandes sécurisées. Le serveur peut être autoâhébergé pour un contrôle maximal des données.
- Le protocole MCP est un standard ouvert qui permet de connecter de façon uniforme des agents IA à des sources de données et outils tiers, simplifiant les intégrations entre LLM et applications.
- Une démo avec Claude (agent IA dâAnthropic) montre que lâIA peut interagir avec le coffre Bitwarden : vérifier lâétat, déverrouiller le vault, générer ou modifier des identifiants, le tout sans intervention humaine directe.
- Bitwarden affiche une approche priorisant la sécurité, mais reconnaît les risques liés à lâutilisation dâIA autonome. Lâusage dâun LLM local privé est fortement recommandé pour limiter les vulnérabilités.
- Si tu veux, je peux aussi te résumer les enjeux principaux (interopérabilité, sécurité, cas dâusage) ou un extrait spécifiqueâ¯!
NVIDIA a une faille de securite critique https://www.wiz.io/blog/nvidia-ai-vulnerability-cve-2025-23266-nvidiascape
- Il sâagit dâune faille dâévasion de conteneur dans le NVIDIA Container Toolkit.
- La gravité est jugée critique avec un score CVSS de 9.0.
- Cette vulnérabilité permet à un conteneur malveillant dâobtenir un accès root complet sur lâhôte.
- Lâorigine du problème vient dâune mauvaise configuration des hooks OCI dans le toolkit.
- Lâexploitation peut se faire très facilement, par exemple avec un Dockerfile de seulement trois lignes.
- Le risque principal concerne la compromission de lâisolation entre différents clients sur des infrastructures cloud GPU partagées.
- Les versions affectées incluent toutes les versions du NVIDIA Container Toolkit jusquâà la 1.17.7 et du NVIDIA GPU Operator jusquâà la version 25.3.1.
- Pour atténuer le risque, il est recommandé de mettre à jour vers les dernières versions corrigées.
- En attendant, il est possible de désactiver certains hooks problématiques dans la configuration pour limiter lâexposition.
- Cette faille met en lumière lâimportance de renforcer la sécurité des environnements GPU partagés et la gestion des conteneurs AI.
Fuite de données de lâapplication Tea : points essentiels https://knowyourmeme.com/memes/events/the-tea-app-data-leak
- Tea est une application lancée en 2023 qui permet aux femmes de laisser des avis anonymes sur des hommes rencontrés.
- En juillet 2025, une importante fuite a exposé environ 72 000 images sensibles (selfies, pièces dâidentité) et plus dâ1,1 million de messages privés.
- La fuite a été révélée après quâun utilisateur a partagé un lien pour télécharger la base de données compromise.
- Les données touchées concernaient majoritairement des utilisateurs inscrits avant février 2024, date à laquelle lâapplication a migré vers une infrastructure plus sécurisée.
- En réponse, Tea prévoit de proposer des services de protection dâidentité aux utilisateurs impactés.
Faille dans le paquet npm is : attaque en chaîne dâapprovisionnement
https://socket.dev/blog/npm-is-package-hijacked-in-expanding-supply-chain-attack
- Une campagne de phishing ciblant les mainteneurs npm a compromis plusieurs comptes, incluant celui du paquet
is. - Des versions compromises du paquet
is(notamment les versions 3.3.1 et 5.0.0) contenaient un chargeur de malware JavaScript destiné aux systèmes Windows. - Ce malware a offert aux attaquants un accès à distance via WebSocket, permettant potentiellement lâexécution de code arbitraire.
- Lâattaque fait suite à dâautres compromissions de paquets populaires comme
eslint-config-prettier,eslint-plugin-prettier,synckit,@pkgr/core,napi-postinstall, etgot-fetch. - Tous ces paquets ont été publiés sans aucun commit ou PR sur leurs dépôts GitHub respectifs, signalant un accès non autorisé aux tokens mainteneurs.
- Le domaine usurpé
[npnjs.com](http://npnjs.com)a été utilisé pour collecter les jetons dâaccès via des emails de phishing trompeurs. - Lâépisode met en lumière la fragilité des chaînes dâapprovisionnement logicielle dans lâécosystème npm et la nécessité dâadopter des pratiques renforcées de sécurité autour des dépendances.
Revues de sécurité automatisées avec Claude Code https://www.anthropic.com/news/automate-security-reviews-with-claude-code
- Anthropic a lancé des fonctionnalités de sécurité automatisées pour Claude Code, un assistant de codage dâIA en ligne de commande. Ces fonctionnalités ont été introduites en réponse au besoin croissant de maintenir la sécurité du code alors que les outils dâIA accélèrent considérablement le développement de logiciels.
- Commande
/security-review: les développeurs peuvent exécuter cette commande dans leur terminal pour demander à Claude dâidentifier les vulnérabilités de sécurité, notamment les risques dâinjection SQL, les vulnérabilités de script intersite (XSS), les failles dâauthentification et dâautorisation, ainsi que la gestion non sécurisée des données. Claude peut également suggérer et implémenter des correctifs. - Intégration GitHub Actions : une nouvelle action GitHub permet à Claude Code dâanalyser automatiquement chaque nouvelle demande dâextraction (pull request). Lâoutil examine les modifications de code pour y trouver des vulnérabilités, applique des règles personnalisables pour filtrer les faux positifs et commente directement la demande dâextraction avec les problèmes détectés et les correctifs recommandés.
- Ces fonctionnalités sont conçues pour créer un processus dâexamen de sécurité cohérent et sâintégrer aux pipelines CI/CD existants, ce qui permet de sâassurer quâaucun code nâatteint la production sans un examen de sécurité de base.
Loi, société et organisation
Google embauche les personnes clés de Windsurf https://www.blog-nouvelles-technologies.fr/333959/openai-windsurf-google-deepmind-codage-agentique/
- Windsurf devait être racheté par OpenAI.
- Google ne fait pas dâoffre de rachat, mais débauche quelques personnes clés de Windsurf.
- Windsurf reste donc indépendante, mais sans certains cerveaux y compris son PDG.
- Les nouveaux dirigeants sont les ex-leaders des forces de vente.
- Donc plus une boîte tech.
- Pourquoi le deal à trois milliards est tombé à lâeau ?
- On ne sait pas, mais la divergence et lâindépendance technologique est possiblement en cause.
- Les transfuges vont bosser chez Deepmind dans le code argentique.
Opinion Article: https://www.linkedin.com/pulse/dear-people-who-think-ai-low-skilled-code-monkeys-future-jan-moser-svade/
- Jan Moser critique ceux qui pensent que lâIA et les développeurs peu qualifiés peuvent remplacer les ingénieurs logiciels compétents.
- Il cite lâexemple de lâapplication Tea, une plateforme de sécurité pour femmes, qui a exposé 72 000 images dâutilisateurs en raison dâune mauvaise configuration de Firebase et dâun manque de pratiques de développement sécurisées.
- Il souligne que lâabsence de contrôles automatisés et de bonnes pratiques de sécurité a permis cette fuite de données.
- Moser avertit que des outils comme lâIA ne peuvent pas compenser lâabsence de compétences en génie logiciel, notamment en matière de sécurité, de gestion des erreurs et de qualité du code.
- Il appelle à une reconnaissance de la valeur des ingénieurs logiciels qualifiés et à une approche plus rigoureuse dans le développement logiciel.
YouTube déploie une technologie dâestimation dââge pour identifier les adolescents aux Ãtats-Unis https://techcrunch.com/2025/07/29/youtube-rolls-out-age-estimatation-tech-to-identify-u-s-teens-and-apply-additional-protections/
- Sujet très à la mode, surtout au Royaume-Uni, mais pas queâ¦
- YouTube commence à déployer une technologie dâestimation dââge basée sur lâIA pour identifier les utilisateurs adolescents aux Ãtats-Unis, indépendamment de lââge déclaré lors de lâinscription.
- Cette technologie analyse divers signaux comportementaux, tels que lâhistorique de visionnage, les catégories de vidéos consultées et lââge du compte.
- Lorsquâun utilisateur est identifié comme adolescent, YouTube applique des protections supplémentaires, notamment :
- Désactivation des publicités personnalisées.
- Activation des outils de bien-être numérique, tels que les rappels de temps dâécran et de coucher.
- Limitation de la visualisation répétée de contenus sensibles, comme ceux liés à lâimage corporelle.
- Si un utilisateur est incorrectement identifié comme mineur, il peut vérifier son âge via une pièce dâidentité gouvernementale, une carte de crédit ou un selfie.
- Ce déploiement initial concerne un petit groupe dâutilisateurs aux Ãtats-Unis et sera étendu progressivement.
- Cette initiative sâinscrit dans les efforts de YouTube pour renforcer la sécurité des jeunes utilisateurs en ligne.
Mistral AI : contribution à un standard environnemental pour lâIA https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai
- Mistral AI a réalisé la première analyse de cycle de vie complète dâun modèle dâIA, en collaboration avec plusieurs partenaires.
- Lâétude quantifie lâimpact environnemental du modèle Mistral Large 2 sur les émissions de gaz à effet de serre, la consommation dâeau, et lâépuisement des ressources.
- La phase dâentraînement a généré 20,4 kilotonnes de COâ équivalent, consommé 281 000 m³ dâeau, et utilisé 660 kg SB-eq (mineral consumption).
- Pour une réponse de 400 tokens, lâimpact marginal est faible, mais non négligeable : 1,14 gramme de COâ, 45 mL dâeau, et 0,16 mg dâéquivalent antimoine.
- Mistral propose trois indicateurs pour évaluer cet impact : lâimpact absolu de lâentraînement, lâimpact marginal de lâinférence, et le ratio inference/impact total sur le cycle de vie.
- Lâentreprise souligne lâimportance de choisir le modèle en fonction du cas dâusage pour limiter lâempreinte environnementale.
- Mistral appelle à plus de transparence et à lâadoption de standards internationaux pour permettre une comparaison claire entre modèles.
LâIA promettait plus dâefficacité⦠elle nous fait surtout travailler plus https://afterburnout.co/p/ai-promised-to-make-us-more-efficient
- Les outils dâIA devaient automatiser les tâches pénibles et libérer du temps pour les activités stratégiques et créatives. En réalité, le temps gagné est souvent aussitôt réinvesti dans dâautres tâches, créant une surcharge.
- Les utilisateurs croient être plus productifs avec lâIA, mais les données contredisent cette impression : une étude montre que les développeurs utilisant lâIA prennent 19 % de temps en plus pour accomplir leurs tâches.
- Le rapport DORA 2024 observe une baisse de performance globale des équipes lorsque lâusage de lâIA augmente : -1,5 % de throughput et -7,2 % de stabilité de livraison pour +25 % dâadoption de lâIA.
- LâIA ne réduit pas la charge mentale, elle la déplace : rédaction de prompts, vérification de résultats douteux, ajustements constants⦠Cela épuise et limite le temps de concentration réelle.
- Cette surcharge cognitive entraîne une forme de dette mentale : on ne gagne pas vraiment du temps, on le paie autrement.
- Le vrai problème vient de notre culture de la productivité, qui pousse à toujours vouloir optimiser, quitte à alimenter lâépuisement professionnel.
- Trois pistes concrètes :
- Repenser la productivité non en temps gagné, mais en énergie préservée.
- Ãtre sélectif dans lâusage des outils IA, en fonction de son ressenti et non du battage médiatique.
- Accepter la courbe en J : lâIA peut être utile, mais nécessite des ajustements profonds pour produire des gains réels.
- Le vrai hack de productivité� Parfois, ralentir pour rester lucide et durable.
Conférences
MCP Submit Europe https://mcpdevsummit.ai/
Retour de JavaOne en 2026 https://inside.java/2025/08/04/javaone-returns-2026/
- JavaOne, la conférence dédiée à la communauté Java, fait son grand retour dans la Bay Area du 17 au 19 mars 2026.
- Après le succès de lâédition 2025, ce retour sâinscrit dans la continuité de la mission initiale de la conférence : rassembler la communauté pour apprendre, collaborer et innover.
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 25-27 août 2025 : SHAKA Biarritz - Biarritz (France)
- 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France)
- 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France)
- 15 septembre 2025 : Agile Tour Montpellier - Montpellier (France)
- 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online
- 22-24 septembre 2025 : Kernel Recipes - Paris (France)
- 22-27 septembre 2025 : La Mélée Numérique - Toulouse (France)
- 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France)
- 23-24 septembre 2025 : AI Engineer Paris - Paris (France)
- 25 septembre 2025 : Agile Game Toulouse - Toulouse (France)
- 25-26 septembre 2025 : Paris Web 2025 - Paris (France)
- 30 septembre 2025-1 octobre 2025 : PyData Paris 2025 - Paris (France)
- 2 octobre 2025 : Nantes Craft - Nantes (France)
- 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France)
- 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France)
- 6-7 octobre 2025 : Swift Connection 2025 - Paris (France)
- 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium)
- 7 octobre 2025 : BSides Mulhouse - Mulhouse (France)
- 7-8 octobre 2025 : Agile en Seine - Issy-les-Moulineaux (France)
- 8-10 octobre 2025 : SIG 2025 - Paris (France) & Online
- 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France)
- 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France)
- 9-10 octobre 2025 : EuroRust 2025 - Paris (France)
- 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France)
- 16 octobre 2025 : Power 365 - 2025 - Lille (France)
- 16-17 octobre 2025 : DevFest Nantes - Nantes (France)
- 17 octobre 2025 : Sylius Con 2025 - Lyon (France)
- 17 octobre 2025 : ScalaIO 2025 - Paris (France)
- 17-19 octobre 2025 : OpenInfra Summit Europe - Paris (France)
- 20 octobre 2025 : Codeurs en Seine - Rouen (France)
- 23 octobre 2025 : Cloud Nord - Lille (France)
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 5-6 novembre 2025 : Tech Show Paris - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 19-21 novembre 2025 : Agile Grenoble - Grenoble (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France)
- 4-5 décembre 2025 : Agile Tour Rennes - Rennes (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 9-11 décembre 2025 : APIdays Paris - Paris (France)
- 9-11 décembre 2025 : Green IO Paris - Paris (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 11 décembre 2025 : Normandie.ai 2025 - Rouen (France)
- 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 328 - Expert généraliste cherche Virtual Thread
Posté le 16/07/2025Dans cet épisode, Emmanuel et Antonio discutent de divers sujets liés au développement: Applets (et oui), app iOS développées sous Linux, le protocole A2A, lâaccessibilité, les assistants de code AI en ligne de commande (vous nây échapperez pas)⦠Mais aussi des approches méthodologiques et architecturales comme lâarchitecture hexagonale, les tech radars, lâexpert généraliste et bien dâautres choses encore.
Enregistré le 11 juillet 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-328.mp3 ou en vidéo sur YouTube.
News
Langages
Les Applets Java, câest terminé pour de bon⦠enfin, bientôt https://openjdk.org/jeps/504
- Les navigateurs web ne supportent plus les applets.
- LâAPI Applet et lâoutil
appletvieweront été dépréciés dans JDK 9 (2017). - Lâoutil
appletviewera été supprimé dans JDK 11 (2018). Depuis, impossible dâexécuter des applets avec le JDK. - LâAPI Applet a été marquée pour suppression dans JDK 17 (2021).
- Le Security Manager, essentiel pour exécuter des applets de façon sécurisée, a été désactivé définitivement dans JDK 24 (2025).
Librairies
Quarkus 3.24 avec la notion dâextensions qui peuvent fournir des capacités à des assistants https://quarkus.io/blog/quarkus-3-24-released/
- Les assistants typiquement IA, ont accès à des capacités des extensions.
- Par exemple générer un client à partir dâopenAPI.
- Offrir un accès à la base de données en dev via le schéma.
Lâintégration dâHibernate 7 dans Quarkus https://quarkus.io/blog/hibernate7-on-quarkus/
- Jakarta Data,
- Nouvelle API Restrictions,
- Injection du SchemaManager.
Sortie de Micronaut 4.9 https://micronaut.io/2025/06/30/micronaut-framework-4-9-0-released/
- Core :
- Mise à jour vers Netty 4.2.2 (attention, peut affecter les perfs).
- Nouveau mode expérimental âEvent loop Carrierâ pour exécuter des virtual threads sur lâevent loop Netty.
- Nouvelle annotation
@ClassImportpour traiter des classes déjà compilées. - Arrivée des
@Mixin(Java uniquement) pour modifier les métadonnées dâannotations Micronaut sans altérer les classes originales.
- HTTP/3 : Changement de dépendance pour le support expérimental.
- Graceful Shutdown : Nouvelle API pour un arrêt en douceur des applications.
- Cache Control : API fluente pour construire facilement lâen-tête HTTP
Cache-Control. - KSP 2 : Support de KSP 2 (à partir de 2.0.2) et testé avec Kotlin 2.
- Jakarta Data : Implémentation de la spécification Jakarta Data 1.0.
- gRPC : Support du JSON pour envoyer des messages sérialisés via un POST HTTP.
- ProjectGen : Nouveau module expérimental pour générer des projets JVM (Gradle ou Maven) via une API.
- Un super article sur experimenter avec les event loops reactives dans les virtual threads https://micronaut.io/2025/06/30/transitioning-to-virtual-threads-using-the-micronaut-loom-carrier/
- Malheureusement cela demander le hacker le JDK
- Câest un article de micronaut mais le travail a ete collaboratif avec les equipes de Red Hat OpenJDK, Red Hat perf et de Quarkus et Vert.x
- Pour les curieux, câest un bon article
Ubuntu offre un outil de creation de container pour Spring notamment https://canonical.com/blog/spring-boot-containers-made-easy
- Créer des images OCI pour les applications Spring Boot.
- Basées sur Ubuntu base images bien sûr.
- Utilise jlink pour réduire la taille.
- Pas sûr de voir le gros avantage vs dâautres solutions plus portables.
- Dâailleurs Canonical entre dans la danse des builds dâOpenjdk.
Le SDK Java de A2A contribué par Red Hat est sorti https://quarkus.io/blog/a2a-project-launches-java-sdk/
- A2A est un protocole initié par Google et donne à la fondation Linux.
- Il permet à des agents de se décrire et dâinteragir entre eux.
- Agent cards, skills, tâche, contexte.
- A2A complémente MCP.
- Red hat a implémenté le SDK Java avec le conseil des équipes Google.
- En quelques annotations et classes on a un agent card, un client A2A et un serveur avec lâéchange de messages via le protocole A2A.
Comment configurer mockito sans warning après java 21 https://rieckpil.de/how-to-configure-mockito-agent-for-java-21-without-warning/
- Les agents chargés dynamiquement sont déconseillés et seront bientôt interdit.
- Un des usages est Mockito via Byte Buddy.
- Lâavantage est que la configuration était transparente.
- Mais bon sécurité oblige, câest fini.
- Donc lâarticle décrit comment configurer Maven/Gradle pour mettre lâagent au démarrage des tests.
- Et aussi comment configurer cela dans IntelliJ IDEA.
- Moins simple malheureusement.
Web
Des raisons âégoïstesâ de rendre les UIs plus accessibles https://nolanlawson.com/2025/06/16/selfish-reasons-for-building-accessible-uis/
- Raisons égoïstes : Des avantages personnels pour les développeurs de créer des interfaces utilisateurs (UI) accessibles, au-delà des arguments moraux.
- Débogage facilité : Une interface accessible, avec une structure sémantique claire, est plus facile à déboguer quâun code désordonné (la « soupe de div »).
- Noms standardisés : Lâaccessibilité fournit un vocabulaire standard (par exemple, les directives WAI-ARIA) pour nommer les composants dâinterface, ce qui aide à la clarté et à la structuration du code.
- Tests simplifiés : Il est plus simple dâécrire des tests automatisés pour des éléments dâinterface accessibles, car ils peuvent être ciblés de manière plus fiable et sémantique.
Après 20 ans de stagnation, la spécification du format dâimage PNG évolue enfin ! https://www.programmax.net/articles/png-is-back/
- Objectif : Maintenir la pertinence et la compétitivité du format.
- Recommandation : Soutenu par des institutions comme la Bibliothèque du Congrès américain.
- Nouveautés Clés : Prise en charge du HDR (High Dynamic Range) pour une plus grande gamme de couleurs.
- Reconnaissance officielle des PNG animés (APNG).
- Support des métadonnées Exif (copyright, géolocalisation, etc.).
- Support Actuel : Déjà intégré dans Chrome, Safari, Firefox, iOS, macOS et Photoshop.
- Futur : Prochaine édition, focus sur lâinteropérabilité entre HDR et SDR.
- Ãdition suivante : améliorations de la compression.
Avec le projet open source Xtool, on peut maintenant construire des applications iOS sur Linux ou Windows, sans avoir besoin dâavoir obligatoirement un Mac https://xtool.sh/tutorials/xtool/
- Un tutoriel très bien fait explique comment faire.
- Création dâun nouveau projet via la commande
xtool new. - Génération dâun package Swift avec des fichiers clés comme
Package.swiftetxtool.yml. - Build et exécution de lâapp sur un appareil iOS avec
xtool dev. - Connexion de lâappareil en USB, gestion du jumelage et du Mode Développeur.
- xtool gère automatiquement les certificats, profils de provisionnement et la signature de lâapp.
- Modification du code de lâinterface utilisateur (ex :
ContentView.swift). - Reconstruction et réinstallation rapide de lâapp mise à jour avec
xtool dev. xtoolest basé sur VSCode sur la partie IDE.
Data et Intelligence Artificielle
Nouvelle edition du best seller mondial âUnderstanding LangChain4jâ https://www.linkedin.com/posts/agoncal_langchain4j-java-ai-activity-7342825482830200833-rtw8/
- Mise a jour des APIs (de LC4j 0.35 a 1.1.0).
- Nouveaux Chapitres sur MCP / Easy RAG / JSon Response.
- Nouveaux modeles (GitHub Model, DeepSeek, Foundry Local).
- Mise a jour des modeles existants (GPT-4.1, Claude 3.7â¦).
Google donne A2A a la Foundation Linux https://developers.googleblog.com/en/google-cloud-donates-a2a-to-linux-foundation/
- Annonce du projet Agent2Agent (A2A) : Lors du sommet Open Source Summit North America, la Linux Foundation a annoncé la création du projet Agent2Agent, en partenariat avec Google, AWS, Microsoft, Cisco, Salesforce, SAP et ServiceNow.
- Objectif du protocole A2A : Ce protocole vise à établir une norme ouverte pour permettre aux agents dâintelligence artificielle (IA) de communiquer, collaborer et coordonner des tâches complexes entre eux, indépendamment de leur fournisseur.
- Transfert de Google à la communauté open source : Google a transféré la spécification du protocole A2A, les SDK associés et les outils de développement à la Linux Foundation pour garantir une gouvernance neutre et communautaire.
- Soutien de lâindustrie : Plus de 100 entreprises soutiennent déjà le protocole. AWS et Cisco sont les derniers à lâavoir validé. Chaque entreprise partenaire a souligné lâimportance de lâinteropérabilité et de la collaboration ouverte pour lâavenir de lâIA.
- Objectifs de la fondation A2A :
- Ãtablir une norme universelle pour lâinteropérabilité des agents IA.
- Favoriser un écosystème mondial de développeurs et dâinnovateurs.
- Garantir une gouvernance neutre et ouverte.
- Accélérer lâinnovation sécurisée et collaborative.
- Parler de la spec et sûrement dire quâon aura lâoccasion dây revenir.
Gemini CLI https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/
- Agent IA dans le terminal : Gemini CLI permet dâutiliser lâIA Gemini directement depuis le terminal.
- Gratuit avec compte Google : Accès à Gemini 2.5 Pro avec des limites généreuses.
- Fonctionnalités puissantes : Génère du code, exécute des commandes, automatise des tâches.
- Open source : Personnalisable et extensible par la communauté.
- Complément de Code Assist : Fonctionne aussi avec les IDE comme VS Code.
Au lieu de blocker les IAs sur vos sites, vous pouvez peut-être les guider avec les fichiers LLMs.txt
https://llmstxt.org/
- Exemples du projet Angular :
llms.txtun simple index avec des liens : https://angular.dev/llms.txtlllms-full.txtune version bien plus détaillée : https://angular.dev/llms-full.txt
Outillage
Les commits dans Git sont immuables, mais saviez-vous que vous pouvez rajouter / mettre à jour des ânotesâ sur les commits ? https://tylercipriani.com/blog/2022/11/19/git-notes-gits-coolest-most-unloved-feature/
- Fonctionnalité méconnue :
git notesest une fonctionnalité puissante, mais peu utilisée de Git. - Ajout de métadonnées : Permet dâattacher des informations à des commits existants sans en modifier le hash.
- Cas dâusage : Idéal pour ajouter des données issues de systèmes automatisés (builds, tickets, etc.).
- Revue de code distribuée : Des outils comme
git-appraiseont été construits surgit notespour permettre une revue de code entièrement distribuée, indépendante des forges (GitHub, GitLab). - Peu populaire : Son interface complexe et le manque de support des plateformes de forge ont limité son adoption (GitHub nâaffiche même pas/plus les notes).
- Indépendance des forges :
git notesoffre une voie vers une plus grande indépendance vis-à -vis des plateformes centralisées, en distribuant lâhistorique du projet avec le code lui-même.
Un aperçu dur Spring Boot debugger dans IntelliJ IDEA Ultimate https://blog.jetbrains.com/idea/2025/06/demystifying-spring-boot-with-spring-debugger/
- Montre cet outil qui donne du contexte spécifique à Spring comme les beans non activés, ceux mockés, la valeur des configs, lâétat des transactions.
- Il permet de visualiser tous les beans Spring directement dans la vue projet, avec les beans non instanciés grisés et les beans mockés marqués en orange pour les tests.
- Il résout le problème de résolution des propriétés en affichant la valeur effective en temps réel dans les fichiers properties et yaml, avec la source exacte des valeurs surchargées.
- Il affiche des indicateurs visuels pour les méthodes exécutées dans des transactions actives, avec les détails complets de la transaction et une hiérarchie visuelle pour les transactions imbriquées.
- Il détecte automatiquement toutes les connexions DataSource actives et les intègre avec la fenêtre dâoutils Database dâIntelliJ IDEA pour lâinspection.
- Il permet lâauto-complétion et lâinvocation de tous les beans chargés dans lâévaluateur dâexpression, fonctionnant comme un REPL pour le contexte Spring.
- Il fonctionne sans agent runtime supplémentaire en utilisant des breakpoints non-suspendus dans les bibliothèques Spring Boot pour analyser les données localement.
Une liste communautaire sur les assistants IA pour le code, lancée par Lize Raes https://aitoolcomparator.com/
- tableau comparatif qui permet de voir les différentes fonctionnalités supportées par ces outils
Architecture
Un article sur lâarchitecture hexagonale en Java https://foojay.io/today/clean-and-modular-java-a-hexagonal-architecture-approach/
- Article introductif mais avec exemple sur lâarchitecture hexagonale entre le domaine, lâapplication et lâinfrastructure.
- Le domaine est sans dépendance.
- Lâappli spécifique à lâapplication mais sans dépendance technique explique le flow.
- Lâinfrastructure aura les dépendances à vos frameworks spring, Quarkus Micronaut, Kafka etc.
- Je suis naturellement pas fan de lâarchitecture hexagonale en termes de volume de code vs le gain surtout en microservices.
- Mais câest toujours intéressant de se challenger et de regarder le bénéfice coût.
Gardez un Åil sur les technologies avec les Tech Radar https://www.sfeir.dev/cloud/tech-radar-gardez-un-oeil-sur-le-paysage-technologique/
- Le Tech Radar est crucial pour la veille technologique continue et la prise de décision éclairée.
- Il catégorise les technologies en Adopt, Trial, Assess, Hold, selon leur maturité et pertinence.
- Il est recommandé de créer son propre Tech Radar pour lâadapter aux besoins spécifiques, en sâinspirant des Radars publics.
- Utilisez des outils de découverte (https://alternativeto.net/), de tendance (Google Trends), de gestion dâobsolescence (https://endoflife.date/) et dâapprentissage (https://roadmap.sh/).
- Restez informé via les blogs, podcasts, newsletters (TLDR), et les réseaux sociaux/communautés (X, Slack).
- Lâobjectif est de rester compétitif et de faire des choix technologiques stratégiques.
- Attention à ne pas sous-estimer son coût de maintenance.
Méthodologies
Le concept dâexpert generaliste https://martinfowler.com/articles/expert-generalist.html
- Lâindustrie pousse vers une spécialisation étroite, mais les collègues les plus efficaces excellent dans plusieurs domaines à la fois.
- Un développeur Python expérimenté peut rapidement devenir productif dans une équipe Java grâce aux concepts fondamentaux partagés.
- Lâexpertise réelle comporte deux aspects : la profondeur dans un domaine et la capacité dâapprendre rapidement.
- Les Expert Generalists développent une maîtrise durable au niveau des principes fondamentaux plutôt que des outils spécifiques.
- La curiosité est essentielle : ils explorent les nouvelles technologies et sâassurent de comprendre les réponses au lieu de copier-coller du code.
- La collaboration est vitale, car ils savent quâils ne peuvent pas tout maîtriser et travaillent efficacement avec des spécialistes.
- Lâhumilité les pousse à dâabord comprendre pourquoi les choses fonctionnent dâune certaine manière avant de les remettre en question.
- Le focus client canalise leur curiosité vers ce qui aide réellement les utilisateurs à exceller dans leur travail.
- Lâindustrie doit traiter âExpert Generalistâ comme une compétence de première classe à nommer, évaluer et former.
- Ãa me rappelle le technical staff.
Un article sur les métriques métier et leurs valeurs https://blog.ippon.fr/2025/07/02/monitoring-metier-comment-va-vraiment-ton-service-2/
- Un article de rappel sur la valeur du monitoring métier et ses valeurs
- Le monitoring technique traditionnel (CPU, serveurs, API) ne garantit pas que le service fonctionne correctement pour lâutilisateur final.
- Le monitoring métier complète le monitoring technique en se concentrant sur lâexpérience réelle des utilisateurs plutôt que sur les composants isolés.
- Il surveille des parcours critiques concrets comme âun client peut-il finaliser sa commande ?â au lieu dâindicateurs abstraits.
- Les métriques métier sont directement actionnables : taux de succès, délais moyens et volumes dâerreurs permettent de prioriser les actions.
- Câest un outil de pilotage stratégique qui améliore la réactivité, la priorisation et le dialogue entre équipes techniques et métier.
- La mise en place suit 5 étapes : dashboard technique fiable, identification des parcours critiques, traduction en indicateurs, centralisation et suivi dans la durée.
- Une Definition of Done doit formaliser des critères objectifs avant dâinstrumenter tout parcours métier.
- Les indicateurs mesurables incluent les points de passage réussis/échoués, les temps entre actions et le respect des règles métier.
- Les dashboards doivent être intégrés dans les rituels quotidiens avec un système dâalertes temps réel compréhensibles.
- Le dispositif doit évoluer continuellement avec les transformations produit en questionnant chaque incident pour améliorer la détection.
- La difficulté, câest effectivement lâévolution métier par exemple peu de commandes la nuit, etc.
- Ãa fait partie de la boîte à outils SRE.
Sécurité
Toujours à la recherche du S de Sécurité dans les MCP https://www.darkreading.com/cloud-security/hundreds-mcp-servers-ai-models-abuse-rce
- Analyse des serveurs mcp ouverts et accessibles.
- Beaucoup ne font pas de sanity check des parametres.
- Si vous les utilisez dans votre appel genAI vous vous exposez.
- Ils ne sont pas mauvais fondamentalement, mais nâont pas encore de standardisation de sécurité.
- Si usage local, préférer stdio ou restreindre SSE à 127.0.0.1.
Loi, société et organisation
Nicolas Martignole, le même qui a créé le logo des Cast Codeurs, sâinterroge sur les voies possibles des développeurs face à lâimpact de lâIA sur notre métier https://touilleur-express.fr/2025/06/23/ni-manager-ni-contributeur-individuel/
- Ãvolution des carrières de développeur : LâIA transforme les parcours traditionnels (manager ou expert technique).
- Chef dâOrchestre dâIA : Ancien manager qui pilote des IA, définit les architectures et valide le code généré.
- Artisan Augmenté : Développeur utilisant lâIA comme un outil pour coder plus vite et résoudre des problèmes complexes.
- Philosophe du Code : Un nouveau rôle centré sur le âpourquoiâ du code, la conceptualisation de systèmes et lâéthique de lâIA.
- Charge cognitive de validation : Nouvelle charge mentale créée par la nécessité de vérifier le travail des IA.
- Réflexion sur lâimpact : Lâarticle invite à choisir son impact : orchestrer, créer ou guider.
Entraîner les IAs sur des livres protégés (copyright) est acceptable (fair use) mais les stocker ne lâest pas https://www.reuters.com/legal/litigation/anthropic-wins-key-ruling-ai-authors-copyright-lawsuit-2025-06-24/
- Victoire pour Anthropic (jusquâau prochain procès) : Lâentreprise a obtenu gain de cause dans un procès très suivi concernant lâentraînement de son IA, Claude, avec des Åuvres protégées par le droit dâauteur.
- âFair Useâ en force : Le juge a estimé que lâutilisation des livres pour entraîner lâIA relevait du âfair useâ (usage équitable) car il sâagit dâune transformation du contenu, pas dâune simple reproduction.
- Nuance importante : Cependant, le stockage de ces Åuvres dans une âbibliothèque centraleâ sans autorisation a été jugé illégal, ce qui souligne la complexité de la gestion des données pour les modèles dâIA.
Luc Julia, son audition au sénat https://videos.senat.fr/video.5486945_685259f55eac4.iaâaudition-de-luc-julia-concepteur-de-siri
- On aime ou pas on aide pas Luc Julia et sa vision de lâIA . Câest une version encore plus longue mais dans le même thème que sa keynote à Devoxx France 2025 (https://www.youtube.com/watch?v=JdxjGZBtp_k).
- Nature et limites de lâIA : Luc Julia a insisté sur le fait que lâintelligence artificielle est une âévolutionâ plutôt quâune ârévolutionâ. Il a rappelé quâelle repose sur des mathématiques et nâest pas âmagiqueâ. Il a également alerté sur le manque de fiabilité des informations fournies par les IA génératives comme ChatGPT, soulignant quâ« on ne peut pas leur faire confiance » car elles peuvent se tromper et que leur pertinence diminue avec le temps.
- Régulation de lâIA : Il a plaidé pour une régulation âintelligente et éclairéeâ, qui devrait se faire a posteriori afin de ne pas freiner lâinnovation. Selon lui, cette régulation doit être basée sur les faits et non sur une analyse des risques a priori.
- Place de la France : Luc Julia a affirmé que la France possédait des chercheurs de très haut niveau et faisait partie des meilleurs mondiaux dans le domaine de lâIA. Il a cependant soulevé le problème du financement de la recherche et de lâinnovation en France.
- IA et Société : Lâaudition a traité des impacts de lâIA sur la vie privée, le monde du travail et lâéducation. Luc Julia a souligné lâimportance de développer lâesprit critique, notamment chez les jeunes, pour apprendre à vérifier les informations générées par les IA.
- Applications concrètes et futures : Le cas de la voiture autonome a été discuté, Luc Julia expliquant les différents niveaux dâautonomie et les défis restants. Il a également affirmé que lâintelligence artificielle générale (AGI), une IA qui dépasserait lâhomme dans tous les domaines, est âimpossibleâ avec les technologies actuelles.
Rubrique débutant
Les weak references et le finalize https://dzone.com/articles/advanced-java-garbage-collection-concepts
- Un petit rappel utile sur les pièges de la méthode finalize qui peut ne jamais être invoquée.
- Les risques de bug si finalize ne fini jamais.
- Finalize rend le travail du garbage collector beaucoup plus complexe et inefficace.
- Weak references sont utiles, mais leur libération nâest pas contrôlable. Donc à ne pas abuser.
- Il y a aussi les soft et phantom references mais les usages ne sont assez subtils et complexe en fonction du GC.
- Le sériel va traiter les weak avant les soft, parallel non.
- Le G1 ça dépend de la région.
- Z1 ça dépend car le traitement est asynchrone.
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 14-19 juillet 2025 : DebConf25 - Brest (France)
- 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France)
- 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France)
- 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online
- 22-24 septembre 2025 : Kernel Recipes - Paris (France)
- 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France)
- 25-26 septembre 2025 : Paris Web 2025 - Paris (France)
- 2 octobre 2025 : Nantes Craft - Nantes (France)
- 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France)
- 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France)
- 6-7 octobre 2025 : Swift Connection 2025 - Paris (France)
- 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium)
- 7 octobre 2025 : BSides Mulhouse - Mulhouse (France)
- 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France)
- 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France)
- 9-10 octobre 2025 : EuroRust 2025 - Paris (France)
- 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France)
- 16 octobre 2025 : Power 365 - 2025 - Lille (France)
- 16-17 octobre 2025 : DevFest Nantes - Nantes (France)
- 17 octobre 2025 : Sylius Con 2025 - Lyon (France)
- 17 octobre 2025 : ScalaIO 2025 - Paris (France)
- 20 octobre 2025 : Codeurs en Seine - Rouen (France)
- 23 octobre 2025 : Cloud Nord - Lille (France)
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 5-6 novembre 2025 : Tech Show Paris - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 6 novembre 2025 : Agile Tour Aix-Marseille 2025 - Gardanne (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 1-2 décembre 2025 : Tech Rocks Summit 2025 - Paris (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 9-11 décembre 2025 : APIdays Paris - Paris (France)
- 9-11 décembre 2025 : Green IO Paris - Paris (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 12-13 février 2026 : Touraine Tech #26 - Tours (France)
- 22-24 avril 2026 : Devoxx France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 327 - Mon ami de 30 ans
Posté le 16/06/2025Dans cet épisode, câest le retour de Katia et dâAntonio. Les Cast Codeurs explorent WebAssembly 2.0, les 30 ans de Java, lâinteropérabilité Swift-Java et les dernières nouveautés Kotlin. Ils plongent dans lâévolution de lâIA avec Claude 4 et GPT-4.1, débattent de la conscience artificielle et partagent leurs retours dâexpérience sur lâintégration de lâIA dans le développement. Entre virtualisation, défis dâinfrastructure et enjeux de sécurité open source, une discussion riche en insights techniques et pratiques.
Enregistré le 13 juin 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-327.mp3 ou en vidéo sur YouTube.
News
Langages
Wasm 2.0 enfin officialisé ! https://webassembly.org/news/2025-03-20-wasm-2.0/
- La spécification Wasm 2.0 est officiellement sortie en décembre dernier.
- Le consensus sur la spécification avait été atteint plus tôt, en 2022.
- Les implémentations majeures supportent Wasm 2.0 depuis un certain temps.
- Le processus W3C a pris du temps pour atteindre le statut de âRecommandation Candidateâ pour des raisons non techniques.
- Les futures versions de Wasm adopteront un modèle âevergreenâ où la âRecommandation Candidateâ sera mise à jour en place.
- La dernière version de la spécification est considérée comme le standard actuel (Candidate Recommendation Draft).
- La version la plus à jour est disponible sur la page GitHub (GitHub page).
- Wasm 2.0 inclut les nouveautés suivantes :
- Instructions vectorielles pour le SIMD 128-bit.
- Instructions de manipulation de mémoire en bloc pour des copies et initialisations plus rapides.
- Résultats multiples pour les instructions, blocs et fonctions.
- Types références pour les références à des fonctions ou objets externes.
- Conversions non-piégeantes de flottant à entier.
- Instructions dâextension de signe pour les entiers signés.
- Wasm 2.0 est entièrement rétrocompatible avec Wasm 1.0.
Paul Sandoz annonce que le JDK intègrera bientôt une API minimaliste pour lire et écrire du JSON https://mail.openjdk.org/pipermail/core-libs-dev/2025-May/145905.html
Java a 30 ans, câétait quoi les points bluffants au début ? https://blog.jetbrains.com/idea/2025/05/do-you-really-know-java/
- nom de code Oak
- Mais le trademark était pris
- Write Once Run Anywhere
- Garbage Collector Automatique
- multi threading au coeur de la palteforme meme si Java est passé par les green threads pendant un temps
- modèle de sécurité: sandbox applets, security manager, bytecode verifier, classloader
Des progrès dans lâinteropérabilité Swift / Java mentionnés à la conférence Apple WWDC 2025 https://www.youtube.com/watch?v=QSHO-GUGidA
- Interopérabilité Swift-Java : Utiliser Swift dans des apps Java et vice-versa.
- Historique : Lâinteropérabilité Swift existait déjà avec C et C++.
- Méthodes : Deux directions dâinteropérabilité : Java depuis Swift et Swift depuis Java.
- JNI : JNI est lâAPI Java pour le code natif, mais elle est verbeuse.
- Swift-Java : Un projet pour une interaction Swift-Java plus flexible, sûre et performante.
- Exemples pratiques : Utiliser des bibliothèques Java depuis Swift et rendre des bibliothèques Swift disponibles pour Java.
- Gestion mémoire : Swift-Java utilise la nouvelle API FFM de Java pour gérer la mémoire des objets Swift.
- Open Source : Le projet Swift-Java est open source et invite aux contributions.
KotlinConf le retour https://www.sfeir.dev/tendances/kotlinconf25-quelles-sont-les-annonces-a-retenir/ par Adelin de Sfeir
- â1 developeur sur 10â utilise Kotlin
- Kotlin 2.2 en RC
$$multi dollar interpolation pour eviter les sur interpolations- non local break / continue (changement dans la conssitance de Kotlin
- guards sur le pattern matching
- Dâautres features annoncées
- alignement des versions de lâecosysteme sur kotlin jvm par defaut
- un nouvel outil de build Amper
- beaucoup dâannonces autour de lâIA
- Koog, framework agentique de maniere declarative
- nouvelle version du LLM de JetBrains: Mellum (focalisé sur le code)
- Kotlin et Compose multiplateforme (stable en iOS)
- Hot Reload dans compose en alpha
- partenariat strategque avec Spring pour bien integrer kotlin dans spring
Librairies
Sortie dâune version Java de ADK, le framework dâagents IA lancé par Google https://glaforge.dev/posts/2025/05/20/writing-java-ai-agents-with-adk-for-java-getting-started/
- Guillaume a travaillé sur le lancement de ce framework ! (améliorations de lâAPI, code dâexemple, docâ¦)
Comment déployer un serveur MCP en Java, grâce à Quarkus, et le déployer sur Google Cloud Run https://glaforge.dev/posts/2025/06/09/building-an-mcp-server-with-quarkus-and-deploying-on-google-cloud-run/
- Même Guillaume se met à faire du Quarkus !
- Utilisation du support MCP développé par lâéquipe Quarkus. Câest facile, suffit dâannoter une méthode avec @Tool et ses arguments avec @ToolArg et câest parti !
- Lâoutil MCP inspector est très pratique pour inspecter manuellement le fonctionnement de ses serveurs MCP
- Déployer sur Cloud Run est facile grâce aux Dockerfiles fournis par Quarkus
- En bonus, Guillaume montre comment configuré un serveur MCP comme un outil dans le framework ADK pour Java, pour créer ses agents IA
Jilt 1.8 est sorti, un annotation processor pour le pattern builder https://www.endoflineblog.com/jilt-1_8-and-1_8_1-released
- processing incrémental pour Gradle
- meilleure couverture de votre code (pour ne pas comptabiliser le code généré par lâannotation processeur)
- une correction dâun problème lors de lâutilisation des types génériques récursifs (genre
Node<T extends Node<T>>
Hibernate Search 8 est sorti https://in.relation.to/2025/06/06/hibernate-search-8-0-0-Final/
- aggregation de metriques
- compatibilité avec les dernieres OpenSearch et Elasticsearch
- Lucene 10 en backend
- Preview des requetes validées à la compilation
Hibernate 7 est sorti https://in.relation.to/2025/05/20/hibernate-orm-seven/
- ASL 2.0
- Hibernate Validator 9
- Jakarta Persistence 3.2 et Jakarta Validation 3.1
saveOrUpdate(reattachement dâentité) nâest plus supporté- session stateless plus capable: oeprations unitaires et pas seulement bach, acces au cache de second niveau, m,eilleure API pour les batchs (insertMultiple etc)
- nouvelle API criteria simple et type-safe: et peut ajouter a une requete de base
Un article qui décrit la Dev UI de Quarkus https://www.sfeir.dev/back/quarkus-dev-ui-linterface-ultime-pour-booster-votre-productivite-en-developpement-java/
- apres un test pour soit ou une demo, câest un article détaillé et la doc de Quarkus nâest pas top là dessus
Vert.x 5 est sorti https://vertx.io/blog/eclipse-vert-x-5-released/
- on en avait parlé fin de lâannée dernière ou début dâannée
- Modèle basé uniquement sur les Futures : Vert.x 5 abandonne le modèle de callbacks pour ne conserver que les Futures, avec une nouvelle classe de base
VerticleBasemieux adaptée à ce modèle asynchrone. - Support des modules Java (JPMS) : Vert.x 5 prend en charge le système de modules de la plateforme Java avec des modules explicites, permettant une meilleure modularité des applications.
- Améliorations majeures de gRPC : Support natif de gRPC Web et gRPC Transcoding (support HTTP/JSON et gRPC), format JSON en plus de Protobuf, gestion des timeouts et deadlines, services de réflexion et de health.
- Support dâio_uring : Intégration native du système io_uring de Linux (précédemment en incubation) pour de meilleures performances I/O sur les systèmes compatibles.
- Load balancing côté client : Nouvelles capacités de répartition de charge pour les clients HTTP et gRPC avec diverses politiques de distribution.
- Service Resolver : Nouveau composant pour la résolution dynamique dâadresses de services, étendant les capacités de load balancing à un ensemble plus large de résolveurs.
- Améliorations du proxy HTTP : Nouvelles transformations prêtes à lâemploi, interception des upgrades WebSocket et interface SPI pour le cache avec support étendu des spécifications.
- Suppressions et remplacements : Plusieurs composants sont dépréciés (gRPC Netty, JDBC API, Service Discovery) ou supprimés (Vert.x Sync, RxJava 1), remplacés par des alternatives plus modernes comme les virtual threads et Mutiny.
Spring AI 1.0 est sorti https://spring.io/blog/2025/05/20/spring-ai-1-0-GA-released
- ChatClient multi-modèles : API unifiée pour interagir avec 20 modèles dâIA différents avec support multi-modal et réponses JSON structurées.
- Ãcosystème RAG complet : Support de 20 bases vectorielles, pipeline ETL et enrichissement automatique des prompts via des advisors.
- Fonctionnalités enterprise : Mémoire conversationnelle persistante, support MCP, observabilité Micrometer et évaluateurs automatisés.
- Agents et workflows : Patterns prédéfinis (routing, orchestration, chaînage) et agents autonomes pour applications dâIA complexes.
Infrastructure
Les modèles dâIA refusent dâêtre éteint et font du chantage pour lâeviter, voire essaient se saboter lâextinction https://www.thealgorithmicbridge.com/p/ai-companies-have-lost-controland?utm_source=substac[â¦]aign=email-restack-comment&r=2qoalf&triedRedirect=true
- Les chercheur dâAnthropic montrent comment Opus 4 faisait du chantage aux ingenieurs qui voulaient lâeteindre pour mettre une nouvelle version en ligne
- Une boite de recherche a montré la même chose dâOpen AI o3
- non seulemenmt il ne veut pas mais il essaye activement dâempêcher lâextinction
Apple annonce le support de la virtualisation / conteneurisation dans macOS lors de la WWDC https://github.com/apple/containerization
- Câest open source
- Possibilité de lancer aussi des VM légères
- Documentation technique : https://apple.github.io/containerization/documentation/
Grosse chute de services internet suite à un soucis sur GCP
- Le retour de cloud flare https://blog.cloudflare.com/cloudflare-service-outage-june-12-2025/
- Leur système de stockage (une dépendance majeure) dépend exclusivement de GCP
- Mais ils ont des plans pour surfit de cette dépendance exclusive
- la première analyse de Google https://status.cloud.google.com/incidents/ow5i3PPK96RduMcb1SsW
- Un quota auto mis à jour qui a mal tourné.
- ils ont bypassé le quota en code mais le service de quote en us-central1 était surchargé.
- Prochaines améliorations: pas d propagation de données corrompues, pas de déploiement global sans rolling upgrade avec monitoring qui peut couper
- par effet de bord (fail over) certains autres cloud providers ont aussi eu quelques soucis (charge) - unverified
Data et Intelligence Artificielle
Claude 4 est sorti
https://www.anthropic.com/news/claude-4
- Deux nouveaux modèles lancés : Claude Opus 4 (le meilleur modèle de codage au monde) et Claude Sonnet 4 (une amélioration significative de Sonnet 3.7)
- Claude Opus 4 atteint 72,5% sur SWE-bench et peut maintenir des performances soutenues sur des tâches longues durant plusieurs heures
- Claude Sonnet 4 obtient 72,7% sur SWE-bench tout en équilibrant performance et efficacité pour un usage quotidien
- Nouvelle fonctionnalité de âpensée étendue avec utilisation dâoutilsâ permettant à Claude dâalterner entre raisonnement et usage dâoutils
- Les modèles peuvent maintenant utiliser plusieurs outils en parallèle et suivre les instructions avec plus de précision
- Capacités mémoire améliorées : Claude peut extraire et sauvegarder des informations clés pour maintenir la continuité sur le long terme
- Claude Code devient disponible à tous avec intégrations natives VS Code et JetBrains pour la programmation en binôme
- Quatre nouvelles capacités API : outil dâexécution de code, connecteur MCP, API Files et mise en cache des prompts
- Les modèles hybrides offrent deux modes : réponses quasi-instantanées et pensée étendue pour un raisonnement plus approfondi en mode âagentiqueâ
Lâintégration de lâIA au delà des chatbots et des boutons à étincelles https://glaforge.dev/posts/2025/05/23/beyond-the-chatbot-or-ai-sparkle-a-seamless-ai-integration/
- Plaidoyer pour une IA intégrée de façon transparente et intuitive, au-delà des chatbots.
- Chatbots : pas toujours lâoption LLM la plus intuitive ou la moins perturbatrice.
- Préconisation : IA directement dans les applications pour plus dâintelligence et dâutilité naturelle.
- Exemples dâintégration transparente : résumés des conversations Gmail et chat, web clipper Obsidian qui résume et taggue, complétion de code LLM.
- Meilleure UX IA : intégrée, contextuelle, sans âboutons IAâ ou fenêtres de chat dédiées.
- Conclusion de Guillaume : intégrations IA réussies = partie naturelle du système, améliorant les workflows sans perturbation, le développeur ou lâutilisateur reste dans le âflowâ
Garder votre base de donnée vectorielle à jour avec Debezium https://debezium.io/blog/2025/05/19/debezium-as-part-of-your-ai-solution/
- pas besoin de detailler mais
- expliquer idee de garder les changements a jour dans lâindex
Outillage
guide pratique pour choisir le bon modèle dâIA à utiliser avec GitHub Copilot, en fonction de vos besoins en développement logiciel. https://github.blog/ai-and-ml/github-copilot/which-ai-model-should-i-use-with-github-copilot/
- Ãquilibre coût/performance : GPT-4.1, GPT-4o ou Claude 3.5 Sonnet pour des tâches générales et multilingues.
- Tâches rapides : o4-mini ou Claude 3.5 Sonnet pour du prototypage ou de lâapprentissage rapide.
- Besoins complexes : Claude 3.7 Sonnet, GPT-4.5 ou o3 pour refactorisation ou planification logicielle.
- Entrées multimodales : Gemini 2.0 Flash ou GPT-4o pour analyser images, UI ou diagrammes.
- Projets techniques/scientifiques : Gemini 2.5 Pro pour raisonnement avancé et gros volumes de données.
UV, un package manager pour les pythonistes qui amène un peu de sanité et de vitesse http://blog.ippon.fr/2025/05/12/uv-un-package-manager-python-adapte-a-la-data-partie-1-theorie-et-fonctionnalites/
- pour les pythonistes
- un ackage manager plus rapide et simple
- mais il est seulement semi ouvert (license)
IntelliJ IDEA 2025.1 permet de rajouter un mode MCP client à lâassistant IA https://blog.jetbrains.com/idea/2025/05/intellij-idea-2025-1-model-context-protocol/
- par exemple faire tourner un MCP server qui accède à la base de donnée
Méthodologies
Développement dâune bibliothèque OAuth 2.1 open source par Cloudflare, en grande partie générée par lâIA Claude:
- Prompts intégrés aux commits : Chaque commit contient le prompt utilisé, ce qui facilite la compréhension de lâintention derrière le code.
- Prompt par lâexemple : Le premier prompt montrait un exemple dâutilisation de lâAPI quâon souhaite obtenir, ce qui a permis à lâIA de mieux comprendre les attentes.
- Prompts structurés : Les prompts les plus efficaces suivaient un schéma clair : état actuel, justification du changement, et directive précise.
- Traitez les prompts comme du code source : Les inclure dans les commits aide à la maintenance.
- Acceptez les itérations : Chaque fonctionnalité a nécessité plusieurs essais.
- Intervention humaine indispensable : Certaines tâches restent plus rapides à faire à la main. https://www.maxemitchell.com/writings/i-read-all-of-cloudflares-claude-generated-commits/
Sécurité
Un packet npm malicieux passe par Cursor AI pour infecter les utilisateurs https://thehackernews.com/2025/05/malicious-npm-packages-infect-3200.html
- Trois packages npm malveillants ont été découverts ciblant spécifiquement lâéditeur de code Cursor sur macOS, téléchargés plus de 3 200 fois au total.Les packages se déguisent en outils de développement promettant âlâAPI Cursor la moins chèreâ pour attirer les développeurs intéressés par des solutions AI abordables.
- Technique dâattaque sophistiquée : les packages volent les identifiants utilisateur, récupèrent un payload chiffré depuis des serveurs contrôlés par les pirates, puis remplacent le fichier main.js de Cursor.
- Persistance assurée en désactivant les mises à jour automatiques de Cursor et en redémarrant lâapplication avec le code malveillant intégré.
- Nouvelle méthode de compromission : au lieu dâinjecter directement du malware, les attaquants publient des packages qui modifient des logiciels légitimes déjà installés sur le système.
- Persistance même après suppression : le malware reste actif même si les packages npm malveillants sont supprimés, nécessitant une réinstallation complète de Cursor.
- Exploitation de la confiance : en sâexécutant dans le contexte dâune application légitime (IDE), le code malveillant hérite de tous ses privilèges et accès.
- Package ârand-user-agentâ compromis : un package légitime populaire a été infiltré pour déployer un cheval de Troie dâaccès distant (RAT) dans certaines versions.
- Recommandations de sécurité : surveiller les packages exécutant des scripts post-installation, modifiant des fichiers hors node_modules, ou initiant des appels réseau inattendus, avec monitoring dâintégrité des fichiers.
Loi, société et organisation
Le drama OpenRewrite (automatisation de refactoring sur de larges bases de code) est passé en mode propriétaire https://medium.com/@jonathan.leitschuh/when-open-source-isnt-how-openrewrite-lost-its-way-642053be287d
- Faits Clés :
- Moderne, Inc. a re-licencié silencieusement du code OpenRewrite (dont
rewrite-java-security) de la licence Apache 2.0 à une licence propriétaire (MPL) sans consultation des contributeurs. - Ce re-licenciement rend le code inaccessible et non modifiable pour les contributeurs originaux.
- Moderne sâest retiré de la Commonhaus Foundation (dédiée à lâopen source) juste avant ces changements.
- La justification de Moderne est la crainte que de grandes entreprises utilisent OpenRewrite sans contribuer, créant une concurrence.
- Des contributions communautaires importantes (VMware, AliBaba) sous Apache 2.0 ont été re-licenciées sans leur consentement.
- La légalité de ce re-licenciement est incertaine sans CLA des contributeurs.
- Cette action crée un précédent dangereux pour les futurs contributeurs et nuit à la confiance dans lâécosystème OpenRewrite.
- Moderne, Inc. a re-licencié silencieusement du code OpenRewrite (dont
- Corrections de Moderne (Suite aux réactions) :
- Les dépôts Apache originaux ont été restaurés et archivés.
- Des versions majeures ont été utilisées pour signaler les changements de licence.
- Des espaces de noms distincts (
org.openrewritevs.io.moderne) ont été créés pour différencier les modules.
- Suggestions de Correction de lâAuteur :
- Annuler les changements de licence sur toutes les recettes communautaires.
- Sâengager dans le dialogue et communiquer publiquement les changements majeurs.
- Respecter le versionnement sémantique (versions majeures pour les changements de licence).
Lâancien gourou du design dâApple, Jony Ive, va occuper un rôle majeur chez OpenAI OpenAI va acquérir la startup dâIve pour 6,5 milliards de dollars, tandis quâIve et le PDG Sam Altman travaillent sur une nouvelle génération dâappareils et dâautres produits dâIA https://www.wsj.com/tech/ai/former-apple-design-guru-jony-ive-to-take-expansive-role-at-openai-5787f7da
Rubrique débutant
Un article pour les débutants sur le lien entre source, bytecode et le debug https://blog.jetbrains.com/idea/2025/05/sources-bytecode-debugging/
- le debugger voit le bytecode
- et le lien avec la ligne ou la methode est potentiellement perdu
- javac peut ajouter les ligne et offset des operations pour que le debugger les affichent
- les noms des arguments est aussi ajoutable dans le
.class - quand vous pointez vers une mauvaise version du fichier source, vous avez des lignes decalées, câest pour ca
- peu de raisons de ne pas actier des approches de compilations mais cela rend le fichier un peu plus gros
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 11-13 juin 2025 : Devoxx Poland - Krakow (Poland)
- 12-13 juin 2025 : Agile Tour Toulouse - Toulouse (France)
- 12-13 juin 2025 : DevLille - Lille (France)
- 13 juin 2025 : Tech FâEst 2025 - Nancy (France)
- 17 juin 2025 : Mobilis In Mobile - Nantes (France)
- 19-21 juin 2025 : Drupal Barcamp Perpignan 2025 - Perpignan (France)
- 24 juin 2025 : WAX 2025 - Aix-en-Provence (France)
- 25 juin 2025 : Rust Paris 2025 - Paris (France)
- 25-26 juin 2025 : AgiâLille 2025 - Lille (France)
- 25-27 juin 2025 : BreizhCamp 2025 - Rennes (France)
- 26-27 juin 2025 : Sunny Tech - Montpellier (France)
- 1-4 juillet 2025 : Open edX Conference - 2025 - Palaiseau (France)
- 7-9 juillet 2025 : Riviera DEV 2025 - Sophia Antipolis (France)
- 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France)
- 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France)
- 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online
- 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France)
- 25-26 septembre 2025 : Paris Web 2025 - Paris (France)
- 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France)
- 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France)
- 6-7 octobre 2025 : Swift Connection 2025 - Paris (France)
- 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium)
- 7 octobre 2025 : BSides Mulhouse - Mulhouse (France)
- 9 octobre 2025 : DevCon #25 : informatique quantique - Paris (France)
- 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France)
- 9-10 octobre 2025 : EuroRust 2025 - Paris (France)
- 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France)
- 16 octobre 2025 : Power 365 - 2025 - Lille (France)
- 16-17 octobre 2025 : DevFest Nantes - Nantes (France)
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 5-6 novembre 2025 : Tech Show Paris - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 19 novembre 2025 : SREday Paris 2025 Q4 - Paris (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 27 novembre 2025 : DevFest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 3 février 2026 : Cloud Native Days France 2026 - Paris (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 326 - Interview assistants de code IA avec Philippe Charrière et Kevin Aubry
Posté le 03/06/2025Dans cet épisode, nous explorons lâunivers des assistants de code AI. Comment ces outils transforment-ils notre façon de coder ? Quels sont leurs atouts et leurs limites ? Nos invités Philippe Charrière et Kevin Aubry nous éclairent sur ces technologies qui bouleversent les pratiques des développeurs.
Enregistré le 8 avril 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-326.mp3 ou en vidéo sur YouTube.
Interview
Ta vie ton oeuvre
- Peux-tu te présenter brièvement à nos auditeurs?
- Quelle est ton expérience personnelle avec ces outils?
- Tu lâutilises chez ton employeur ou juste pour tes projets personnels?
- Quâest-ce qui tâa attiré dans ce domaine en particulier?
Introduction à la techno
- Quâest-ce quâun assistant de code AI exactement? Comment le définirais-tu?
- Quels sont les principaux assistants de code disponibles aujourdâhui sur le marché?
- Quand et pourquoi ces outils ont-ils commencé à émerger?
- Quelle est la différence entre un assistant de code AI et un simple outil de complétion de code?
La techno en concepts
- Quels sont les fondements technologiques des assistants de code actuels?
- Quels sont les différences de flow entre un outil dédié genre CursorAI, GitHub Copilot, un chat LLM générique de type Claude ou un outil à la Devoxx Genie?
- Il y a aussi des outils de terminal, en ligne de commande ou en desktop dédié genre Goose de Block - comment ceux-ci se positionnent-ils?
- Quelles sont les différentes approches dâintégration dans les environnements de développement?
- Comment se positionnent les assistants par rapport à dâautres outils dâaide au développement?
- Quels sont les modèles économiques actuels (open source vs propriétaire, SaaS vs on-premise)?
- Quâen est-il de la confidentialité du code analysé par ces outils?
Comment on lâutilise en pratique pour un dev
- Comment un développeur Java typique intègre-t-il un assistant de code dans son workflow quotidien?
- Quels sont les assistants les plus adaptés à lâécosystème Java spécifiquement?
- Vous utilisez plutôt VSCode? Ãa marche bien dans IntelliJ IDEA?
- Quelles sont les bonnes pratiques pour formuler des requêtes efficaces à un assistant?
- Quelles tâches répétitives ou complexes sont particulièrement bien gérées par ces assistants?
- Quels sont les tâches aujourdâhui où lâassistant de code excelle: squelette de code initial, ajout de fonctionnalité, écrire les tests, corriger un bug, la sécurité, grosse migration de version ou de framework?
- Comment évaluer la qualité du code généré? Quelles vérifications faire systématiquement?
- Quelle est ton expérience des hallucinations? Des trucs rigolos à raconter?
- Comment évoluent les pratiques de pair programming avec ces outils?
- Câest quoi ton budget code assistance / LLM?
Sous le capot
Pas sûr de pouvoir faire cette partie sous le capot si on a des interview orienté utilisateur.
- Comment ces assistants sont-ils entraînés spécifiquement pour comprendre le code?
- Quelle est la différence entre le fine-tuning pour le code et pour le langage naturel?
- Comment fonctionnent les techniques de retrieval augmentation pour le contexte du projet?
- Comment les assistants gèrent-ils les dépendances et la structure des projets complexes?
- Quels sont les défis techniques majeurs pour analyser du code Java avec ses spécificités?
- Comment les modèles réussissent-ils (ou échouent-ils) à comprendre la sémantique du code?
- Quelles sont les limites actuelles des modèles de langage pour la génération de code?
- Quâen est-il de la consommation de ressources et de lâimpact environnemental?
La communauté, le futur
- Comment la communauté Java a-t-elle accueilli ces outils?
- Câest pour quel type de développeur? Junior, intermédiaire, expert? Quels avantages pour chaque?
- Quel impact ces assistants ont-ils sur lâapprentissage de la programmation?
- Comment voyez-vous lâévolution des compétences requises pour les développeurs?
- Quelles sont les prochaines frontières pour les assistants de code?
- Quelles fonctionnalités manquent encore à lâappel?
- Comment les assistants vont-ils évoluer dans les 2-3 prochaines années?
- Ces outils vont-ils transformer radicalement la profession de développeur?
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
LCC 325 - Trier le hachis des concurrents
Posté le 09/05/2025Gros épisode qui couvre un large spectre de sujets : Java, Scala, Micronaut, NodeJS, lâIA et la compétence des développeurs, le sampling dans les LLMs, les DTO, le vibe coding, les changements chez Broadcom et Red Hat ainsi que plusieurs nouvelles sur les licences open source.
Enregistré le 7 mai 2025
Téléchargement de lâépisode LesCastCodeurs-Episode-325.mp3 ou en vidéo sur YouTube.
News
Langages
A lâoccasion de JavaOne et du lancement de Java 24, Oracle lance un nouveau site avec des ressources vidéo pour apprendre le langage https://learn.java/
- site plutôt à destination des débutants et des enseignants
- couvre la syntaxe aussi, y compris les ajouts plus récents comme les records ou le pattern matching
- câest pas le site le plus trendy du monde.
Martin Odersky partage un long article sur lâétat de lâécosystème Scala et les évolutions du language https://www.scala-lang.org/blog/2025/03/24/evolving-scala.html
- Stabilité et besoin dâévolution : Scala maintient sa position (~14ème mondial) avec des bases techniques solides, mais doit évoluer face à la concurrence pour rester pertinent.
- Axes prioritaires : Lâévolution se concentre sur lâamélioration du duo sécurité/convivialité, le polissage du langage (suppression des ârugositésâ) et la simplification pour les débutants.
- Innovation continue : Geler les fonctionnalités est exclu ; lâinnovation est clé pour la valeur de Scala. Le langage doit rester généraliste et ne pas se lier à un framework spécifique.
- Défis et progrès : Lâoutillage (IDE, outils de build comme
sbt,scala-cli,Mill) et la facilité dâapprentissage de lâécosystème sont des points dâattention, avec des améliorations en cours (partenariat pédagogique, plateformes simples).
Des strings encore plus rapides ! https://inside.java/2025/05/01/strings-just-got-faster/
- Dans JDK 25, la performance de la fonction
String::hashCodea été améliorée pour être principalement constant foldable. - Cela signifie que si les chaînes de caractères sont utilisées comme clés dans une
Mapstatique et immuable, des gains de performance significatifs sont probables. - Lâamélioration repose sur lâannotation interne
@Stableappliquée au champ privéString.hash. - Cette annotation permet à la machine virtuelle de lire la valeur du hash une seule fois et de la considérer comme constante si elle nâest pas la valeur par défaut (zéro).
- Par conséquent, lâopération
String::hashCodepeut être remplacée par la valeur de hash connue, optimisant ainsi les lookups dans lesMapimmuables. - Un cas limite est celui où le code de hachage de la chaîne est zéro, auquel cas lâoptimisation ne fonctionne pas (par exemple, pour la chaîne vide ââ).
- Bien que lâannotation
@Stablesoit interne au JDK, un nouveau JEP (JEP 502: Stable Values (Preview)) est en cours de développement pour permettre aux utilisateurs de bénéficier indirectement de fonctionnalités similaires.
AtomicHash, une implémentation Java dâune HashMap qui est thread-safe, atomique et non-bloquante https://github.com/arxila/atomichash
- implémenté sous forme de version immutable de Concurrent Hash Trie
Librairies
Sortie de Micronaut 4.8.0 https://micronaut.io/2025/04/01/micronaut-framework-4-8-0-released/
- Mise à jour de la BOM (Bill of Materials) : La version 4.8.0 met à jour la BOM de la plateforme Micronaut.
- Améliorations de Micronaut Core : Intégration de Micronaut SourceGen pour la génération interne de métadonnées et dâexpressions bytecode.
- Nombreuses améliorations dans Micronaut SourceGen.
- Ajout du traçage de lâinjection de dépendances pour faciliter le débogage au démarrage et à la création des beans.
- Nouveau membre
definitionTypedans lâannotation@Clientpour faciliter le partage dâinterfaces entre client et serveur. - Support de la fusion dans les Bean Mappers via lâannotation
@Mapping. - Nouvelle liveness probe détectant les threads bloqués (deadlocked) via
ThreadMXBean. - Intégration Kubernetes améliorée : Mise à jour du client Java Kubernetes vers la version 22.0.1.
- Ajout du module Micronaut Kubernetes Client OpenAPI, offrant une alternative au client officiel avec moins de dépendances, une configuration unifiée, le support des filtres et la compatibilité Native Image.
- Introduction dâun nouveau runtime serveur basé sur le serveur HTTP intégré de Java, permettant de créer des applications sans dépendances serveur externes.
- Ajout dans Micronaut Micrometer dâun module pour instrumenter les sources de données (traces et métriques).
- Ajout de la condition
conditiondans lâannotation@MetricOptionspour contrôler lâactivation des métriques via une expression. - Support des Consul watches dans Micronaut Discovery Client pour détecter les changements de configuration distribuée.
- Possibilité de générer du code source à partir dâun schéma JSON via les plugins de build (Gradle et Maven).
Web
Node v24.0.0 passe en version Current: https://nodejs.org/en/blog/release/v24.0.0
- Mise à jour du moteur V8 vers la version 13.6 : intégration de nouvelles fonctionnalités JavaScript telles que
Float16Array, la gestion explicite des ressources (using),RegExp.escape,WebAssembly Memory64etError.isError. - npm 11 inclus : améliorations en termes de performance, de sécurité et de compatibilité avec les packages JavaScript modernes.
- Changement de compilateur pour Windows : abandon de MSVC au profit de ClangCL pour la compilation de Node.js sur Windows.
AsyncLocalStorageutilise désormaisAsyncContextFramepar défaut : offrant une gestion plus efficace du contexte asynchrone.URLPatterndisponible globalement : plus besoin dâimporter explicitement cette API pour effectuer des correspondances dâURL.- Améliorations du modèle de permissions : le flag expérimental
--experimental-permissiondevient--permission, signalant une stabilité accrue de cette fonctionnalité. - Améliorations du test runner : les sous-tests sont désormais attendus automatiquement, simplifiant lâécriture des tests et réduisant les erreurs liées aux promesses non gérées.
- Intégration dâUndici 7 : amélioration des capacités du client HTTP avec de meilleures performances et un support étendu des fonctionnalités HTTP modernes.
- Dépréciations et suppressions :
- Dépréciation de
url.parse()au profit de lâAPI WHATWG URL. - Suppression de
tls.createSecurePair. - Dépréciation de
SlowBuffer. - Dépréciation de lâinstanciation de REPL sans
new. - Dépréciation de lâutilisation des classes Zlib sans
new. - Dépréciation du passage de
argsÃspawnetexecFiledanschild_process.
- Dépréciation de
- Node.js 24 est actuellement la version âCurrentâ et deviendra une version LTS en octobre 2025. Il est recommandé de tester cette version pour évaluer son impact sur vos applications.
Data et Intelligence Artificielle
Apprendre à coder reste crucial et lâIA est là pour venir en aide : https://kyrylo.org/software/2025/03/27/learn-to-code-ignore-ai-then-use-ai-to-code-even-better.html
- Apprendre à coder reste essentiel malgré lâIA.
- LâIA peut assister la programmation.
- Une solide base est cruciale pour comprendre et contrôler le code.
- Cela permet dâéviter la dépendance à lâIA.
- Cela réduit le risque de remplacement par des outils dâIA accessibles à tous.
- LâIA est un outil, pas un substitut à la maîtrise des fondamentaux.
Super article de Anthropic qui essaie de comprendre comment fonctionne la âpenséeâ des LLMs https://www.anthropic.com/research/tracing-thoughts-language-model
- Effet boîte noire : Stratégies internes des IA (Claude) opaques aux développeurs et utilisateurs.
- Objectif : Comprendre le âraisonnementâ interne pour vérifier capacités et intentions.
- Méthode : Inspiration neurosciences, développement dâun âmicroscope IAâ (regarder quels circuits neuronaux sâactivent).
- Technique : Identification de concepts (âfeaturesâ) et de âcircuitsâ internes.
- Multilinguisme : Indice dâun âlangage de penséeâ conceptuel commun à toutes les langues avant de traduire dans une langue particulière.
- Planification : Capacité à anticiper (ex: rimes en poésie), pas seulement de la génération mot par mot (token par token).
- Raisonnement non fidèle : Peut fabriquer des arguments plausibles (âbullshittingâ) pour une conclusion donnée.
- Logique multi-étapes : Combine des faits distincts, ne se contente pas de mémoriser.
- Hallucinations : Refus par défaut ; réponse si âconnaissanceâ active, sinon risque dâhallucination si erreur.
- âJailbreaksâ : Tension entre cohérence grammaticale (pousse à continuer) et sécurité (devrait refuser).
- Bilan : Méthodes limitées mais prometteuses pour la transparence et la fiabilité de lâIA.
Le âSâ dans MCP veut dire Securité (ou pas !) https://elenacross7.medium.com/%EF%B8%8F-the-s-in-mcp-stands-for-security-91407b33ed6b
- La spécification MCP pour permettre aux LLMs dâavoir accès à divers outils et fonctions a peut-être été adoptée un peu rapidement, alors quâelle nâétait pas encore prête niveau sécurité
- Lâarticle liste 4 types dâattaques possibles :
- vulnérabilité dâinjection de commandes
- attaque dâempoisonnement dâoutils
- redéfinition silencieuse de lâoutil
- le shadowing dâoutils inter-serveurs
- Pour lâinstant, MCP nâest pas sécurisé :
- Pas de standard dâauthentification
- Pas de chiffrement de contexte
- Pas de vérification dâintégrité des outils
- Basé sur lâarticle de InvariantLabs https://invariantlabs.ai/blog/mcp-security-notification-tool-poisoning-attacks
Sortie Infinispan 15.2 - pre rolling upgrades 16.0 https://infinispan.org/blog/2025/03/27/infinispan-15-2
- Support de Redis JSON + scripts Lua
- Métriques JVM désactivables
- Nouvelle console (PatternFly 6)
- Docs améliorées (métriques + logs)
- JDK 17 min, support JDK 24
- Fin du serveur natif (performances)
Guillaume montre comment développer un serveur MCP HTTP Server Sent Events avec lâimplémentation de référence Java et LangChain4j https://glaforge.dev/posts/2025/04/04/mcp-client-and-server-with-java-mcp-sdk-and-langchain4j/
- Développé en Java, avec lâimplémentation de référence qui est aussi à la base de lâimplémentation dans Spring Boot (mais indépendant de Spring)
- Le serveur MCP est exposé sous forme de servlet dans Jetty
- Le client MCP lui, est développé avec le module MCP de LangChain4j
- câest semi independant de Spring dans le sens où câest dépendant de Reactor et de ses interface.
- il y a une conversation sur le github dâanthropic pour trouver une solution, mais cela ne parait pas simple.
Les fallacies derrière la citation âAI wonât replace you, but humans using AI willâ https://platforms.substack.com/cp/161356485
- La fallacie de lâautomatisation vs. lâaugmentation : Elle se concentre sur lâamélioration des tâches existantes avec lâIA au lieu de considérer le changement de la valeur de ces tâches dans un nouveau système.
- La fallacie des gains de productivité : Lâaugmentation de la productivité ne se traduit pas toujours par plus de valeur pour les travailleurs, car la valeur créée peut être capturée ailleurs dans le système.
- La fallacie des emplois statiques : Les emplois sont des constructions organisationnelles qui peuvent être redéfinies par lâIA, rendant les rôles traditionnels obsolètes.
- La fallacie de la compétition âmoi vs. quelquâun utilisant lâIAâ : La concurrence évolue lorsque lâIA modifie les contraintes fondamentales dâun secteur, rendant les compétences existantes moins pertinentes.
- La fallacie de la continuité du flux de travail : LâIA peut entraîner une réimagination complète des flux de travail, éliminant le besoin de certaines compétences.
- La fallacie des outils neutres : Les outils dâIA ne sont pas neutres et peuvent redistribuer le pouvoir organisationnel en changeant la façon dont les décisions sont prises et exécutées.
- La fallacie du salaire stable : Le maintien dâun emploi ne garantit pas un salaire stable, car la valeur du travail peut diminuer avec lâaugmentation des capacités de lâIA.
- La fallacie de lâentreprise stable : Lâintégration de lâIA nécessite une restructuration de lâentreprise et ne se fait pas dans un vide organisationnel.
Comprendre le âsamplingâ dans les LLMs https://rentry.co/samplers
- Explique pourquoi les LLMs utilisent des tokens
- Les différentes méthodes de âsamplingâ : cà d de choix de tokens
- Les hyperparamètres comme la température, top-p, et leur influence réciproque
- Les algorithmes de tokenisation comme Byte Pair Encoding et SentencePiece.
Un de moins ⦠OpenAI va racheter Windsurf pour 3 milliards de dollars.
https://www.bloomberg.com/news/articles/2025-05-06/openai-reaches-agreement-to-buy-startup-windsurf-for-3-billion
- lâaccord nâest pas encore finalisé
- Windsurf était valorisé à 1,25 milliards lâan dernier et OpenAI a levé 40 milliards dernièrement portant sa valeur à 300 milliards
- Le but pour OpenAI est de rentrer dans le monde des assistants de code pour lesquels ils sont aujourdâhui absent
Docker desktop se met à lâIA⦠? Une nouvelle fonctionnalité dans docker desktop 4.4 sur macos: Docker Model Runner https://dev.to/docker/run-genai-models-locally-with-docker-model-runner-5elb
- Permet de faire tourner des modèles nativement en local ( https://docs.docker.com/model-runner/ ) mais aussi des serveurs MCP ( https://docs.docker.com/ai/mcp-catalog-and-toolkit/ )
Outillage
Jetbrains défend la suppression des commentaires négatifs sur son assistant IA https://devclass.com/2025/04/30/jetbrains-defends-removal-of-negative-reviews-for-unpopular-ai-assistant/?td=rt-3a
- LâIA Assistant de JetBrains, lancée en juillet 2023, a été téléchargée plus de 22 millions de fois mais nâest notée que 2,3 sur 5.
- Des utilisateurs ont remarqué que certaines critiques négatives étaient supprimées, ce qui a provoqué une réaction négative sur les réseaux sociaux.
- Un employé de JetBrains a expliqué que les critiques ont été supprimées soit parce quâelles mentionnaient des problèmes déjà résolus, soit parce quâelles violaient leur politique concernant les âgrossièretés, etc.â
- Lâentreprise a reconnu quâelle aurait pu mieux gérer la situation, un représentant déclarant : âSupprimer plusieurs critiques dâun coup sans préavis semblait suspect. Nous aurions dû au moins publier un avis et fournir plus de détails aux auteurs.â
- Parmi les problèmes de lâIA Assistant signalés par les utilisateurs figurent : un support limité pour les fournisseurs de modèles tiers, une latence notable, des ralentissements fréquents, des fonctionnalités principales verrouillées aux services cloud de JetBrains, une expérience utilisateur incohérente et une documentation insuffisante.
- Une plainte courante est que lâIA Assistant sâinstalle sans permission. Un utilisateur sur Reddit lâa qualifié de âplugin agaçant qui sâauto-répare/se réinstalle comme un phénixâ.
- JetBrains a récemment introduit un niveau gratuit et un nouvel agent IA appelé Junie, destiné à fonctionner parallèlement à lâIA Assistant, probablement en réponse à la concurrence entre fournisseurs. Mais il est plus char a faire tourner.
- La société sâest engagée à explorer de nouvelles approches pour traiter les mises à jour majeures différemment et envisage dâimplémenter des critiques par version ou de marquer les critiques comme âRésoluesâ avec des liens vers les problèmes correspondants au lieu de les supprimer.
- Contrairement à des concurrents comme Microsoft, AWS ou Google, JetBrains commercialise uniquement des outils et services de développement et ne dispose pas dâune activité cloud distincte sur laquelle sâappuyer.
Vos images de README et fichiers Markdown compatibles pour le dark mode de GitHub: https://github.blog/developer-skills/github/how-to-make-your-images-in-markdown-on-github-adjust-for-dark-mode-and-light-mode/
- Seulement quelques lignes de pure HTML pour le faire
Architecture
Alors, les DTOs, câest bien ou câest pas bien ? https://codeopinion.com/dtos-mapping-the-good-the-bad-and-the-excessive/
- Utilité des DTOs : Les DTOs servent à transférer des données entre les différentes couches dâune application, en mappant souvent les données entre différentes représentations (par exemple, entre la base de données et lâinterface utilisateur).
- Surutilisation fréquente : Lâarticle souligne que les DTOs sont souvent utilisés de manière excessive, notamment pour créer des API HTTP qui ne font que refléter les entités de la base de données, manquant ainsi lâopportunité de composer des données plus riches.
- Vraie valeur : La valeur réelle des DTOs réside dans la gestion du couplage entre les couches et la composition de données provenant de sources multiples en formes optimisées pour des cas dâutilisation spécifiques.
- Découplage : Il est suggéré dâutiliser les DTOs pour découpler les modèles de données internes des contrats externes (comme les API), ce qui permet une évolution et une gestion des versions indépendantes.
- Exemple avec CQRS : Dans le cadre de CQRS (Command Query Responsibility Segregation), les réponses aux requêtes (queries) agissent comme des DTOs spécifiquement adaptés aux besoins de lâinterface utilisateur, pouvant inclure des données de diverses sources.
- Protection des données internes : Les DTOs aident à distinguer et protéger les modèles de données internes (privés) des changements externes (publics).
- Ãviter lâexcès : Lâauteur met en garde contre les couches de mapping excessives (mapper un DTO vers un autre DTO) qui nâapportent pas de valeur ajoutée.
- Création ciblée : Il est conseillé de ne créer des DTOs que lorsquâils résolvent des problèmes concrets, tels que la gestion du couplage ou la facilitation de la composition de données.
Méthodologies
Même Guillaume se met au âvibe codingâ https://glaforge.dev/posts/2025/05/02/vibe-coding-an-mcp-server-with-micronaut-and-gemini/
- Selon Andrey Karpathy, câest le fait de POC-er un proto, une appli jetable du weekend https://x.com/karpathy/status/1886192184808149383
- Mais Simon Willison sâinsurge que certains confondent coder avec lâassistance de lâIA avec le vibe coding https://simonwillison.net/2025/May/1/not-vibe-coding/
- Guillaume câest ici amusé à développer un serveur MCP avec Micronaut, en utilisant Gemini, lâIA de Google.
- Contrairement à Quarkus ou Spring Boot, Micronaut nâa pas encore de module ou de support spécifique pour faciliter la création de serveur MCP
Sécurité
Une faille de sécurité 10/10 sur Tomcat https://www.it-connect.fr/apache-tomcat-cette-faille-activement-exploitee-seulement-30-heures-apres-sa-divulgation-patchez/
- Une faille de sécurité critique (CVE-2025-24813) affecte Apache Tomcat, permettant lâexécution de code à distance
- Cette vulnérabilité est activement exploitée seulement 30 heures après sa divulgation du 10 mars 2025
- Lâattaque ne nécessite aucune authentification et est particulièrement simple à exécuter
- Elle utilise une requête PUT avec une charge utile Java sérialisée encodée en base64, suivie dâune requête GET
- Lâencodage en base64 permet de contourner la plupart des filtres de sécurité
- Les serveurs vulnérables utilisent un stockage de session basé sur des fichiers (configuration répandue)
- Les versions affectées sont : 11.0.0-M1 à 11.0.2, 10.1.0-M1 à 10.1.34, et 9.0.0.M1 à 9.0.98
- Les mises à jour recommandées sont : 11.0.3+, 10.1.35+ et 9.0.99+
- Les experts prévoient des attaques plus sophistiquées dans les prochaines phases dâexploitation (upload de config ou jsp)
Sécurisation dâun serveur ssh https://ittavern.com/ssh-server-hardening/
- un article qui liste les configurations clés pour sécuriser un serveur SSH
- par exemple, enlever password authentigfication, changer de port, desactiver le login root, forcer le protocol ssh 2,
- certains que je ne connaissais pas comme
MaxStartupsqui limite le nombre de connections non authentifiées concurrentes - Port knocking est une technique utile mais demande une approche cliente consciente du protocol
Oracle admet que les identités IAM de ses clients ont leaké https://www.theregister.com/2025/04/08/oracle_cloud_compromised/
- Oracle a confirmé à certains clients que son cloud public a été compromis, alors que lâentreprise avait précédemment nié toute intrusion.
- Un pirate informatique a revendiqué avoir piraté deux serveurs dâauthentification dâOracle et volé environ six millions dâenregistrements, incluant des clés de sécurité privées, des identifiants chiffrés et des entrées LDAP.
- La faille exploitée serait la vulnérabilité CVE-2021-35587 dans Oracle Access Manager, quâOracle nâavait pas corrigée sur ses propres systèmes.
- Le pirate a créé un fichier texte début mars sur login.us2.oraclecloud.com contenant son adresse email pour prouver son accès.
- Selon Oracle, un ancien serveur contenant des données vieilles de huit ans aurait été compromis, mais un client affirme que des données de connexion aussi récentes que 2024 ont été dérobées.
- Oracle fait face à un procès au Texas concernant cette violation de données.
- Cette intrusion est distincte dâune autre attaque contre Oracle Health, sur laquelle lâentreprise refuse de commenter.
- Oracle pourrait faire face à des sanctions sous le RGPD européen qui exige la notification des parties affectées dans les 72 heures suivant la découverte dâune fuite de données.
- Le comportement dâOracle consistant à nier puis à admettre discrètement lâintrusion est inhabituel en 2025 et pourrait mener à dâautres actions en justice collectives.
Une GitHub action très populaire compromise https://www.stepsecurity.io/blog/harden-runner-detection-tj-actions-changed-files-action-is-compromised
- Compromission de lâaction
tj-actions/changed-files: En mars 2025, une action GitHub très utilisée (tj-actions/changed-files) a été compromise. Des versions modifiées de lâaction ont exposé des secrets CI/CD dans les logs de build. - Méthode dâattaque : Un PAT compromis a permis de rediriger plusieurs tags de version vers un commit contenant du code malveillant.
- Détails du code malveillant : Le code injecté exécutait une fonction Node.js encodée en base64, qui téléchargeait un script Python. Ce script parcourait la mémoire du runner GitHub à la recherche de secrets (tokens, clésâ¦) et les exposait dans les logs. Dans certains cas, les données étaient aussi envoyées via une requête réseau.
- Période dâexposition : Les versions compromises étaient actives entre le 12 et le 15 mars 2025. Tout dépôt, particulièrement ceux publiques, ayant utilisé lâaction pendant cette période doit être considéré comme potentiellement exposé.
- Détection : Lâactivité malveillante a été repérée par lâanalyse des comportements inhabituels pendant lâexécution des workflows, comme des connexions réseau inattendues.
- Réaction : GitHub a supprimé lâaction compromise, qui a ensuite été nettoyée.
- Impact potentiel : Tous les secrets apparaissant dans les logs doivent être considérés comme compromis, même dans les dépôts privés, et régénérés sans délai.
Loi, société et organisation
Les startup the YCombinateur ont les plus fortes croissances de leur histoire https://www.cnbc.com/2025/03/15/y-combinator-startups-are-fastest-growing-in-fund-history-because-of-ai.html
- Les entreprises en phase de démarrage à Silicon Valley connaissent une croissance significative grâce à lâintelligence artificielle.
- Le PDG de Y Combinator, Garry Tan, affirme que lâensemble des startups de la dernière cohorte a connu une croissance hebdomadaire de 10% pendant neuf mois.
- LâIA permet aux développeurs dâautomatiser des tâches répétitives et de générer du code grâce aux grands modèles de langage.
- Pour environ 25% des startups actuelles de YC, 95% de leur code a été écrit par lâIA.
- Cette révolution permet aux entreprises de se développer avec moins de personnel - certaines atteignant 10 millions de dollars de revenus avec moins de 10 employés.
- La mentalité de âcroissance à tout prixâ a été remplacée par un renouveau dâintérêt pour la rentabilité.
- Environ 80% des entreprises présentées lors du âdemo dayâ étaient centrées sur lâIA, avec quelques startups en robotique et semi-conducteurs.
- Y Combinator investit 500 000 dollars dans les startups en échange dâune participation au capital, suivi dâun programme de trois mois.
Red Hat middleware (ex-jboss) rejoint IBM https://markclittle.blogspot.com/2025/03/red-hat-middleware-moving-to-ibm.html
- Les activités Middleware de Red Hat (incluant JBoss, Quarkus, etc.) vont être transférées vers IBM, dans lâunité dédiée à la sécurité des données, à lâIAM et aux runtimes.
- Ce changement découle dâune décision stratégique de Red Hat de se concentrer davantage sur le cloud hybride et lâintelligence artificielle.
- Mark Little explique que ce transfert était devenu inévitable, Red Hat ayant réduit ses investissements dans le Middleware ces dernières années.
- Lâintégration vise à renforcer lâinnovation autour de Java en réunissant les efforts de Red Hat et IBM sur ce sujet.
- Les produits Middleware resteront open source et les clients continueront à bénéficier du support habituel sans changement.
- Mark Little affirme que des projets comme Quarkus continueront à être soutenus et que cette évolution est bénéfique pour la communauté Java.
Un an de commonhaus https://www.commonhaus.org/activity/253.html
- un an, démarré sur les communautés quâils connaissaient bien
- maintenant 14 projets et put en accepter plus
- confiance, gouvernance legère et proteger le futur des projets
- automatisation de lâadministratif, stabiilité sans complexité, les developpeurs au centre du processus de décision
- ils ont besoins de members et supporters (financiers)
- ils veulent accueillir des projets au delà de ceux du cercles des Java Champions
Spring Cloud Data Flow devient un produit commercial et ne sera plus maintenu en open source https://spring.io/blog/2025/04/21/spring-cloud-data-flow-commercial
- Peut-être sous lâinfluence de Broadcom, Spring se met à mettre en mode propriétaire des composants du portefeuille Spring
- ils disent que peu de gens lâutilisaent en mode OSS et la majorité venait dâun usage dans la plateforme Tanzu
- Maintenir en open source le coutent du temps quâils sonât pas sur ces projets.
La CNCF protège le projet NATS, dans la fondation depuis 2018, vu que la société Synadia qui y contribue souhaitait reprendre le contrôle du projet https://www.cncf.io/blog/2025/04/24/protecting-nats-and-the-integrity-of-open-source-cncfs-commitment-to-the-community/
- CNCF : Protège projets OS, gouvernance neutre.
- Synadia vs CNCF : Veut retirer NATS, licence non-OS (BUSL).
- CNCF : Accuse Synadia de âclaw backâ (reprise illégitime).
- Revendications Synadia : Domaine nats.io, orga GitHub.
- Marque NATS : Synadia nâa pas transféré (promesse rompue malgré aide CNCF).
- Contestation Synadia : Juge règles CNCF âtrop vaguesâ.
- Vote interne : Mainteneurs Synadia votent sortie CNCF (sans communauté).
- Support CNCF : Investissement majeur ($ audits, légal), succès communautaire (>700 orgs).
- Avenir NATS (CNCF) : Maintien sous Apache 2.0, gouvernance ouverte.
- Actions CNCF : Health check, appel mainteneurs, annulation marque Synadia, rejet demandes.
- Mais finalement il semble y avoir un bon dénouement :
- https://www.cncf.io/announcements/2025/05/01/cncf-and-synadia-align-on-securing-the-future-of-the-nats-io-project/
- Accord pour lâavenir de NATS.io : La Cloud Native Computing Foundation (CNCF) et Synadia ont conclu un accord pour sécuriser le futur du projet NATS.io.
- Transfert des marques NATS : Synadia va céder ses deux enregistrements de marque NATS à la Linux Foundation afin de renforcer la gouvernance ouverte du projet.
- Maintien au sein de la CNCF : Lâinfrastructure et les actifs du projet NATS resteront sous lâégide de la CNCF, garantissant ainsi sa stabilité à long terme et son développement en open source sous licence Apache-2.0.
- Reconnaissance et engagement : La Linux Foundation, par la voix de Todd Moore, reconnaît les contributions de Synadia et son soutien continu. Derek Collison, PDG de Synadia, réaffirme lâengagement de son entreprise envers NATS et la collaboration avec la Linux Foundation et la CNCF.
- Adoption et soutien communautaire : NATS est largement adopté et considéré comme une infrastructure critique. Il bénéficie dâun fort soutien de la communauté pour sa nature open source et lâimplication continue de Synadia.
Finalement, Redis revient vers une licence open source OSI, avec la AGPL https://foojay.io/today/redis-is-now-available-under-the-agplv3-open-source-license/
- Redis passe à la licence open source AGPLv3 pour contrer lâexploitation par les fournisseurs cloud sans contribution.
- Le passage précédent à la licence SSPL avait nui à la relation avec la communauté open source.
- Salvatore Sanfilippo (antirez) est revenu chez Redis.
- Redis 8 adopte la licence AGPL, intègre les fonctionnalités de Redis Stack (JSON, Time Series, etc.) et introduit les âvector setsâ (le support de calcul vectoriel développé par Salvatore).
- Ces changements visent à renforcer Redis en tant que plateforme appréciée des développeurs, conformément à la vision initiale de Salvatore.
Conférences
La liste des conférences provenant de Developers Conferences Agenda/List par Aurélie Vache et contributeurs :
- 6-7 mai 2025 : GOSIM AI Paris - Paris (France)
- 7-9 mai 2025 : Devoxx UK - London (UK)
- 15 mai 2025 : Cloud Toulouse - Toulouse (France)
- 16 mai 2025 : AFUP Day 2025 Lille - Lille (France)
- 16 mai 2025 : AFUP Day 2025 Lyon - Lyon (France)
- 16 mai 2025 : AFUP Day 2025 Poitiers - Poitiers (France)
- 22-23 mai 2025 : Flupa UX Days 2025 - Paris (France)
- 24 mai 2025 : Polycloud - Montpellier (France)
- 24 mai 2025 : NG Baguette Conf 2025 - Nantes (France)
- 3 juin 2025 : TechReady - Nantes (France)
- 5-6 juin 2025 : AlpesCraft - Grenoble (France)
- 5-6 juin 2025 : Devquest 2025 - Niort (France)
- 10-11 juin 2025 : Modern Workplace Conference Paris 2025 - Paris (France)
- 11-13 juin 2025 : Devoxx Poland - Krakow (Poland)
- 12 juin 2025 : Positive Design Days - Strasbourg (France)
- 12-13 juin 2025 : Agile Tour Toulouse - Toulouse (France)
- 12-13 juin 2025 : DevLille - Lille (France)
- 13 juin 2025 : Tech FâEst 2025 - Nancy (France)
- 17 juin 2025 : Mobilis In Mobile - Nantes (France)
- 19-21 juin 2025 : Drupal Barcamp Perpignan 2025 - Perpignan (France)
- 24 juin 2025 : WAX 2025 - Aix-en-Provence (France)
- 25-26 juin 2025 : AgiâLille 2025 - Lille (France)
- 25-27 juin 2025 : BreizhCamp 2025 - Rennes (France)
- 26-27 juin 2025 : Sunny Tech - Montpellier (France)
- 1-4 juillet 2025 : Open edX Conference - 2025 - Palaiseau (France)
- 7-9 juillet 2025 : Riviera DEV 2025 - Sophia Antipolis (France)
- 5 septembre 2025 : JUG Summer Camp 2025 - La Rochelle (France)
- 12 septembre 2025 : Agile Pays Basque 2025 - Bidart (France)
- 18-19 septembre 2025 : API Platform Conference - Lille (France) & Online
- 23 septembre 2025 : OWASP AppSec France 2025 - Paris (France)
- 25-26 septembre 2025 : Paris Web 2025 - Paris (France)
- 2-3 octobre 2025 : Volcamp - Clermont-Ferrand (France)
- 3 octobre 2025 : DevFest Perros-Guirec 2025 - Perros-Guirec (France)
- 6-10 octobre 2025 : Devoxx Belgium - Antwerp (Belgium)
- 7 octobre 2025 : BSides Mulhouse - Mulhouse (France)
- 9-10 octobre 2025 : Forum PHP 2025 - Marne-la-Vallée (France)
- 9-10 octobre 2025 : EuroRust 2025 - Paris (France)
- 16 octobre 2025 : PlatformCon25 Live Day Paris - Paris (France)
- 16-17 octobre 2025 : DevFest Nantes - Nantes (France)
- 30-31 octobre 2025 : Agile Tour Bordeaux 2025 - Bordeaux (France)
- 30-31 octobre 2025 : Agile Tour Nantais 2025 - Nantes (France)
- 30 octobre 2025-2 novembre 2025 : PyConFR 2025 - Lyon (France)
- 4-7 novembre 2025 : NewCrafts 2025 - Paris (France)
- 6 novembre 2025 : dotAI 2025 - Paris (France)
- 7 novembre 2025 : BDX I/O - Bordeaux (France)
- 12-14 novembre 2025 : Devoxx Morocco - Marrakech (Morocco)
- 13 novembre 2025 : DevFest Toulouse - Toulouse (France)
- 15-16 novembre 2025 : Capitole du Libre - Toulouse (France)
- 20 novembre 2025 : OVHcloud Summit - Paris (France)
- 21 novembre 2025 : DevFest Paris 2025 - Paris (France)
- 27 novembre 2025 : Devfest Strasbourg 2025 - Strasbourg (France)
- 28 novembre 2025 : DevFest Lyon - Lyon (France)
- 5 décembre 2025 : DevFest Dijon 2025 - Dijon (France)
- 10-11 décembre 2025 : Devops REX - Paris (France)
- 10-11 décembre 2025 : Open Source Experience - Paris (France)
- 28-31 janvier 2026 : SnowCamp 2026 - Grenoble (France)
- 2-6 février 2026 : Web Days Convention - Aix-en-Provence (France)
- 23-25 avril 2026 : Devoxx Greece - Athens (Greece)
- 17 juin 2026 : Devoxx Poland - Krakow (Poland)
Nous contacter
Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs
Contactez-nous via X/twitter https://twitter.com/lescastcodeurs ou Bluesky https://bsky.app/profile/lescastcodeurs.com
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/
Les Cast Codeurs : le podcast en français de, par et pour les développeurs.