Devoxx est depuis longtemps un rendez-vous incontournable pour la communauté tech. L’édition 2025 n’a pas dérogé à la règle : elle a confirmé que Devoxx reste, en Europe, une vitrine d’innovations, un laboratoire de tendances, et un forum de débats critiques sur les évolutions du numérique.
Cette année, l’Intelligence Artificielle, les agents autonomes, l’optimisation des performances data et la sécurisation des infrastructures cloud ont été au cœur des échanges, rassemblant experts, développeurs et architectes autour d’une même interrogation :
➡️ Comment faire évoluer nos systèmes vers plus d’autonomie, de performance et de résilience ?
Agents IA : entre promesses concrètes et défis de sécurisation
Parmi les grands enseignements de Devoxx 2025, la montée en puissance des agents IA a fait l’unanimité dans les retours de nos consultants présents sur place. Tous ont constaté que l’on franchit un nouveau cap : les modèles de langage ne se contentent plus de générer des réponses, ils deviennent capables d’agir sur leur environnement.
De la génération de texte à l’action autonome
Julien Dubois (Construire une IA agentique avec les Structured Outputs, Function Calling et MCP) et Guillaume Laforge (Agents intelligents, la nouvelle frontière des LLMs) ont dressé un constat partagé : l’ère des simples chatbots touche à sa fin.
Les échanges sur place ont révélé un intérêt fort pour des briques techniques comme les Structured Outputs ou le Function Calling, qui permettent de structurer les réponses IA et de les connecter directement à des fonctions métiers existantes.
“On sent qu’on est en train de bâtir une interface standardisée entre l’IA et nos systèmes — plus besoin de passer par une couche de traduction manuelle.”
Consultant MARGO
MCP : un protocole pour fluidifier les échanges IA / systèmes
Le protocole MCP (Model Context Protocol), largement évoqué dans les talks, est apparu comme une avancée majeure. En standardisant la façon dont les agents IA dialoguent avec des bases de données, des APIs ou des outils métiers, il ouvre la voie à des workflows IA beaucoup plus fluides et industrialisables.
Mais les retours sont prudents :
“La puissance du MCP est indéniable, mais sans gouvernance, on risque de créer des failles critiques. Il faudra absolument mettre en place des registres de services sécurisés pour éviter les dérives.”
Consultant MARGO
LangChain : un écosystème en pleine ébullition
Au cœur de cette évolution, LangChain s’impose comme une référence incontournable pour concevoir des agents IA performants. Ce framework Python, pensé pour exploiter pleinement les LLM et construire des architectures RAG (Retrieval-Augmented Generation), s’est démarqué par sa richesse fonctionnelle et sa flexibilité.
✨ Sa capacité à intégrer nativement des Structured Outputs, le Function Calling, et des workflows multi-étapes via MCP (Multi-Chain Prompting) en fait une brique centrale de l’ingénierie des agents intelligents.
🔄 Autre atout majeur : son interopérabilité. LangChain est compatible avec OpenAI, HuggingFace, des APIs personnalisées, ou encore des bases vectorielles comme FAISS et Qdrant — sans imposer une architecture fermée, ce qui séduit particulièrement les développeurs en quête de liberté technologique.
📦 À noter également : l’émergence de LangChain4j, une implémentation indépendante spécialement conçue pour Java.
Elle témoigne de la popularité croissante de l’écosystème LangChain, désormais étendu à d’autres langages pour répondre à des besoins industriels variés.
⚡ Enfin, nos équipes soulignent la rapidité de prototypage, qui permet de tester rapidement des agents complexes tout en gardant un contrôle fin sur la logique sous-jacente — un équilibre rare dans les frameworks d’IA actuels.
La vitalité de la communauté open-source, couplée à une documentation de qualité, a clairement favorisé une adoption rapide, comme en témoignent les nombreux retours d’expérience partagés à Devoxx.
Cas d’usage et vigilance opérationnelle
🧪 Côté cas d’usage, plusieurs démonstrations ont marqué les esprits, notamment celle d’un agent capable de se connecter à un serveur Azure et d’exécuter des commandes en totale autonomie.
Si la performance impressionne, le taux d’erreur constaté sur certaines actions rappelle que la fiabilité opérationnelle reste encore à perfectionner avant des déploiements en production massive.
🔐 En filigrane, une vigilance s’impose sur les enjeux de sécurité : sans contrôles adaptés, le risque de voir des agents IA accéder à des ressources sensibles, ou interagir avec des services non sécurisés via MCP, reste important.
Face à ces risques, nos experts soulignent la nécessité d’un cadre de contrôle rigoureux :
“Nous recommandons de systématiser la mise en place d’un registre certifié des endpoints accessibles aux agents, afin de garantir une maîtrise totale des communications.”
Consultant MARGO
Optimisation locale : quand DuckDB et PostgreSQL redéfinissent l’efficacité
Un basculement vers des architectures frugales
Parmi les signaux forts captés à Devoxx 2025, nos consultants ont relevé un basculement clair vers des approches locales et frugales pour le traitement des données.
🌍 Loin des infrastructures cloud coûteuses et complexes, les moteurs légers comme DuckDB et PostgreSQL optimisé offrent désormais des performances remarquables directement en local, tout en répondant aux enjeux de souveraineté des données.
Ce constat a été particulièrement mis en lumière lors de la conférence de Vincent Heuschling, “DuckDB, le canard qui a révolutionné le Datalake”.
DuckDB, autrefois perçu comme un projet académique marginal, est aujourd’hui une alternative crédible aux solutions Lakehouse traditionnelles.
DuckDB : la promesse de la big data sans big infrastructure
La session a été l’occasion de découvrir un playbook complet pour intégrer DuckDB dans une organisation. En prenant l’exemple d’un projet de base nationale de référence du monde vétérinaire, Vincent Heuschling a montré comment DuckDB peut s’imposer à toutes les étapes de la chaîne data :
- SQL in-memory ultra-rapide pour transformer les données,
- Exploration de datasets dans le navigateur grâce à un moteur embarqué en WASM,
- Exposition directe aux utilisateurs via des applications web… sans jamais recourir à un serveur de bases de données !
Les retours de nos consultants confirment l’impression laissée sur place : DuckDB est capable d’exécuter de lourdes opérations analytiques directement en local, avec des coûts optimisés de manière démesurée par rapport aux solutions cloud classiques.
“DuckDB, c’est la big data pour les organisations qui veulent de l’efficacité sans exploser leur facture d’infrastructure.”
Consultant MARGO
Au-delà de la performance, ce qui frappe, c’est la simplicité de déploiement et l’agilité offerte pour prototyper rapidement ou industrialiser des traitements analytiques sans dépendre d’une plateforme SaaS.
PostgreSQL : une optimisation plus fine pour des gains réels
📊 La session “Optimisation des requêtes PostgreSQL : Parlons Performance !” menée par Laetitia Avrot a rappelé que l’optimisation PostgreSQL moderne est avant tout une affaire de précision.
Fini le réflexe de multiplier les index : nos consultants ont retenu qu’il est essentiel d’analyser finement les plans d’exécution avec EXPLAIN
ou pg_stat_statements
, pour adapter l’indexation au contexte et non appliquer des recettes toutes faites.
“Chaque base est un cas particulier. Mal indexer peut parfois ralentir davantage que d’indexer prudemment.”
Consultant MARGO
Cette approche plus nuancée permet d’améliorer significativement les performances sans alourdir inutilement les bases.
Frugalité, souveraineté, maîtrise : la nouvelle équation data
🧩 La montée en puissance de solutions comme DuckDB et l’optimisation raisonnée de PostgreSQL répondent à des besoins très concrets que nos consultants ont identifiés chez les clients :
- Réduire la dépendance aux clouds publics et mieux maîtriser les coûts,
- Accélérer les analyses de données sans nécessiter d’infrastructures lourdes,
- Renforcer la souveraineté sur les données sensibles,
- Prototyper rapidement des solutions data performantes, prêtes pour la production.
✅ En somme, Devoxx 2025 confirme que l’optimisation locale n’est pas un retour en arrière, mais un choix stratégique intelligent dans un monde où l’agilité, la sécurité et la maîtrise des budgets sont devenues des priorités absolues.
GitHub Copilot : vers un copilote indispensable pour les développeurs ?
Une nouvelle génération d’assistants IA mieux intégrés
Lors de Devoxx 2025, nos consultants ont particulièrement suivi la conférence animée par Kim-Adeline Miguel, responsable du développement de Copilot chez GitHub, et Tugdual Grall, Developer Advocate chez MongoDB, intitulée “Dans les coulisses de Copilot : Contexte + LLM + Perf + Sécurité“.
L’occasion de plonger dans les entrailles de GitHub Copilot et d’évaluer les avancées d’une IA de plus en plus intégrée dans le quotidien des développeurs.
Cette session a permis de mettre en lumière les évolutions majeures de l’outil, en particulier sur trois axes : la prise en compte du contexte local, l’optimisation des performances, et la gestion des enjeux de sécurité et de confidentialité.
Un Copilot plus intelligent, plus pertinent
Parmi les grands enseignements, l’importance du contexte local s’impose comme un tournant majeur.
Copilot ne se limite plus à compléter du code ligne par ligne : il est désormais capable d’analyser l’ensemble de la base de code active, de collecter des extraits de fichiers pertinents et d’ajuster ses suggestions en fonction de la logique applicative.
“On voit clairement que la génération de code est devenue beaucoup plus contextuelle et précise, particulièrement sur des projets complexes.”
Ingénieur logiciel MARGO
Cette montée en puissance est rendue possible par une meilleure orchestration entre les LLMs (modèles de langage), les stratégies de sélection de contexte et l’ingénierie logicielle embarquée dans Copilot.
Une évolution saluée pour sa capacité à s’adapter au code existant sans imposer un style ou une structure.
Comprendre le fonctionnement pour mieux l’utiliser
La conférence a également mis en lumière les mécanismes de “data pre-processing” mis en place avant chaque suggestion : nettoyage du code, détection des entités sensibles, sélection des fichiers pertinents… autant d’étapes qui garantissent des recommandations plus sûres et plus justes.
Ce niveau de transparence, rarement abordé publiquement par les éditeurs de LLMs, a été particulièrement apprécié.
Sécurité des données : un point de vigilance crucial
Un autre sujet central de la conférence concernait la sécurité des données et la confidentialité des projets. Si GitHub garantit que les projets privés ne sont pas utilisés pour l’entraînement des modèles, les intervenants ont rappelé l’importance de bien paramétrer Copilot, notamment dans les environnements professionnels.
Il est donc essentiel de désactiver les fonctionnalités d’envoi automatique de données, surtout dans les secteurs critiques ou soumis à des contraintes réglementaires fortes.
De la suggestion au raisonnement : Copilot passe en mode Chat
Nos consultants ont également testé la fonctionnalité Copilot Chat, encore peu connue mais en fort développement. Cette interface conversationnelle intégrée à GitHub.com permet de poser des questions techniques, obtenir des explications de code, ou encore générer des blocs entiers en langage naturel.
Grâce à l’accès à des modèles avancés comme OpenAI o1, GPT-4.1 ou Claude 3.7 Sonnet, l’expérience s’est révélée particulièrement fluide et puissante :
“Sur des problèmes de développement complexes, la qualité des réponses via Copilot Chat rivalise largement avec celle des modèles standalone type ChatGPT ou Claude.”
Consultant MARGO
L’intérêt de cette approche réside dans son intégration directe à l’environnement de travail GitHub, limitant les frictions et améliorant la continuité du développement.
Industrialisation : opportunités et vigilance
Copilot s’impose désormais comme un accélérateur de productivité incontestable, mais son usage doit rester raisonné et encadré. Les retours de nos équipes mettent en avant plusieurs points d’attention :
- ✅ Ne pas se reposer aveuglément sur les suggestions : la relecture humaine reste indispensable pour garantir la qualité et la sécurité du code produit.
- ✅ Sensibiliser les développeurs à la protection des données dès l’activation de Copilot sur des projets professionnels.
- ✅ Former les équipes à l’usage intelligent de l’AI-augmented programming, pour maximiser les gains sans sacrifier la compréhension du code.
Enfin, cette évolution des assistants IA soulève une perspective stratégique : développer des solutions internes de génération assistée de code, hébergées sur site ou en cloud privé, notamment pour les entreprises les plus sensibles à la confidentialité.
Vers des LLM souverains : le futur de l’IA métier en interne
L’autonomie IA : un enjeu de souveraineté technologique
Parmi les temps forts de Devoxx France 2024, une conférence a particulièrement attiré l’attention de nos consultants : « Agents intelligents, la nouvelle frontière des LLMs », animée par Guillaume Laforge, Developer Advocate chez Google Cloud. Cette session s’inscrit dans une tendance de fond : la transition des LLMs généralistes vers des agents autonomes, métiers et souverains.
“On sent que la souveraineté des données est redevenue une priorité pour beaucoup d’entreprises, notamment dans les secteurs sensibles.”
Consultant MARGO
De RAG aux agents intelligents : aller au-delà de la génération de texte
Guillaume Laforge a rappelé les limites bien connues des LLMs et du RAG (Retrieval-Augmented Generation), notamment leur passivité : un LLM répond, mais n’agit pas. Les agents intelligents représentent une étape supplémentaire : ils planifient, décomposent les tâches, interagissent avec des outils externes et prennent des décisions dans un contexte métier donné.
À travers des démonstrations en Java avec LangChain4j, la session a montré comment créer des assistants capables :
- d’interroger dynamiquement plusieurs sources internes,
- d’orchestrer plusieurs appels en fonction d’un objectif,
- voire d’interagir avec un système externe (ex : déclencher une action métier ou une requête API) sans intervention humaine.
Vers des assistants souverains, spécialisés, et intégrés
Cette approche s’inscrit dans une logique d’industrialisation locale de l’IA : au lieu d’envoyer des requêtes à un LLM distant, les agents sont hébergés sur l’infrastructure de l’entreprise, enrichis avec des documents internes via RAG, mais surtout capables d’interagir avec le système d’information.
Nos consultants ont relevé plusieurs bénéfices de cette évolution :
- ✅ Confidentialité maximale : l’agent et ses données vivent intégralement sur site ou en cloud privé.
- ✅ Pertinence métier : les réponses sont ancrées dans le contexte et les processus internes.
- ✅ Autonomie fonctionnelle : l’IA devient active, capable de déclencher des actions métier sur la base d’un raisonnement.
- ✅ Extensibilité avec le Model Context Protocol (MCP) : un standard évoqué pendant la conférence pour connecter les LLMs à des outils ou API spécifiques.
Des opportunités, mais aussi des exigences techniques fortes
Comme pour tout système IA embarqué, la promesse des agents intelligents implique des prérequis solides :
- 🧠 Compréhension fine des modèles, du RAG, et des architectures d’agents.
- 🔧 Maîtrise des frameworks (LangChain4j, vector stores, orchestration).
- 🖥️ Ressources matérielles suffisantes (GPU pour l’inférence, stockage optimisé pour les bases vectorielles).
- 🔁 Mise à jour régulière du pipeline pour maintenir la cohérence des réponses et l’exactitude des actions.
“Créer un assistant métier souverain qui comprend nos procédures, nos systèmes et qui peut interagir avec eux : c’est clairement le prochain cap à franchir.”
Architecte logiciel MARGO
Agents intelligents : une nouvelle ère pour l’IA métier
Ce que Devoxx France 2024 confirme, c’est que l’ère des simples prompts touche à sa fin. L’avenir de l’IA en entreprise passe par :
- des LLMs open source embarqués,
- enrichis via RAG,
- et désormais orchestrés sous forme d’agents métiers intelligents et souverains.
Nos équipes MARGO, en veille active sur ces sujets, se tiennent prêtes à accompagner les entreprises dans le prototypage de solutions IA internes, centrées sur la confidentialité, la pertinence métier et l’action concrète.
🚀 Découvrez notre expertise IA
Conclusion : Devoxx 2025 – Vers une IA plus sobre, plus souveraine, plus intégrée
L’édition 2025 de Devoxx aura confirmé une chose essentielle : l’IA n’est plus une promesse abstraite, elle s’inscrit désormais dans des usages très concrets, qu’il s’agisse d’agents intelligents capables d’interagir avec leur environnement, de copilotes intégrés dans l’environnement de développement, ou de moteurs de requêtes locaux qui redonnent du sens à la frugalité technologique.
Deux tendances majeures s’imposent avec clarté :
- L’autonomie : les systèmes deviennent plus intelligents, plus contextualisés, capables d’agir de manière orchestrée et connectée avec les métiers.
- La frugalité : à l’heure des arbitrages budgétaires et de la souveraineté numérique, les approches locales, sobres et open source (DuckDB, PostgreSQL, LLMs embarqués) retrouvent un attrait stratégique fort.
Les défis ne manquent pas : gouvernance des agents, sécurité des échanges, qualité des corpus ou encore complexité de l’intégration. Mais une chose est certaine : nous sommes entrés dans l’ère de l’IA industrialisée et maîtrisée.
Chez MARGO, cette vision fait écho à notre conviction : construire une IA utile, responsable et pragmatique, ancrée dans les réalités métiers de nos clients. Une IA qui accélère, mais ne remplace pas ; qui assiste, mais ne s’impose pas ; qui apprend, mais toujours dans un cadre que nous contrôlons.
L’après-Devoxx commence maintenant : à nous de transformer ces enseignements en prototypes, en projets, et en valeur concrète.
📚 Pour aller plus loin, découvrez également nos deux autres articles sur Devoxx 2025 :
📚 Pour aller plus loin, consultez aussi :
FAQ – Ce qu’il faut retenir de Devoxx 2025
Q : Qu’entend-on par “IA frugale” dans le contexte Devoxx ?
R : L’IA frugale désigne des approches sobres, locales et maîtrisées, qui utilisent des outils comme DuckDB ou des LLMs embarqués pour réduire la dépendance au cloud tout en maîtrisant les coûts et la souveraineté des données.
Q : Quelle est la différence entre un LLM classique et un agent intelligent ?
R : Un LLM classique génère du texte sur demande. Un agent intelligent, lui, est capable d’agir : il planifie des tâches, interagit avec des systèmes métiers (API, bases, outils internes) et prend des décisions dans un contexte donné.
Q : GitHub Copilot peut-il être utilisé en entreprise en toute sécurité ?
R : Oui, mais sous conditions. Il est essentiel de désactiver certaines options par défaut (comme l’envoi de données), de former les équipes, et de veiller à ce que les projets sensibles restent isolés des environnements d’entraînement.
Q : Pourquoi parle-t-on autant de souveraineté numérique ?
R : Parce que de plus en plus d’entreprises souhaitent garder la main sur leurs données et leurs systèmes IA. Héberger des modèles localement, ou les entraîner sur des données internes, devient une stratégie de plus en plus privilégiée.
C++ Coroutines – Gods from the Machine
Coroutines seem to work like magic – with the compiler generating a lot of machinery for you. Yet, at the same time, writing them from scratch remains complex with lots of moving parts! Trying to keep them all in your head while learning it is what makes coroutines so hard to master.
But the dance between all those parts and what the compiler does for you is so tight that you can literally let your compiler be your guide. I’ll show how, from a standing start, you can get from no code to a working, useful, coroutine while only needing to know a handful of extra pieces of information.
In ancient Greek theatre puzzling plots were often resolved by external factors – often an actor or prop lowered in from a crane (in Greek, “mēkhanês”, or Latin: “mechine”). This came to be called, “deus ex machina” – gods from the machine. We will keep our deus ex machina to a minimum and leave the compiler to teach us the rest.
C++ Coroutines – Gods from the Machine
Coroutines seem to work like magic – with the compiler generating a lot of machinery for you. Yet, at the same time, writing them from scratch remains complex with lots of moving parts! Trying to keep them all in your head while learning it is what makes coroutines so hard to master.
But the dance between all those parts and what the compiler does for you is so tight that you can literally let your compiler be your guide. I’ll show how, from a standing start, you can get from no code to a working, useful, coroutine while only needing to know a handful of extra pieces of information.
In ancient Greek theatre puzzling plots were often resolved by external factors – often an actor or prop lowered in from a crane (in Greek, “mēkhanês”, or Latin: “mechine”). This came to be called, “deus ex machina” – gods from the machine. We will keep our deus ex machina to a minimum and leave the compiler to teach us the rest.
Finally! Coroutines without the suspense!
Phil Nash
is the original author of the C++ test framework, Catch2 and is an independent consultant and trainer, specialising in TDD and Modern C++.
Formerly Developer Advocate at Sonar and JetBrains he has had a career that spans finance, mobile and software security.
He’s also a member of the ISO C++ standards committee, organiser of C++ London and C++ on Sea, as well as co-host and producer of CppCast.
Finally! Coroutines without the suspense!
Phil Nash
is the original author of the C++ test framework, Catch2 and is an independent consultant and trainer, specialising in TDD and Modern C++.
Formerly Developer Advocate at Sonar and JetBrains he has had a career that spans finance, mobile and software security.
He’s also a member of the ISO C++ standards committee, organiser of C++ London and C++ on Sea, as well as co-host and producer of CppCast.
Q : Comment démarrer un projet IA interne en 2025 ?
R : En combinant des LLMs open source, des frameworks comme LangChain, un moteur vectoriel, et une bonne structuration des données. L’accompagnement par des experts est recommandé pour construire une solution pertinente et sécurisée.