L'intelligence artificielle s’accélère et passe désormais de l’expérimentation à la pratique soulevant deux questions pour 2025 : quelles solutions fonctionnent réellement ? Dans quels domaines cela vaut-il la peine de l’appliquer ? Alors que les leaders de l'IA se préparent déjà pour avoir une longueur d’avance, certaines entreprises peinent encore à intégrer cette technologie. Les experts de Neo4j®, leader mondial des bases de données de graphes et de l'analytique, ont examiné les principales tendances 2025 en matière d’IA, le rôle crucial de la technologie des graphes et les futurs critères de réussite décisifs. Voici leurs conclusions.
L’adoption de l’IA : entre promesse et réalité
À bien des égards, l’IA demeure l’un des paris les plus ambitieux de l’histoire des entreprises. Les investissements en 2024 n’ont montré aucun signe de ralentissement : les géants du cloud hyperscale ont intensifié leurs efforts, les fournisseurs d’IA ont suralimenté leurs modèles, et des fabricants comme Nvidia ont enchaîné les records. Dans le monde professionnel, la GenAI est passée de nouveauté à un outil incontournable et ChatGPT compte désormais plus d’un million d’utilisateurs en entreprise.
Cependant, l’adoption et l’intégration de l’IA demeurent inégales. Les entreprises européennes avancent bien plus lentement que leurs homologues internationales. En France, les principaux obstacles résident dans les exigences réglementaires. Les dépenses liées aux solutions d’IA continuent de croître, exerçant une pression accrue sur les budgets IT, tandis que les bénéfices attendus peinent à se concrétiser. Selon le Hype Cycle de Gartner, la GenAI, longtemps perçue comme un outil miraculeux, commence à engendrer des désillusions et devra prouver sa vraie valeur en 2025.
A ce propos, Adrien Boulad, Country Manager, France, Iberia & Italy chez Neo4j déclare “L'IA n'est pas seulement une promesse technologique, mais une opportunité décisive pour transformer la manière dont les entreprises exploitent leurs données. En 2025, les graphes joueront un rôle central en permettant des connexions plus riches, des décisions plus précises et des solutions véritablement adaptées aux besoins, quelque soit le secteur. Chez Neo4j, nous voyons les graphes comme le levier essentiel pour renforcer la transparence et garantir des résultats mesurables, propulsant ainsi l'innovation et la fiabilité de l’IA vers de nouveaux sommets."
Parmi les tendances à surveiller l’année prochaine :
Les agents d’IA: un potentiel coéquipier ultra performant
En 2023 et 2024, les utilisateurs interagissaient principalement avec des chatbots. En 2025, ce sont les agents d'IA qui prendront le relais. En effet, l'IA agentique serait en passe de créer une main-d'œuvre virtuelle pour assister, décharger et compléter le travail humain ou celui des applications traditionnelles. Ces agents ont la capacité de traiter des tâches tout en s’adaptant dynamiquement au contexte. Ils peuvent également planifier leurs actions, les ajuster au besoin, et déléguer des sous-tâches à divers outils (bases de données, interfaces ou services intégrés).
Bien que ce ne soit pas une nouveauté, l’IA agentique pourrait connaître en 2025 un essor similaire à celui de la GenAI. Récemment, Anthropic a introduit dans Claude, des agents d’IA capables d’utiliser un ordinateur presque comme un humain, en tapant, cliquant et naviguant sur Internet de façon autonome. Microsoft prépare également ses propres agents, destinés à gérer des tâches dans des domaines tels que la vente, l’assistance client ou encore la comptabilité.
Mais si l’IA agentique séduit, il pose également des questions de contrôle et de responsabilité en cas d’erreur. Demander à un chatbot de répondre à un e-mail est une chose ; lui laisser l’autonomie totale pour l’envoyer en est une autre. Les erreurs, voire des distractions comme celle de Claude d’Anthropic cherchant subitement des photos de Yellowstone lors d’une démonstration, montrent qu’il faudra également accorder de l’importance pour définir des critères clairs d'exécution et de protocoles.
Le raisonnement automatisé : révéler les rouages de son fonctionnement
Si l'IA de raisonnement n'est pas une nouveauté, elle présente un intérêt particulier. Contrairement à la GenAI qui fournit des réponses immédiates, les modèles de raisonnement adoptent une approche plus réfléchie. Ils analysent la question en profondeur, explorent différentes options, esquissent des solutions, en écartent certaines, et aboutissent finalement à une suggestion. Ce processus, bien que plus long, produit souvent des résultats de bien meilleure qualité. Par exemple, le modèle IA o1 d'OpenAI a démontré cette capacité en se classant parmi les 500 meilleurs participants des Olympiades américaines de mathématiques (AIME), grâce à ses compétences en logique et en mathématiques.
Mais l'IA de raisonnement présente une limite majeure : la « chaîne de pensée » reste enfermée dans le modèle, invisible de l'extérieur. Ce « raisonnement silencieux » affecte sa fiabilité, car les utilisateurs ne peuvent pas suivre ou vérifier le processus. De plus, le temps d'exécution prolongé et les coûts accrus rendent cette technologie mieux adaptée à des projets de recherche spécifiques qu'à des applications destinées aux utilisateurs finaux.
Petits modèles de langage (SML) : précis, économiques et durables
En 2025, les entreprises privilégieront l’efficacité et l’adaptation des technologies d’IA existantes plutôt que de poursuivre des concepts inatteignables. L’utilisation massive de l’IA engendre des coûts importants, comparables à ceux du cloud, et limite les possibilités de différenciation sur des modèles généralistes formés sur des données publiques.
Les entreprises se tournent donc vers des IA adaptées à leurs besoins spécifiques, et optimisées en continu. Les petits modèles de langage (SML) gagnent en popularité : ils rivalisent avec les grands modèles de langage (LLM) dans des secteurs précis, offrent un contrôle et une validation améliorés (notamment via des graphes de connaissances), et consomment jusqu’à 20 fois moins d’énergie. C’est un atout majeur dans le cadre du Green Deal européen et des exigences ESG actuelles.
De plus, grâce à des données synthétiques générées par des LLM, les SML peuvent être rapidement et efficacement entraînés, offrant des solutions taillées sur mesure et plus durables.
Les graphes au cœur de l’IA
Les graphes de connaissances offrent une représentation idéale des données, structurées comme non structurées, et deviennent essentiels dans les applications d’IA. Des solutions comme GraphRAG intègrent ces graphes aux modèles GenAI, fournissant des données spécifiques au domaine. Résultat : des réponses plus précises, explicables et transparentes, même face à des questions complexes.
Les réseaux de neurones en graphes (GNN) illustrent la compatibilité croissante entre les graphes et l’IA. Google DeepMind, par exemple, utilise les GNN dans des projets comme GraphCast pour la prévision météorologique ou AlphaChip pour la conception de semi-conducteurs. En 2024, DeepMind a publié AlphaFold 3, capable de prédire la structure des protéines avec une précision inégalée.
L’interaction fonctionne aussi dans l’autre sens : les LLM aident à modéliser les graphes, améliorer leur compréhension contextuelle, identifier de nouvelles connexions et enrichir les bases de données de graphes. Une synergie entre graphes et IA qui repousse les limites de l’innovation.
Parallèlement, avec l’épuisement des données publiques par des fournisseurs d'IA comme OpenAI, Google ou IBM, les entreprises misent sur leurs propres ressources. La performance de l’IA repose sur leur capacité à connecter, enrichir et exploiter leurs ensembles de données via des approches telles que la Génération Augmentée de Récupération (RAG). La qualité des données devient donc un enjeu stratégique.
Si les données structurées, qui reflètent souvent le cœur de l’activité d’une entreprise, sont cruciales, elles ne représentent que 10 % du potentiel disponible. Les 90 % restants (documents, vidéos ou images) restent souvent sous-exploités. Grâce à la GenAI, aux graphes de connaissances et au traitement du langage naturel, ces données non structurées peuvent être organisées et interprétées dans leur contexte, tout en conservant leur richesse. Cette transformation ouvre la voie à une IA véritablement adaptée et puissante.
L’IA qui évalue l’IA
Créer une application d’IA est relativement simple, mais la rendre fiable reste un défi. Les LLM, opérant de manière probabiliste, nécessitent des validations solides pour éviter les erreurs, garantir la qualité des données et respecter les normes. En 2025, l’évaluation devient centrale.
L’IA elle-même évalue désormais l’IA : des LLM adversaires analysent les résultats pour détecter contenus inappropriés ou illégaux, des outils automatisés testent les biais des données, tandis qu’Anthropic explore les caractéristiques interprétables des modèles. Ces avancées renforcent la sécurité, la transparence et la maîtrise des résultats de la GenAI.
L'intégration plutôt qu'une refonte majeure
Construire des systèmes de GenAI à partir de zéro est une idée séduisante, mais peu réaliste pour les entreprises confrontées à des infrastructures complexes. L’enjeu réside dans l’intégration intelligente de l’IA aux solutions existantes.
Au niveau opérationnel, cela implique des processus standardisés, des objectifs clairs et la collaboration entre tous les acteurs de l’entreprise (direction, IT, conformité, etc.). Sur le plan technique, l’IA doit être conçue sous forme de composants encapsulés, intégrables à des points stratégiques comme l’interaction utilisateur ou l’analyse des données.
Gérer cette complexité croissante sera un défi majeur pour les années à venir – un défi que l’IA pourrait contribuer à résoudre.
L’adoption de l’IA : entre promesse et réalité
À bien des égards, l’IA demeure l’un des paris les plus ambitieux de l’histoire des entreprises. Les investissements en 2024 n’ont montré aucun signe de ralentissement : les géants du cloud hyperscale ont intensifié leurs efforts, les fournisseurs d’IA ont suralimenté leurs modèles, et des fabricants comme Nvidia ont enchaîné les records. Dans le monde professionnel, la GenAI est passée de nouveauté à un outil incontournable et ChatGPT compte désormais plus d’un million d’utilisateurs en entreprise.
Cependant, l’adoption et l’intégration de l’IA demeurent inégales. Les entreprises européennes avancent bien plus lentement que leurs homologues internationales. En France, les principaux obstacles résident dans les exigences réglementaires. Les dépenses liées aux solutions d’IA continuent de croître, exerçant une pression accrue sur les budgets IT, tandis que les bénéfices attendus peinent à se concrétiser. Selon le Hype Cycle de Gartner, la GenAI, longtemps perçue comme un outil miraculeux, commence à engendrer des désillusions et devra prouver sa vraie valeur en 2025.
A ce propos, Adrien Boulad, Country Manager, France, Iberia & Italy chez Neo4j déclare “L'IA n'est pas seulement une promesse technologique, mais une opportunité décisive pour transformer la manière dont les entreprises exploitent leurs données. En 2025, les graphes joueront un rôle central en permettant des connexions plus riches, des décisions plus précises et des solutions véritablement adaptées aux besoins, quelque soit le secteur. Chez Neo4j, nous voyons les graphes comme le levier essentiel pour renforcer la transparence et garantir des résultats mesurables, propulsant ainsi l'innovation et la fiabilité de l’IA vers de nouveaux sommets."
Parmi les tendances à surveiller l’année prochaine :
Les agents d’IA: un potentiel coéquipier ultra performant
En 2023 et 2024, les utilisateurs interagissaient principalement avec des chatbots. En 2025, ce sont les agents d'IA qui prendront le relais. En effet, l'IA agentique serait en passe de créer une main-d'œuvre virtuelle pour assister, décharger et compléter le travail humain ou celui des applications traditionnelles. Ces agents ont la capacité de traiter des tâches tout en s’adaptant dynamiquement au contexte. Ils peuvent également planifier leurs actions, les ajuster au besoin, et déléguer des sous-tâches à divers outils (bases de données, interfaces ou services intégrés).
Bien que ce ne soit pas une nouveauté, l’IA agentique pourrait connaître en 2025 un essor similaire à celui de la GenAI. Récemment, Anthropic a introduit dans Claude, des agents d’IA capables d’utiliser un ordinateur presque comme un humain, en tapant, cliquant et naviguant sur Internet de façon autonome. Microsoft prépare également ses propres agents, destinés à gérer des tâches dans des domaines tels que la vente, l’assistance client ou encore la comptabilité.
Mais si l’IA agentique séduit, il pose également des questions de contrôle et de responsabilité en cas d’erreur. Demander à un chatbot de répondre à un e-mail est une chose ; lui laisser l’autonomie totale pour l’envoyer en est une autre. Les erreurs, voire des distractions comme celle de Claude d’Anthropic cherchant subitement des photos de Yellowstone lors d’une démonstration, montrent qu’il faudra également accorder de l’importance pour définir des critères clairs d'exécution et de protocoles.
Le raisonnement automatisé : révéler les rouages de son fonctionnement
Si l'IA de raisonnement n'est pas une nouveauté, elle présente un intérêt particulier. Contrairement à la GenAI qui fournit des réponses immédiates, les modèles de raisonnement adoptent une approche plus réfléchie. Ils analysent la question en profondeur, explorent différentes options, esquissent des solutions, en écartent certaines, et aboutissent finalement à une suggestion. Ce processus, bien que plus long, produit souvent des résultats de bien meilleure qualité. Par exemple, le modèle IA o1 d'OpenAI a démontré cette capacité en se classant parmi les 500 meilleurs participants des Olympiades américaines de mathématiques (AIME), grâce à ses compétences en logique et en mathématiques.
Mais l'IA de raisonnement présente une limite majeure : la « chaîne de pensée » reste enfermée dans le modèle, invisible de l'extérieur. Ce « raisonnement silencieux » affecte sa fiabilité, car les utilisateurs ne peuvent pas suivre ou vérifier le processus. De plus, le temps d'exécution prolongé et les coûts accrus rendent cette technologie mieux adaptée à des projets de recherche spécifiques qu'à des applications destinées aux utilisateurs finaux.
Petits modèles de langage (SML) : précis, économiques et durables
En 2025, les entreprises privilégieront l’efficacité et l’adaptation des technologies d’IA existantes plutôt que de poursuivre des concepts inatteignables. L’utilisation massive de l’IA engendre des coûts importants, comparables à ceux du cloud, et limite les possibilités de différenciation sur des modèles généralistes formés sur des données publiques.
Les entreprises se tournent donc vers des IA adaptées à leurs besoins spécifiques, et optimisées en continu. Les petits modèles de langage (SML) gagnent en popularité : ils rivalisent avec les grands modèles de langage (LLM) dans des secteurs précis, offrent un contrôle et une validation améliorés (notamment via des graphes de connaissances), et consomment jusqu’à 20 fois moins d’énergie. C’est un atout majeur dans le cadre du Green Deal européen et des exigences ESG actuelles.
De plus, grâce à des données synthétiques générées par des LLM, les SML peuvent être rapidement et efficacement entraînés, offrant des solutions taillées sur mesure et plus durables.
Les graphes au cœur de l’IA
Les graphes de connaissances offrent une représentation idéale des données, structurées comme non structurées, et deviennent essentiels dans les applications d’IA. Des solutions comme GraphRAG intègrent ces graphes aux modèles GenAI, fournissant des données spécifiques au domaine. Résultat : des réponses plus précises, explicables et transparentes, même face à des questions complexes.
Les réseaux de neurones en graphes (GNN) illustrent la compatibilité croissante entre les graphes et l’IA. Google DeepMind, par exemple, utilise les GNN dans des projets comme GraphCast pour la prévision météorologique ou AlphaChip pour la conception de semi-conducteurs. En 2024, DeepMind a publié AlphaFold 3, capable de prédire la structure des protéines avec une précision inégalée.
L’interaction fonctionne aussi dans l’autre sens : les LLM aident à modéliser les graphes, améliorer leur compréhension contextuelle, identifier de nouvelles connexions et enrichir les bases de données de graphes. Une synergie entre graphes et IA qui repousse les limites de l’innovation.
Parallèlement, avec l’épuisement des données publiques par des fournisseurs d'IA comme OpenAI, Google ou IBM, les entreprises misent sur leurs propres ressources. La performance de l’IA repose sur leur capacité à connecter, enrichir et exploiter leurs ensembles de données via des approches telles que la Génération Augmentée de Récupération (RAG). La qualité des données devient donc un enjeu stratégique.
Si les données structurées, qui reflètent souvent le cœur de l’activité d’une entreprise, sont cruciales, elles ne représentent que 10 % du potentiel disponible. Les 90 % restants (documents, vidéos ou images) restent souvent sous-exploités. Grâce à la GenAI, aux graphes de connaissances et au traitement du langage naturel, ces données non structurées peuvent être organisées et interprétées dans leur contexte, tout en conservant leur richesse. Cette transformation ouvre la voie à une IA véritablement adaptée et puissante.
L’IA qui évalue l’IA
Créer une application d’IA est relativement simple, mais la rendre fiable reste un défi. Les LLM, opérant de manière probabiliste, nécessitent des validations solides pour éviter les erreurs, garantir la qualité des données et respecter les normes. En 2025, l’évaluation devient centrale.
L’IA elle-même évalue désormais l’IA : des LLM adversaires analysent les résultats pour détecter contenus inappropriés ou illégaux, des outils automatisés testent les biais des données, tandis qu’Anthropic explore les caractéristiques interprétables des modèles. Ces avancées renforcent la sécurité, la transparence et la maîtrise des résultats de la GenAI.
L'intégration plutôt qu'une refonte majeure
Construire des systèmes de GenAI à partir de zéro est une idée séduisante, mais peu réaliste pour les entreprises confrontées à des infrastructures complexes. L’enjeu réside dans l’intégration intelligente de l’IA aux solutions existantes.
Au niveau opérationnel, cela implique des processus standardisés, des objectifs clairs et la collaboration entre tous les acteurs de l’entreprise (direction, IT, conformité, etc.). Sur le plan technique, l’IA doit être conçue sous forme de composants encapsulés, intégrables à des points stratégiques comme l’interaction utilisateur ou l’analyse des données.
Gérer cette complexité croissante sera un défi majeur pour les années à venir – un défi que l’IA pourrait contribuer à résoudre.
Autres articles
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Neo4j transforme son portefeuille de bases de données cloud pour accélérer l'adoption des graphes et de l’IA générative en entreprise
-
Podcast : La donnée sous tous les angles, avec Philippe Charpentier, CTO de NetApp France
-
Podcast : Données CSRD et ESG avec Nicolas Letavernier Workiva
-
Podcast : Ethique et responsabilité de l'IA, et si la clef venait des graphes de connaissance