Docker, Inc.® et ses partenaires Neo4j, LangChain et Ollama annoncent aujourd’hui une nouvelle pile d’IA générative préconfigurée faisant partie d’une série de nouvelles capacités d’IA et de Machine Learning chez Docker.
Prête à coder, cette pile est hautement sécurisée grâce aux grands modèles de langages ou Large-Language Models (LLMs) d'Ollama, aux bases de données de graphes de Neo4j et au système de LangChain. Elle permet aux développeurs de lancer des applications d'IA générative en quelques minutes sans qu’ils aient besoin de rechercher, de rassembler et de configurer des sources et technologies multiples.
« Si le potentiel de l’IA générative élargit le champ des possibles pour les développeurs, son évolution rapide, le nombre de fournisseurs et la diversité des piles technologiques font qu’il est difficile de savoir par ou commencer. » déclare Scott Johnston, PDG de Docker. « Notre nouvelle pile d’IA générative surmonte ces défis, grâce aux outils, contenus et services Docker que les développeurs apprécient déjà, ainsi que les technologies partenaires à la pointe du développement d'applications d’IA générative. »
La pile de l’IA générative est disponible dans le centre d’apprentissage de Docker Desktop et dans le référentiel GitHub. Elle répond aux exigences les plus répandues de l’IA générative grâce au contenu open source fiable sur Docker Hub, notamment :
Des LLM open source préconfigurés tels que Llama 2, Code Llama, Mistral, ou des modèles privés tels que GPT-3.5 et GPT-4 d'OpenAI.
La base de données de graphes de Neo4j pour la recherche de graphes et de vecteurs natifs permettant d’identifier des relations explicites et implicites entre les données, rendant les modèles d'IA/ML plus rapides et plus précis, et agissant comme une mémoire à long terme pour ces modèles.
Les graphes de connaissances de Neo4j qui servent de base de connaissances pour ancrer les LLM afin d'obtenir des prédictions et des résultats plus précis pour l’IA générative.
Une aide d'Ollama aux développeurs pour qu'ils puissent utiliser localement des LLM open source.
L'orchestration LangChain entre le LLM, l'application et la base de données avec un index vectoriel, et servant de cadre pour le développement d'applications de raisonnement contextuel alimentées par des LLM.
Une série d'outils d’aide à la prise en main, de modèles de code, de guides et de bonnes pratiques en matière d’IA générative.
Grâce à ces nombreuses fonctionnalités, les développeurs peuvent importer des données en toute transparence, créer des index vectoriels où ils peuvent intégrer et stocker des questions et des réponses. Ainsi, ils peuvent expérimenter des requêtes plus poussées et un enrichissement des résultats pour les applications qui peuvent à la fois résumer les données et présenter la recherche de connaissances par le biais de graphes de connaissances flexibles. Ils peuvent également générer diverses réponses sous différents formats, tels que des listes à puces, des chaînes de pensée, des questions GitHub, des PDF, des poèmes, etc. En outre, les développeurs peuvent comparer les résultats obtenus entre les LLM seuls, les LLM avec vecteur et les LLM avec vecteur et intégration de graphe de connaissances.
« Notre mission commune est d’accompagner les développeurs et de leur permettre de créer plus facilement des applications soutenues par l’IA générative ainsi que d’enrichir les applications existantes de nouvelles fonctionnalités GenAI. Nous sommes très enthousiastes à l'idée des possibilités que cela offre à des millions de développeurs. » déclare Emil Eifrem, co-fondateur et PDG de Neo4j.
Prête à coder, cette pile est hautement sécurisée grâce aux grands modèles de langages ou Large-Language Models (LLMs) d'Ollama, aux bases de données de graphes de Neo4j et au système de LangChain. Elle permet aux développeurs de lancer des applications d'IA générative en quelques minutes sans qu’ils aient besoin de rechercher, de rassembler et de configurer des sources et technologies multiples.
« Si le potentiel de l’IA générative élargit le champ des possibles pour les développeurs, son évolution rapide, le nombre de fournisseurs et la diversité des piles technologiques font qu’il est difficile de savoir par ou commencer. » déclare Scott Johnston, PDG de Docker. « Notre nouvelle pile d’IA générative surmonte ces défis, grâce aux outils, contenus et services Docker que les développeurs apprécient déjà, ainsi que les technologies partenaires à la pointe du développement d'applications d’IA générative. »
La pile de l’IA générative est disponible dans le centre d’apprentissage de Docker Desktop et dans le référentiel GitHub. Elle répond aux exigences les plus répandues de l’IA générative grâce au contenu open source fiable sur Docker Hub, notamment :
Des LLM open source préconfigurés tels que Llama 2, Code Llama, Mistral, ou des modèles privés tels que GPT-3.5 et GPT-4 d'OpenAI.
La base de données de graphes de Neo4j pour la recherche de graphes et de vecteurs natifs permettant d’identifier des relations explicites et implicites entre les données, rendant les modèles d'IA/ML plus rapides et plus précis, et agissant comme une mémoire à long terme pour ces modèles.
Les graphes de connaissances de Neo4j qui servent de base de connaissances pour ancrer les LLM afin d'obtenir des prédictions et des résultats plus précis pour l’IA générative.
Une aide d'Ollama aux développeurs pour qu'ils puissent utiliser localement des LLM open source.
L'orchestration LangChain entre le LLM, l'application et la base de données avec un index vectoriel, et servant de cadre pour le développement d'applications de raisonnement contextuel alimentées par des LLM.
Une série d'outils d’aide à la prise en main, de modèles de code, de guides et de bonnes pratiques en matière d’IA générative.
Grâce à ces nombreuses fonctionnalités, les développeurs peuvent importer des données en toute transparence, créer des index vectoriels où ils peuvent intégrer et stocker des questions et des réponses. Ainsi, ils peuvent expérimenter des requêtes plus poussées et un enrichissement des résultats pour les applications qui peuvent à la fois résumer les données et présenter la recherche de connaissances par le biais de graphes de connaissances flexibles. Ils peuvent également générer diverses réponses sous différents formats, tels que des listes à puces, des chaînes de pensée, des questions GitHub, des PDF, des poèmes, etc. En outre, les développeurs peuvent comparer les résultats obtenus entre les LLM seuls, les LLM avec vecteur et les LLM avec vecteur et intégration de graphe de connaissances.
« Notre mission commune est d’accompagner les développeurs et de leur permettre de créer plus facilement des applications soutenues par l’IA générative ainsi que d’enrichir les applications existantes de nouvelles fonctionnalités GenAI. Nous sommes très enthousiastes à l'idée des possibilités que cela offre à des millions de développeurs. » déclare Emil Eifrem, co-fondateur et PDG de Neo4j.
Autres articles
-
Neo4j dépasse les 200 millions de dollars de chiffre d’affaires et accélère son leadership dans le domaine de la GenAI grâce à sa technologie de graphes
-
Neo4j transforme son portefeuille de bases de données cloud pour accélérer l'adoption des graphes et de l’IA générative en entreprise
-
Podcast : La donnée sous tous les angles, avec Philippe Charpentier, CTO de NetApp France
-
Podcast : Données CSRD et ESG avec Nicolas Letavernier Workiva
-
Podcast : Ethique et responsabilité de l'IA, et si la clef venait des graphes de connaissance