Actualités : analyse de données, Business Intelligence, Data Science, Big Data


IA générative : Docker lance une nouvelle pile GenAI pour les développeurs avec Neo4j, LangChain et Ollama


Rédigé par Communiqué de Neo4j le 12 Octobre 2023

La pile sécurisée augmente la vitesse à laquelle les développeurs peuvent lancer des applications d'IA générative.



Docker, Inc.® et ses partenaires Neo4j, LangChain et Ollama annoncent aujourd’hui une nouvelle pile d’IA générative préconfigurée faisant partie d’une série de nouvelles capacités d’IA et de Machine Learning chez Docker.

Prête à coder, cette pile est hautement sécurisée grâce aux grands modèles de langages ou Large-Language Models (LLMs) d'Ollama, aux bases de données de graphes de Neo4j et au système de LangChain. Elle permet aux développeurs de lancer des applications d'IA générative en quelques minutes sans qu’ils aient besoin de rechercher, de rassembler et de configurer des sources et technologies multiples.

« Si le potentiel de l’IA générative élargit le champ des possibles pour les développeurs, son évolution rapide, le nombre de fournisseurs et la diversité des piles technologiques font qu’il est difficile de savoir par ou commencer. » déclare Scott Johnston, PDG de Docker. « Notre nouvelle pile d’IA générative surmonte ces défis, grâce aux outils, contenus et services Docker que les développeurs apprécient déjà, ainsi que les technologies partenaires à la pointe du développement d'applications d’IA générative. »

La pile de l’IA générative est disponible dans le centre d’apprentissage de Docker Desktop et dans le référentiel GitHub. Elle répond aux exigences les plus répandues de l’IA générative grâce au contenu open source fiable sur Docker Hub, notamment :




Des LLM open source préconfigurés tels que Llama 2, Code Llama, Mistral, ou des modèles privés tels que GPT-3.5 et GPT-4 d'OpenAI.
La base de données de graphes de Neo4j pour la recherche de graphes et de vecteurs natifs permettant d’identifier des relations explicites et implicites entre les données, rendant les modèles d'IA/ML plus rapides et plus précis, et agissant comme une mémoire à long terme pour ces modèles.
Les graphes de connaissances de Neo4j qui servent de base de connaissances pour ancrer les LLM afin d'obtenir des prédictions et des résultats plus précis pour l’IA générative.
Une aide d'Ollama aux développeurs pour qu'ils puissent utiliser localement des LLM open source.
L'orchestration LangChain entre le LLM, l'application et la base de données avec un index vectoriel, et servant de cadre pour le développement d'applications de raisonnement contextuel alimentées par des LLM.
Une série d'outils d’aide à la prise en main, de modèles de code, de guides et de bonnes pratiques en matière d’IA générative.
Grâce à ces nombreuses fonctionnalités, les développeurs peuvent importer des données en toute transparence, créer des index vectoriels où ils peuvent intégrer et stocker des questions et des réponses. Ainsi, ils peuvent expérimenter des requêtes plus poussées et un enrichissement des résultats pour les applications qui peuvent à la fois résumer les données et présenter la recherche de connaissances par le biais de graphes de connaissances flexibles. Ils peuvent également générer diverses réponses sous différents formats, tels que des listes à puces, des chaînes de pensée, des questions GitHub, des PDF, des poèmes, etc. En outre, les développeurs peuvent comparer les résultats obtenus entre les LLM seuls, les LLM avec vecteur et les LLM avec vecteur et intégration de graphe de connaissances.

« Notre mission commune est d’accompagner les développeurs et de leur permettre de créer plus facilement des applications soutenues par l’IA générative ainsi que d’enrichir les applications existantes de nouvelles fonctionnalités GenAI. Nous sommes très enthousiastes à l'idée des possibilités que cela offre à des millions de développeurs. » déclare Emil Eifrem, co-fondateur et PDG de Neo4j.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store