Actualités : analyse de données, Business Intelligence, Data Science, Big Data


Teradata facilite l’application concrète de l’IA générative et accélère la création de valeur pour les entreprises


Rédigé par Communiqué de Teradata le 12 Octobre 2024

Bring-your-own LLM, la nouvelle fonctionnalité intégrée de Teradata, permet aux clients de déployer de manière simple et rentable des cas d’usage quotidiens d’IA générative grâce à NVIDIA AI, offrant flexibilité, sécurité, confiance et retour sur investissement.
La nouvelle intégration avec la plateforme full-stack NVIDIA AI offre une puissance de calcul accélérée via GPU.



Teradata (NYSE:TDC) annonce de nouvelles fonctionnalités pour VantageCloud Lake et ClearScape Analytics, qui permettent aux entreprises de facilement mettre en œuvre des cas d’usage d’IA générative et d’obtenir un retour sur investissement immédiat.

À mesure que l’IA générative passe du concept à la réalité, les grandes entreprises se montrent de plus en plus intéressées par une stratégie d’IA plus complète, donnant la priorité aux cas d’usage porteurs de valeur immédiate pour l’entreprise – un avantage essentiel alors que 84 % des cadres dirigeants attendent un ROI des projets d’IA en moins d’un an. Grâce aux progrès de l’innovation dans le domaine des grands modèles de langage (LLM) et à l’émergence de modèles de plus petites tailles, les fournisseurs d’IA sont désormais en mesure de proposer des modèles open source spécialisés à certains usages, versatiles et en couvrant un large panel de cas d’usage, sans avoir la complexité et les coûts élevés des LLM de taille plus conséquente.

Grâce à l’ajout de la fonctionnalité bring-your-own LLM (BYO-LLM), les clients Teradata peuvent maintenant facilement tirer parti de LLM ouverts, de petite à moyenne taille, notamment ceux spécifiques à un domaine. En plus de rendre ces modèles plus faciles à déployer et plus générateurs de valeur cette nouvelle fonctionnalité de Teradata permet d’exécuter ces LLM au plus proche des données (plutôt que l’inverse), permettant de minimiser les transferts de données coûteux, tout en renforçant la sécurité, la confidentialité et la confiance dans les résultats.

Teradata offre également aux clients la possibilité d’exploiter stratégiquement des GPU ou des CPU, en fonction de la complexité et de la taille du LLM. Si nécessaire, les GPU peuvent être utilisés pour offrir vitesse et performance à grande échelle sur des tâches telles que l’inférence et l’affinement de modèles, deux tâches bientôt réalisables sur VantageCloud Lake. La collaboration entre Teradata et NVIDIA, également annoncée ce jour, comprend une intégration de NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, à la plateforme Vantage afin d’accélérer les grandes à petites charges de travail pour une IA de confiance. Cette intégration comprend les microservices NVIDIA NIM, qui font partie de NVIDIA AI Enterprise, plateforme conçue pour le développement et le déploiement des applications d’IA générative.

« Les clients Teradata souhaitent passer rapidement de l’exploration à l’application pertinente de l’IA générative, » commente Hillary Ashton, Chief Product Officer chez Teradata. « Grâce à la nouvelle capacité BYO-LLM de ClearScape Analytics, associée à l’intégration de VantageCloud Lake avec NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, les entreprises peuvent exploiter pleinement le potentiel de l’IA générative de manière efficace, rentable et en toute confiance. Grâce à Teradata, les organisations peuvent tirer le meilleur parti de leurs investissements en matière d’IA et créer immédiatement de la valeur concrète. »

Les applications concrètes de l’IA générative grâce aux LLM open source

Les entreprises reconnaissent désormais que les LLM de grande taille ne conviennent pas à tous les cas d’usage et que les coûts dont ils s’accompagnent peuvent être prohibitifs. La fonctionnalité BYO-LLM permet aux utilisateurs de sélectionner le modèle le mieux adapté aux besoins spécifiques de leur entreprise sachant que, selon Forrester, 46 % des dirigeants en charge de l’IA envisagent de tirer avantage de LLM open source existants dans le cadre de leur stratégie d’IA. Grâce à la mise en place de BYO-LLM par Teradata, les clients VantageCloud et ClearScape peuvent exploiter facilement les LLM de petite et moyenne taille proposés par des fournisseurs d’IA open source comme Hugging Face, qui propose plus de 350 000 LLM.

Les LLM de petite taille sont généralement spécifiques à un domaine et conçus sur mesure pour des cas d’usage concrets et créateurs de valeurs, comme :

La conformité réglementaire : les banques exploitent des LLM spécialisés ouverts afin de repérer les e-mails qui peuvent avoir des implications réglementaires, réduisant ainsi la nécessité de mettre en place une infrastructure GPU coûteuse.
L’analyse des comptes-rendus médicaux : certains LLM ouverts permettent d’analyser les comptes-rendus médicaux afin d’automatiser l’extraction d’informations, améliorant ainsi la prise en charge des patients, tout en évitant de transférer des données sensibles.
Les recommandations produits : en combinant l’intégration de LLM avec l’analyse in-database de Teradata ClearScape Analytics, les entreprises sont en mesure d’optimiser leurs systèmes de recommandations produits.
L’analyse des réclamations clients : les LLM ouverts aident à analyser les sujets, les émotions et les résumés des réclamations, en intégrant les résultats dans une vue à 360° du client, dans le but d’améliorer les stratégies de résolution.

Grâce à l’engagement de Teradata en faveur d’un écosystème ouvert et connecté et à mesure que de plus en plus de LLM arriveront sur le marché, les clients Teradata seront en mesure de suivre le rythme de l’innovation et d’exploiter BYO-LLM afin de se tourner vers des modèles qui ne les lient pas à un fournisseur exclusif.

Des clusters d’analyse GPU pour l’inférence et l’affinement des modèles

En ajoutant la prise en charge du calcul accéléré par GPU de NVIDIA à VantageCloud Lake, Teradata offrira à ses clients des capacités d’inférence de LLM conçues pour créer davantage de valeur et être plus rentables dans le cas de modèles de grande taille ou hautement complexes. Le calcul accéléré par GPU de NVIDIA est conçu pour traiter de grandes quantités de données et pour effectuer des calculs rapidement, ce qui est essentiel pour l’inférence– grâce à laquelle un modèle de machine learning, de deep learning ou de langage entraîné offre des prédictions ou aide à prendre des décisions en se fondant sur de nouvelles données. La révision ou le résumé des comptes-rendus médicaux dans le domaine de la santé en sont un bon exemple : en automatisant l’extraction et l’interprétation des informations, cela permet aux soignants de se concentrer davantage sur la prise en charge directe des patients.

VantageCloud Lake prendra également en charge l’affinement des modèles via GPU, ce qui permettra aux clients de personnaliser des modèles de langage préentraînés à partir des ensembles de données dont dispose leur entreprise. Une telle personnalisation améliore la précision et l’efficacité du modèle, sans avoir besoin de recommencer le processus d’entrainement depuis le début. Par exemple, le chatbot d’un conseiller en prêts hypothécaires doit être entraîné afin de répondre avec des termes financiers, ce qui augmente le langage naturel sur lequel la plupart des modèles de base sont entraînés. L’affinement de ce modèle à l’aide de la terminologie bancaire permet de personnaliser ses réponses, ce qui le rend plus concrètement applicable dans cette situation. De cette façon, les clients de Teradata ont pu constater une plus grande adaptabilité de leurs modèles et une meilleure capacité à réutiliser ceux-ci en tirant parti de traitements accélérés.

Disponibilité

La fonctionnalité BYO-LLM de ClearScape Analytics pour Teradata VantageCloud Lake sera disponible sur AWS dès le mois d’octobre, puis sur Azure et Google Cloud au cours du premier semestre 2025.

Teradata VantageCloud Lake avec le calcul accéléré par GPU de NVIDIA IA sera disponible sur AWS au mois de novembre ; les capacités d’inférence seront ajoutées au cours du quatrième trimestre 2024, puis les capacités d’affinement au cours du premier semestre 2025.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store