Teradata (NYSE:TDC) annonce de nouvelles fonctionnalités pour VantageCloud Lake et ClearScape Analytics, qui permettent aux entreprises de facilement mettre en œuvre des cas d’usage d’IA générative et d’obtenir un retour sur investissement immédiat.
À mesure que l’IA générative passe du concept à la réalité, les grandes entreprises se montrent de plus en plus intéressées par une stratégie d’IA plus complète, donnant la priorité aux cas d’usage porteurs de valeur immédiate pour l’entreprise – un avantage essentiel alors que 84 % des cadres dirigeants attendent un ROI des projets d’IA en moins d’un an. Grâce aux progrès de l’innovation dans le domaine des grands modèles de langage (LLM) et à l’émergence de modèles de plus petites tailles, les fournisseurs d’IA sont désormais en mesure de proposer des modèles open source spécialisés à certains usages, versatiles et en couvrant un large panel de cas d’usage, sans avoir la complexité et les coûts élevés des LLM de taille plus conséquente.
Grâce à l’ajout de la fonctionnalité bring-your-own LLM (BYO-LLM), les clients Teradata peuvent maintenant facilement tirer parti de LLM ouverts, de petite à moyenne taille, notamment ceux spécifiques à un domaine. En plus de rendre ces modèles plus faciles à déployer et plus générateurs de valeur cette nouvelle fonctionnalité de Teradata permet d’exécuter ces LLM au plus proche des données (plutôt que l’inverse), permettant de minimiser les transferts de données coûteux, tout en renforçant la sécurité, la confidentialité et la confiance dans les résultats.
Teradata offre également aux clients la possibilité d’exploiter stratégiquement des GPU ou des CPU, en fonction de la complexité et de la taille du LLM. Si nécessaire, les GPU peuvent être utilisés pour offrir vitesse et performance à grande échelle sur des tâches telles que l’inférence et l’affinement de modèles, deux tâches bientôt réalisables sur VantageCloud Lake. La collaboration entre Teradata et NVIDIA, également annoncée ce jour, comprend une intégration de NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, à la plateforme Vantage afin d’accélérer les grandes à petites charges de travail pour une IA de confiance. Cette intégration comprend les microservices NVIDIA NIM, qui font partie de NVIDIA AI Enterprise, plateforme conçue pour le développement et le déploiement des applications d’IA générative.
« Les clients Teradata souhaitent passer rapidement de l’exploration à l’application pertinente de l’IA générative, » commente Hillary Ashton, Chief Product Officer chez Teradata. « Grâce à la nouvelle capacité BYO-LLM de ClearScape Analytics, associée à l’intégration de VantageCloud Lake avec NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, les entreprises peuvent exploiter pleinement le potentiel de l’IA générative de manière efficace, rentable et en toute confiance. Grâce à Teradata, les organisations peuvent tirer le meilleur parti de leurs investissements en matière d’IA et créer immédiatement de la valeur concrète. »
Les applications concrètes de l’IA générative grâce aux LLM open source
Les entreprises reconnaissent désormais que les LLM de grande taille ne conviennent pas à tous les cas d’usage et que les coûts dont ils s’accompagnent peuvent être prohibitifs. La fonctionnalité BYO-LLM permet aux utilisateurs de sélectionner le modèle le mieux adapté aux besoins spécifiques de leur entreprise sachant que, selon Forrester, 46 % des dirigeants en charge de l’IA envisagent de tirer avantage de LLM open source existants dans le cadre de leur stratégie d’IA. Grâce à la mise en place de BYO-LLM par Teradata, les clients VantageCloud et ClearScape peuvent exploiter facilement les LLM de petite et moyenne taille proposés par des fournisseurs d’IA open source comme Hugging Face, qui propose plus de 350 000 LLM.
Les LLM de petite taille sont généralement spécifiques à un domaine et conçus sur mesure pour des cas d’usage concrets et créateurs de valeurs, comme :
La conformité réglementaire : les banques exploitent des LLM spécialisés ouverts afin de repérer les e-mails qui peuvent avoir des implications réglementaires, réduisant ainsi la nécessité de mettre en place une infrastructure GPU coûteuse.
L’analyse des comptes-rendus médicaux : certains LLM ouverts permettent d’analyser les comptes-rendus médicaux afin d’automatiser l’extraction d’informations, améliorant ainsi la prise en charge des patients, tout en évitant de transférer des données sensibles.
Les recommandations produits : en combinant l’intégration de LLM avec l’analyse in-database de Teradata ClearScape Analytics, les entreprises sont en mesure d’optimiser leurs systèmes de recommandations produits.
L’analyse des réclamations clients : les LLM ouverts aident à analyser les sujets, les émotions et les résumés des réclamations, en intégrant les résultats dans une vue à 360° du client, dans le but d’améliorer les stratégies de résolution.
Grâce à l’engagement de Teradata en faveur d’un écosystème ouvert et connecté et à mesure que de plus en plus de LLM arriveront sur le marché, les clients Teradata seront en mesure de suivre le rythme de l’innovation et d’exploiter BYO-LLM afin de se tourner vers des modèles qui ne les lient pas à un fournisseur exclusif.
Des clusters d’analyse GPU pour l’inférence et l’affinement des modèles
En ajoutant la prise en charge du calcul accéléré par GPU de NVIDIA à VantageCloud Lake, Teradata offrira à ses clients des capacités d’inférence de LLM conçues pour créer davantage de valeur et être plus rentables dans le cas de modèles de grande taille ou hautement complexes. Le calcul accéléré par GPU de NVIDIA est conçu pour traiter de grandes quantités de données et pour effectuer des calculs rapidement, ce qui est essentiel pour l’inférence– grâce à laquelle un modèle de machine learning, de deep learning ou de langage entraîné offre des prédictions ou aide à prendre des décisions en se fondant sur de nouvelles données. La révision ou le résumé des comptes-rendus médicaux dans le domaine de la santé en sont un bon exemple : en automatisant l’extraction et l’interprétation des informations, cela permet aux soignants de se concentrer davantage sur la prise en charge directe des patients.
VantageCloud Lake prendra également en charge l’affinement des modèles via GPU, ce qui permettra aux clients de personnaliser des modèles de langage préentraînés à partir des ensembles de données dont dispose leur entreprise. Une telle personnalisation améliore la précision et l’efficacité du modèle, sans avoir besoin de recommencer le processus d’entrainement depuis le début. Par exemple, le chatbot d’un conseiller en prêts hypothécaires doit être entraîné afin de répondre avec des termes financiers, ce qui augmente le langage naturel sur lequel la plupart des modèles de base sont entraînés. L’affinement de ce modèle à l’aide de la terminologie bancaire permet de personnaliser ses réponses, ce qui le rend plus concrètement applicable dans cette situation. De cette façon, les clients de Teradata ont pu constater une plus grande adaptabilité de leurs modèles et une meilleure capacité à réutiliser ceux-ci en tirant parti de traitements accélérés.
Disponibilité
La fonctionnalité BYO-LLM de ClearScape Analytics pour Teradata VantageCloud Lake sera disponible sur AWS dès le mois d’octobre, puis sur Azure et Google Cloud au cours du premier semestre 2025.
Teradata VantageCloud Lake avec le calcul accéléré par GPU de NVIDIA IA sera disponible sur AWS au mois de novembre ; les capacités d’inférence seront ajoutées au cours du quatrième trimestre 2024, puis les capacités d’affinement au cours du premier semestre 2025.
À mesure que l’IA générative passe du concept à la réalité, les grandes entreprises se montrent de plus en plus intéressées par une stratégie d’IA plus complète, donnant la priorité aux cas d’usage porteurs de valeur immédiate pour l’entreprise – un avantage essentiel alors que 84 % des cadres dirigeants attendent un ROI des projets d’IA en moins d’un an. Grâce aux progrès de l’innovation dans le domaine des grands modèles de langage (LLM) et à l’émergence de modèles de plus petites tailles, les fournisseurs d’IA sont désormais en mesure de proposer des modèles open source spécialisés à certains usages, versatiles et en couvrant un large panel de cas d’usage, sans avoir la complexité et les coûts élevés des LLM de taille plus conséquente.
Grâce à l’ajout de la fonctionnalité bring-your-own LLM (BYO-LLM), les clients Teradata peuvent maintenant facilement tirer parti de LLM ouverts, de petite à moyenne taille, notamment ceux spécifiques à un domaine. En plus de rendre ces modèles plus faciles à déployer et plus générateurs de valeur cette nouvelle fonctionnalité de Teradata permet d’exécuter ces LLM au plus proche des données (plutôt que l’inverse), permettant de minimiser les transferts de données coûteux, tout en renforçant la sécurité, la confidentialité et la confiance dans les résultats.
Teradata offre également aux clients la possibilité d’exploiter stratégiquement des GPU ou des CPU, en fonction de la complexité et de la taille du LLM. Si nécessaire, les GPU peuvent être utilisés pour offrir vitesse et performance à grande échelle sur des tâches telles que l’inférence et l’affinement de modèles, deux tâches bientôt réalisables sur VantageCloud Lake. La collaboration entre Teradata et NVIDIA, également annoncée ce jour, comprend une intégration de NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, à la plateforme Vantage afin d’accélérer les grandes à petites charges de travail pour une IA de confiance. Cette intégration comprend les microservices NVIDIA NIM, qui font partie de NVIDIA AI Enterprise, plateforme conçue pour le développement et le déploiement des applications d’IA générative.
« Les clients Teradata souhaitent passer rapidement de l’exploration à l’application pertinente de l’IA générative, » commente Hillary Ashton, Chief Product Officer chez Teradata. « Grâce à la nouvelle capacité BYO-LLM de ClearScape Analytics, associée à l’intégration de VantageCloud Lake avec NVIDIA AI, la plateforme full-stack de calcul accéléré par GPU, les entreprises peuvent exploiter pleinement le potentiel de l’IA générative de manière efficace, rentable et en toute confiance. Grâce à Teradata, les organisations peuvent tirer le meilleur parti de leurs investissements en matière d’IA et créer immédiatement de la valeur concrète. »
Les applications concrètes de l’IA générative grâce aux LLM open source
Les entreprises reconnaissent désormais que les LLM de grande taille ne conviennent pas à tous les cas d’usage et que les coûts dont ils s’accompagnent peuvent être prohibitifs. La fonctionnalité BYO-LLM permet aux utilisateurs de sélectionner le modèle le mieux adapté aux besoins spécifiques de leur entreprise sachant que, selon Forrester, 46 % des dirigeants en charge de l’IA envisagent de tirer avantage de LLM open source existants dans le cadre de leur stratégie d’IA. Grâce à la mise en place de BYO-LLM par Teradata, les clients VantageCloud et ClearScape peuvent exploiter facilement les LLM de petite et moyenne taille proposés par des fournisseurs d’IA open source comme Hugging Face, qui propose plus de 350 000 LLM.
Les LLM de petite taille sont généralement spécifiques à un domaine et conçus sur mesure pour des cas d’usage concrets et créateurs de valeurs, comme :
La conformité réglementaire : les banques exploitent des LLM spécialisés ouverts afin de repérer les e-mails qui peuvent avoir des implications réglementaires, réduisant ainsi la nécessité de mettre en place une infrastructure GPU coûteuse.
L’analyse des comptes-rendus médicaux : certains LLM ouverts permettent d’analyser les comptes-rendus médicaux afin d’automatiser l’extraction d’informations, améliorant ainsi la prise en charge des patients, tout en évitant de transférer des données sensibles.
Les recommandations produits : en combinant l’intégration de LLM avec l’analyse in-database de Teradata ClearScape Analytics, les entreprises sont en mesure d’optimiser leurs systèmes de recommandations produits.
L’analyse des réclamations clients : les LLM ouverts aident à analyser les sujets, les émotions et les résumés des réclamations, en intégrant les résultats dans une vue à 360° du client, dans le but d’améliorer les stratégies de résolution.
Grâce à l’engagement de Teradata en faveur d’un écosystème ouvert et connecté et à mesure que de plus en plus de LLM arriveront sur le marché, les clients Teradata seront en mesure de suivre le rythme de l’innovation et d’exploiter BYO-LLM afin de se tourner vers des modèles qui ne les lient pas à un fournisseur exclusif.
Des clusters d’analyse GPU pour l’inférence et l’affinement des modèles
En ajoutant la prise en charge du calcul accéléré par GPU de NVIDIA à VantageCloud Lake, Teradata offrira à ses clients des capacités d’inférence de LLM conçues pour créer davantage de valeur et être plus rentables dans le cas de modèles de grande taille ou hautement complexes. Le calcul accéléré par GPU de NVIDIA est conçu pour traiter de grandes quantités de données et pour effectuer des calculs rapidement, ce qui est essentiel pour l’inférence– grâce à laquelle un modèle de machine learning, de deep learning ou de langage entraîné offre des prédictions ou aide à prendre des décisions en se fondant sur de nouvelles données. La révision ou le résumé des comptes-rendus médicaux dans le domaine de la santé en sont un bon exemple : en automatisant l’extraction et l’interprétation des informations, cela permet aux soignants de se concentrer davantage sur la prise en charge directe des patients.
VantageCloud Lake prendra également en charge l’affinement des modèles via GPU, ce qui permettra aux clients de personnaliser des modèles de langage préentraînés à partir des ensembles de données dont dispose leur entreprise. Une telle personnalisation améliore la précision et l’efficacité du modèle, sans avoir besoin de recommencer le processus d’entrainement depuis le début. Par exemple, le chatbot d’un conseiller en prêts hypothécaires doit être entraîné afin de répondre avec des termes financiers, ce qui augmente le langage naturel sur lequel la plupart des modèles de base sont entraînés. L’affinement de ce modèle à l’aide de la terminologie bancaire permet de personnaliser ses réponses, ce qui le rend plus concrètement applicable dans cette situation. De cette façon, les clients de Teradata ont pu constater une plus grande adaptabilité de leurs modèles et une meilleure capacité à réutiliser ceux-ci en tirant parti de traitements accélérés.
Disponibilité
La fonctionnalité BYO-LLM de ClearScape Analytics pour Teradata VantageCloud Lake sera disponible sur AWS dès le mois d’octobre, puis sur Azure et Google Cloud au cours du premier semestre 2025.
Teradata VantageCloud Lake avec le calcul accéléré par GPU de NVIDIA IA sera disponible sur AWS au mois de novembre ; les capacités d’inférence seront ajoutées au cours du quatrième trimestre 2024, puis les capacités d’affinement au cours du premier semestre 2025.
Autres articles
-
Teradata lance des cas d’usage d’IA générative à démarrage rapide grâce à l’intégration d’Amazon Bedrock
-
Teradata nomme Louis Landry au poste de Chief Technology Officer
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
Teradata propose des capacités d’IA exceptionnelles pour les grandes entreprises et les environnements hybrides en collaboration avec NVIDIA
-
Les nouvelles fonctionnalités de ClearScape Analytics maximisent le retour sur investissement en matière d’IA/ML et renforcent la productivité de la data science