Red Hat AI
La gamme Red Hat® AI permet aux entreprises d'adopter plus rapidement l'intelligence artificielle (IA) en mettant à leur disposition de petits modèles spécifiques, des techniques de personnalisation efficaces, ainsi que la flexibilité nécessaire pour développer et déployer des applications dans tous types d'environnements.
Red Hat AI peut vous aider à adopter ou mettre à l'échelle l'IA.
Offres Red Hat AI
Red Hat Enterprise Linux® AI
La solution Red Hat Enterprise Linux AI s'adresse aux clients qui commencent à utiliser l'IA et qui n'ont pas encore déterminé leurs cas d'utilisation métier. Cette plateforme d'IA est conçue pour développer, tester et exécuter des modèles de fondation d'IA générative.
Fonctions et avantages
Inclut les LLM de la famille Granite d'IBM
Réglage fin des modèles en local avec InstructLab
Économique pour les clients ayant un accès limité au processeur graphique
Red Hat OpenShift® AI
La solution Red Hat OpenShift AI s'adresse aux clients qui souhaitent mettre à l'échelle leurs applications d'IA. Cette plateforme d'IA peut faciliter la gestion du cycle de vie des modèles d'IA prédictive et générative dans les environnements de cloud hybride.
Fonctions et avantages
Fonctionnalités MLOps adaptées aux entreprises
Inclut les LLM Granite d'IBM et les outils d'InstructLab
Création et distribution de l'IA à grande échelle avec des accélérateurs matériels et la prise en charge du cloud hybride
InstructLab
Le projet communautaire InstructLab de Red Hat permet aux équipes de développement de faire plus facilement des tests avec les modèles Granite d'IBM, quel que soit leur niveau d'expérience en matière d'apprentissage automatique (AA).
Il s'agit d'un excellent point de départ pour réaliser des tests avec un modèle d'IA ou procéder au réglage fin de modèles de fondation sur du matériel local.
Avec ce projet, vous pouvez ainsi essayer des modèles à moindre coût et sans mobiliser trop de ressources avant de déployer l'IA dans votre entreprise.
Solutions partenaires pour Red Hat AI
Avec un large choix de partenaires pour l'IA, vous pouvez atteindre vos objectifs de la façon qui vous convient le mieux.
Nos clients bénéficient à la fois des connaissances de spécialistes et de technologies pour en faire plus avec l'IA. Divers partenaires technologiques s'efforcent d'obtenir une certification de compatibilité avec nos solutions. Et nous enrichissons sans cesse notre écosystème.
Modèle de solution
Applications d'IA avec Red Hat et NVIDIA AI Enterprise
Créer une application RAG
Red Hat OpenShift AI est une plateforme qui sert à réaliser des projets de science des données et à servir des applications basées sur l'IA. Vous pouvez intégrer tous les outils dont vous avez besoin pour prendre en charge la génération augmentée de récupération (RAG), un moyen d'obtenir des réponses d'une IA basées sur vos propres documents de référence. L'association d'OpenShift AI à NVIDIA AI Enterprise vous permet d'utiliser des grands modèles de langage (LLM) afin de trouver le modèle optimal pour votre application.
Concevoir un pipeline pour les documents
Pour tirer parti de la RAG, vous devez, dans un premier temps, ajouter vos documents dans une base de données vectorielle. Dans notre exemple d'application, nous intégrons un ensemble de documents relatifs à des produits dans une base de données Redis. Puisque ces documents changent fréquemment, nous avons créé un pipeline pour ce processus que nous exécuterons régulièrement afin de nous assurer que l'IA dispose toujours des dernières versions des documents.
Parcourir le catalogue de LLM
NVIDIA AI Enterprise vous donne accès à un catalogue varié de LLM. Vous pouvez ainsi tester plusieurs modèles et sélectionner celui qui vous offre les meilleurs résultats. Les modèles sont hébergés dans le catalogue d'API de NVIDIA. Une fois que vous avez configuré un token API, vous pouvez déployer un modèle directement à partir d'OpenShift AI, en utilisant la plateforme de service de modèles NVIDIA NIM.
Choisir le modèle le plus adapté
Lorsque vous testez différents LLM, vos utilisateurs peuvent noter chaque réponse générée. Vous avez la possibilité de configurer un tableau de bord de surveillance Grafana pour comparer les notes ainsi que la latence et le temps de réponse pour chaque modèle. Ensuite, vous pouvez utiliser ces données pour choisir le meilleur LLM à utiliser en production.
Témoignages de clients sur Red Hat AI
Ortec Finance accélère sa croissance et réduit le délai de mise sur le marché
Ortec Finance, fournisseur mondial de technologies et de solutions pour la gestion des risques et des rendements, distribue des modèles d'AA sur Microsoft Azure Red Hat OpenShift et adopte les solutions de la gamme Red Hat AI.
L'université de Boston crée une plateforme pédagogique
L'université de Boston a mis à l'échelle un environnement d'apprentissage pour qu'il soit accessible à des centaines d'étudiants en sciences de l'informatique et en ingénierie informatique.