Jump to section

Modèles validés par Red Hat AI

Les modèles validés par Red Hat® AI offrent fiabilité, prévisibilité et flexibilité dans le cadre du déploiement de modèles d'IA générative tiers avec Red Hat AI.

illustrations d'un nuage et d'étincelles devant une pyramide de cubes entourée d'une ellipse

Présentation

Face à la multitude de grands modèles de langage (LLM), de paramètres de serveur d'inférence et d'accélérateurs matériels, les entreprises doivent s'assurer de choisir la solution qui saura répondre à leurs besoins et offrir le bon compromis entre performances, précision et coût.

Pour faciliter ce choix, Red Hat AI fournit un accès à un référentiel de modèles tiers dont l'efficacité d'exécution sur la plateforme a été validée. Ces modèles tiers de premier plan sont soumis à des scénarios de planification des capacités. Ils permettent aux entreprises de choisir le modèle, les paramètres de déploiement et l'accélérateur matériel compatibles et adaptés à leur cas d'utilisation spécifique.

Modèles validés par Red Hat AI. Durée de la vidéo : 2 min 19 s

Fonctions et avantages

Inférence optimisée

Optimisez votre infrastructure d'IA en choisissant le modèle, les paramètres de déploiement et les accélérateurs matériels appropriés afin d'obtenir des déploiements efficaces, rentables et adaptés aux cas d'utilisation de votre entreprise.

Confiance améliorée

Accédez à des tests de performance, à des évaluations de la précision et à des outils d'optimisation des modèles pour évaluer, compresser et valider des modèles tiers dans différents scénarios de déploiement.

Exploitez tout le potentiel de vos modèles

La validation des modèles est réalisée à l'aide d'outils Open Source tels que les frameworks GuideLLM et Language Model Evaluation Harness, ainsi que le vLLM pour garantir la reproductibilité.

Modèles validés

Ces modèles ne sont pas des LLM standards. Les modèles tiers sont testés à l'aide de scénarios concrets afin de déterminer leurs performances en conditions réelles. Nous utilisons des outils spécialisés pour évaluer les performances des LLM dans diverses configurations matérielles.

  • L'outil GuideLLM évalue les performances et les coûts dans plusieurs configurations matérielles.
  • L'outil LM Evaluation Harness teste la généralisation des modèles pour plusieurs tâches.

Modèles optimisés

Ces modèles sont compressés pour offrir rapidité et efficacité. Ces LLM sont conçus pour s'exécuter plus vite et utiliser moins de ressources, sans diminuer la précision lors de leur déploiement sur le vLLM. 

  • L'outil LLM Compressor est une bibliothèque Open Source qui inclut les derniers résultats de la recherche en matière de compression de modèles et qui permet de générer facilement des modèles compressés.
  • Le vLLM est le principal moteur Open Source d'inférence et de distribution à débit élevé et à utilisation efficace de la mémoire pour les LLM optimisés.

Créez des solutions adaptées avec Red Hat AI

La gamme Red Hat AI vous offre une plateforme d'IA Open Source qui s'adapte au fonctionnement de votre entreprise. Réduisez les coûts à l'aide de modèles efficaces, personnalisez ces modèles avec vos données et vos compétences spécialisées, et déployez et gérez des charges de travail de manière cohérente dans toutes les infrastructures. Utilisez des outils conçus pour aider vos équipes à collaborer et à évoluer.

Image de l'interface utilisateur de la console

Foire aux questions

Où peut-on trouver les modèles validés ?

Les modèles validés sont disponibles dans le référentiel Red Hat AI Ecosystem Catalog et le référentiel Red Hat AI sur Hugging Face. Ce dernier inclut la description complète des modèles, les pondérations SafeTensor et les commandes pour un déploiement rapide sur Red Hat AI Inference Server, RHEL AI et Red Hat OpenShift AI.

À quelle fréquence de nouveaux modèles validés sont-ils ajoutés ?

Red Hat prévoit d'ajouter un nouvel ensemble de modèles validés tous les mois, pour suivre le rythme de lancement des versions du vLLM en amont. Red Hat se réserve le droit d'interrompre la validation de modèles qu'elle qu'en soit la raison.

Quel est le cycle de vie d'un modèle validé ?

Les modèles sélectionnés sont validés à partir des versions N+2 mineures du vLLM au minimum, de manière transparente. Pour chaque modèle validé sur une version du vLLM, nous nous efforçons de garantir la compatibilité avec les deux prochaines versions du vLLM au minimum.

Ces modèles optimisés et validés sont-ils entièrement pris en charge par l'équipe d'assistance Red Hat ?

Non. Les modèles tiers ne sont pas pris en charge, indemnisés, certifiés ou garantis de quelque manière que ce soit par Red Hat. De plus, notez que les recommandations concernant les capacités sont données à titre informatif uniquement et ne garantissent pas les performances ou la précision. Pour en savoir plus sur la licence d'un modèle donné, contactez son fournisseur.

Comment peut-on obtenir des recommandations sur le déploiement, la configuration et les accélérateurs matériels pour un cas d'utilisation spécifique ?

Pour en savoir plus, envoyez vos questions à l'adresse [email protected].

Pour aller plus loin

Guide pour commencer à utiliser l'IA dans l'entreprise

Des modèles Open Source pour encourager l'innovation

Choisir un modèle d'IA : 4 critères à prendre en compte