Génération augmentée de récupération et réglage fin

Copier l'URL

Les processus de génération augmentée de récupération(RAG) et de réglage fin ont pour objectif d'améliorer les grands modèles de langage (LLM). Avec la RAG, le LLM sous-jacent n'est pas modifié, tandis que le réglage fin nécessite d'en ajuster les paramètres. Souvent, il est possible de personnaliser un modèle en utilisant à la fois le réglage fin et une architecture RAG.

Découvrir les solutions d'IA de Red Hat

Un LLM est un type d'intelligence artificielle (IA) qui utilise des techniques d'apprentissage automatique (AA) pour comprendre et produire du langage humain. Ces modèles d'AA peuvent notamment générer, résumer, traduire, réécrire, classifier, catégoriser et analyser du texte. Au sein des entreprises, ces modèles sont souvent utilisés pour créer un système de questions-réponses, tel qu'un chatbot.

Les modèles de fondation des LLM sont entraînés avec des connaissances générales pour prendre en charge des cas d'utilisation très divers. Ils ne disposent toutefois pas de connaissances propres à un domaine dans lequel une entreprise peut être spécialisée. La RAG et le réglage fin sont deux manières d'ajuster le LLM et d'y intégrer les données nécessaires pour produire le résultat souhaité.

Prenons l'exemple de la création d'un chatbot dans le but d'interagir avec des clients. Dans ce scénario, le chatbot représente l'entreprise et doit donc agir comme un employé performant. Il doit être en mesure de comprendre les nuances de l'entreprise, notamment les produits qu'elle vend et les politiques qu'elle applique. À l'image de la formation d'un employé à qui l'on fournirait des documents à étudier et des scripts à suivre, le chatbot est entraîné grâce à la RAG et au réglage fin pour faire évoluer la base de connaissances dont il dispose au départ. 

Ressources Red Hat

La RAG complète les données que contient un LLM en recueillant des informations issues de sources de connaissances externes, comme des référentiels de données, des corpus et de la documentation. Une fois les données collectées, les architectures RAG les transforment en contexte de LLM, puis génèrent une réponse qui repose sur des sources mixtes.

La RAG est très utile pour compléter un modèle avec des informations régulièrement mises à jour. Lorsqu'un LLM est lié à des sources externes spécifiques, les résultats obtenus sont plus précis. De plus, il est possible de paramétrer la RAG afin qu'elle cite ses sources, ce qui permet de comprendre facilement comment un résultat a été formulé et ainsi de renforcer la transparence et la confiance.

Dans notre exemple, il est possible d'utiliser une architecture RAG pour créer un chatbot capable de répondre à des questions portant, par exemple, sur la politique de l'entreprise en matière de retour de produits. Il suffit de lier le LLM à un document détaillant cette politique et d'indiquer au chatbot d'en exploiter les informations. Il est même possible de demander au chatbot de citer ses sources et de fournir un lien qui permet d'obtenir davantage d'informations. En cas de mise à jour de ce document, le modèle amélioré par la RAG exploite les informations les plus récentes pour les communiquer à l'utilisateur.

En savoir plus sur la RAG

 

Cas d'utilisation de la RAG

La RAG peut recueillir et organiser des informations de manière à simplifier l'interaction des personnes avec les données. Avec une architecture RAG, les modèles sont en mesure d'exploiter des données et de fournir du contexte à un LLM à partir de sources de données sur site et basées dans le cloud. Ainsi, les données externes, les documents internes et les flux de réseaux sociaux peuvent être utilisés pour répondre à des questions, fournir du contexte et faciliter la prise de décisions.

Par exemple, il est possible de créer une architecture RAG qui formule des réponses spécifiques concernant les politiques, les procédures et la documentation d'une entreprise, ce qui élimine la nécessité d'étudier et interpréter un document manuellement.

En savoir plus sur la RAG dans l'ingénierie logicielle

Le réglage fin est une manière de communiquer une intention au LLM pour que celui-ci puisse adapter ses résultats en fonction des objectifs. Ce processus consiste à entraîner davantage un modèle préentraîné à l'aide d'un ensemble de données plus petit et plus ciblé, afin qu'il réalise efficacement des tâches propres à un domaine. Ces données d'entraînement supplémentaires sont intégrées à l'architecture du modèle.

Revenons à notre exemple du chatbot. Imaginons qu'il ait pour mission d'interagir avec des patients dans un contexte médical. Il est important que le modèle comprenne la terminologie médicale en lien avec les tâches concernées. À l'aide de techniques de réglage fin, il est possible de faire en sorte que, lorsqu'un patient demande au chatbot des informations à propos de « services de MPR », ce dernier comprenne qu'il s'agit de services de médecine physique et de réadaptation et redirige le patient vers les ressources pertinentes.

Cas d'utilisation du réglage fin

Le réglage fin est très utile pour entraîner un modèle en vue d'interpréter les données auxquelles il a accès. Par exemple, il est possible d'entraîner un modèle afin qu'il comprenne les nuances et la terminologie d'un secteur, notamment les acronymes et les valeurs organisationnelles.

Le réglage fin facilite également les tâches de classification d'images. Il permet, par exemple, d'entraîner un modèle pour identifier des anomalies dans les résultats d'IRM (imagerie par résonance magnétique).

Il peut en outre aider une entreprise à employer le ton adapté lorsqu'elle communique, notamment dans le cadre de l'assistance client. Le chatbot peut être entraîné afin d'analyser le sentiment ou l'émotion de la personne qui interagit avec lui, ou encore pour répondre à un utilisateur de manière à résoudre son problème tout en respectant les valeurs organisationnelles de l'entreprise.

Il est important de comprendre les différences entre la RAG et le réglage fin afin de savoir quelles ressources d'IA déployer selon les besoins. Voici quelques éléments à prendre en compte :

Compétences de l'équipe

La personnalisation d'un modèle avec la RAG nécessite des compétences en matière de codage et d'architecture. Par rapport aux méthodes de réglage fin traditionnelles, la RAG est un moyen plus simple et accessible de recueillir des avis, de résoudre les problèmes et de corriger les applications. Le réglage fin d'un modèle requiert de l'expérience dans les domaines du traitement du langage naturel (TLN), de  l'apprentissage profond, de la configuration de modèles ainsi que du retraitement et de l'évaluation de données. De manière générale, cette méthode peut s'avérer plus technique et chronophage.

Caractère statique ou dynamique des données

Le réglage fin permet à un modèle d'apprendre des schémas courants qui n'évoluent pas au fil du temps. Parce qu'il s'appuie sur des versions statiques des données d'entraînement, ses informations peuvent devenir obsolètes et nécessiter un réentraînement. Dans le cadre de la RAG, le grand modèle de langage récupère des informations spécifiques en temps réel dans les sources sélectionnées. Le modèle exploite ainsi les données les plus à jour pour une application donnée, ce qui produit des résultats précis et pertinents.

Budget

Le réglage fin est une technique d'apprentissage profond qui nécessite généralement une grande quantité de données et de ressources informatiques. Pour alimenter un modèle via cette méthode, il est normalement nécessaire d'étiqueter les données et de réaliser l'entraînement sur du matériel coûteux et haut de gamme. De plus, les performances d'un modèle amélioré par réglage fin dépendent de la qualité des données, et l'obtention de données de haute qualité peut présenter un coût élevé.

La RAG est souvent plus économique que le réglage fin. Pour la configurer, il est nécessaire de créer des systèmes de pipelines pour relier les données au LLM. Ce lien direct permet de réduire les coûts en matière de ressources, car les données existantes sont utilisées pour alimenter le LLM au lieu de consacrer du temps, de l'énergie et des ressources à la génération de nouvelles données. 

Regarder la vidéo : RAG vs. fine-tuning

Nos solutions Open Source et celles de notre écosystème de partenaires d'IA peuvent faciliter la mise en œuvre de la RAG et du réglage fin dans le cadre d'un processus LLMOps (Large Language Model Operations).

Expérimenter le réglage fin avec InstructLab

Créé par Red Hat et IBM, InstructLab est un projet communautaire Open Source visant à améliorer les LLM utilisés dans les applications  d'IA générative. Il fournit une méthode qui exploite des données synthétiques pour rendre le réglage fin de LLM encore plus accessible.

Découvrir comment la méthode InstructLab optimise les LLM

Créer un modèle de fondation avec Red Hat Enterprise Linux AI

Les entreprises qui souhaitent créer des applications avec l'IA générative peuvent choisir la solution Red Hat® Enterprise Linux® AI, qui fournit la plateforme de modèles de fondation nécessaire pour gérer plus rapidement les cas d'utilisation avec des données.

Cette solution regroupe les LLM sous licence Open Source de la famille Granite ainsi que les outils d'alignement de modèles d'InstructLab dans un même environnement de serveur. Les spécialistes qui ne maîtrisent pas la science des données peuvent ainsi plus facilement effectuer le réglage fin d'un modèle d'IA évolutif dans le cloud hybride et y contribuer.

La solution Red Hat Enterprise Linux AI est accessible avec une souscription Red Hat qui offre de nombreux avantages, notamment une distribution d'entreprise éprouvée, une assistance en production disponible en continu, une prise en charge étendue du cycle de vie du modèle ainsi qu'une protection juridique dans le cadre du programme d'assurance Open Source.

Mettre des applications à l'échelle avec Red Hat OpenShift AI

Après l'entraînement d'un modèle avec Red Hat Enterprise Linux AI, il est possible de le mettre à l'échelle pour la production grâce à Red Hat OpenShift® AI.

Plateforme MLOps (Machine Learning Operations) flexible et évolutive, la solution Red Hat OpenShift AI inclut des outils de création, de déploiement et de gestion d'applications basées sur l'IA. Elle fournit l'infrastructure sous-jacente pour les charges de travail, notamment un LLM permettant de créer des intégrations (c'est-à-dire les mécanismes de récupération nécessaires à la production de résultats) et d'accéder à une base de données vectorielle.  

Hub

Le blog officiel de Red Hat

Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.

Tous les essais de produits Red Hat

Profitez de nos essais gratuits de produits Red Hat pour renforcer votre expérience pratique, préparer une certification ou évaluer l'adéquation d'un produit avec les besoins de votre entreprise.

En savoir plus

IA prédictive et IA générative

L'IA générative et l'IA prédictive ont différentes caractéristiques et utilisations. Dans un contexte d'évolution continue, il est important de savoir distinguer ces deux types d'IA pour mieux comprendre leurs capacités spécifiques.

L'IA agentique, qu'est-ce que c'est ?

L'IA agentique est un système logiciel conçu pour interagir avec les données et les outils d'une manière qui nécessite une intervention humaine minimale.

La famille de modèles Granite, qu'est-ce que c'est ?

La famille Granite regroupe des grands modèles de langage qui ont été créés par IBM pour les applications d'entreprise. Les modèles de fondation Granite peuvent prendre en charge les cas d'utilisation de l'intelligence artificielle générative qui reposent sur un langage spécifique et du code.

IA/ML : ressources recommandées