Deep learning : définition
Le deep learning est une technique d'intelligence artificielle (IA) qui apprend aux ordinateurs à traiter des données en utilisant un algorithme qui s'inspire du cerveau humain.
Définition
Le deep learning utilise l'intelligence artificielle et le machine learning (IA/ML) pour aider les data scientists à collecter, analyser et interpréter de grandes quantités de données. Le processus de deep learning, également connu sous le nom d'apprentissage neuronal profond ou de réseau neuronal profond, permet aux ordinateurs d'apprendre par l'observation, en imitant la manière dont les humains acquièrent des connaissances.
Le cerveau humain comporte de nombreux neurones interconnectés qui agissent comme des messagers lorsque le cerveau traite des informations (ou des données). Ces neurones utilisent des impulsions électriques et des signaux chimiques pour communiquer entre eux et transmettre les informations entre les différentes zones du cerveau.
Les réseaux neuronaux artificiels (RNA), qui constituent l'architecture sous-jacente au deep learning sont basés sur ce phénomène biologique. Cependant, ils sont formés de neurones artificiels constitués de modules logiciels que l'on appelle des nœuds. Ces nœuds utilisent des calculs mathématiques (plutôt que des signaux chimiques) pour communiquer et transmettre des informations. Ce réseau neuronal simulé traite les données par groupe de points de données et à l'aide de prédictions.
Pour mieux comprendre, on pourrait comparer le deep learning à une sorte d'organigramme qui commence par une couche d'entrée et se termine par une couche de sortie. Entre ces deux couches se trouvent les « couches cachées » qui traitent les informations à différents niveaux. Elles ajustent et adaptent leur comportement à mesure qu'elles reçoivent de nouvelles données. Les modèles de deep learning peuvent comporter des centaines de couches cachées. Chacune d'entre elles joue un rôle dans la découverte de relations et de schémas au sein de l'ensemble de données.
Les données sont introduites dans le modèle à partir de la couche d'entrée, composée de plusieurs nœuds, puis classées en conséquence avant de passer à la couche suivante. Le chemin que les données empruntent à travers chaque couche est basé sur les calculs mis en place pour chaque nœud. Les données se déplacent à travers chaque couche, recueillent des observations en cours de route qui façonneront le résultat, ou l'analyse finale, des données.
Ressources Red Hat
Applications du deep learning
Le deep learning fait déjà partie de notre vie quotidienne et nous l'utilisons dans de nombreux secteurs d'activité. L'IA générative, sur laquelle reposent aujourd'hui de nombreux outils d'IA, existe grâce au deep learning.
Ses cas d'utilisation évoluent sans cesse, et il alimente aujourd'hui trois des technologies les plus fréquemment utilisées : la vision par ordinateur, la reconnaissance vocale et le traitement du langage naturel (TLN).
- Vision par ordinateur : les ordinateurs peuvent utiliser des techniques de deep learning pour comprendre les images de la même manière que les humains. Ils peuvent ainsi automatiquement modérer des contenus, reconnaître des visages et classer des images.
- Reconnaissance vocale : le timbre, le ton, la langue et l'accent sont autant d'éléments qui peuvent être analysés à l'aide de modèles de deep learning. En plus d'améliorer l'expérience des clients, cette fonction s'avère utile du point de vue de l'accessibilité lorsqu'une transcription en temps réel est nécessaire.
- Traitement du langage naturel (TLN) : les ordinateurs utilisent des algorithmes de deep learning pour analyser et collecter des informations à partir de données textuelles et de documents. Cette technique aide à résumer de longs documents, à indexer des phrases clés qui indiquent un sentiment (comme des commentaires positifs ou négatifs) et à générer des informations pour les assistants virtuels automatisés et les chatbots. Le traitement du langage naturel est une branche qui englobe le développement et l'application de grands modèles de langage (LLM) pour comprendre et générer du langage humain.
Voici quelques exemples de la façon dont les différents secteurs d'activité utilisent les principes du deep learning :
- Service clientèle : les chatbots, les assistants virtuels et les portails de services à la clientèle utilisent des outils comme la reconnaissance vocale.
- Services financiers : les analyses prédictives alimentent les algorithmes de la Bourse, évaluent les risques commerciaux pour l'approbation des prêts, détectent les fraudes et aident à gérer les portefeuilles de crédit et d'investissement.
- Secteur de la santé : avec la numérisation des dossiers médicaux, les applications de reconnaissance d'images peuvent aider les techniciens en imagerie médicale dans leur travail en apprenant à détecter automatiquement les éléments inquiétants à soumettre aux médecins pour examen. Découvrez comment HCA Healthcare utilise les analyses prédictives pour établir une approche numérique et standardisée afin de détecter les cas de septicémie.
- Médias et divertissement : des achats en ligne aux services de streaming multimédia, le deep learning est utilisé pour suivre l'activité des utilisateurs et élaborer des recommandations personnalisées.
- Automatisation industrielle : dans les usines et les entrepôts, les applications de deep learning peuvent détecter automatiquement les personnes ou objets trop proches des machines, ou aider à contrôler la qualité ou à réaliser la maintenance prédictive.
- Voitures autonomes : les chercheurs du secteur automobile utilisent le deep learning pour apprendre aux voitures à détecter les piétons et des objets tels que les panneaux stop, les feux de circulation et les passages piétons.
- Application de la loi : les technologies de reconnaissance vocale, de vision par ordinateur et de traitement du langage naturel permettent de gagner du temps et d'économiser des ressources en facilitant l'analyse des gros volumes de données.
- Secteur aérospatial et armée : ceux qui surveillent de vastes zones géographiques peuvent utiliser le deep learning pour détecter des objets, identifier des zones d'intérêt à distance et vérifier la sécurité de zones pour les troupes.
Lien entre deep learning et machine learning
Le deep learning est une forme spécialisée de machine learning qui se différencie par le type de données avec lesquelles il travaille et par les méthodes d'apprentissage qu'il utilise.
Les algorithmes classiques de machine learning nécessitent une intervention humaine sous la forme d'un prétraitement des ensembles de données avant leur introduction dans le modèle. Certaines caractéristiques des données d'entrée doivent donc être définies et étiquetées, puis organisées en tableaux avant d'être introduites dans le modèle de machine learning. À l'inverse, les algorithmes de deep learning se passent de ce type de prétraitement et sont capables de comprendre des données non structurées telles que des documents textuels, des images en pixels ou des fichiers de données audio.
Le deep learning s'avère plus pratique que le machine learning classique dans les cas où le volume de données est considérable, lorsqu'il manque des informations contextuelles sur le sujet ou qu'il s'agit d'une tâche complexe et chronophage.
Prise en compte du biais et de la variance
Le deep learning fonctionne à l'aide d'une structure de nœuds qui communiquent entre eux au sein d'un réseau neuronal artificiel. Pour créer un réseau neuronal artificiel, il faut introduire des calculs et des paramètres dans le modèle en même temps que les données. De plus, il faut veiller à ce que ces calculs tiennent compte du biais et de la variance.
Dans le contexte du machine learning, le biais désigne le degré d'hypothèse ou de généralisation que l'algorithme applique afin de faciliter l'apprentissage de la fonction cible. Plus le biais est élevé, plus le modèle simplifie et crée des raccourcis (à tort) lorsqu'il traite les informations.
La variance est la mesure de la distance entre chaque point de données et la moyenne, ou la mesure statistique de l'écart entre les nombres d'un ensemble de données. Par opposition au biais, la variance renvoie à la sensibilité d'un modèle aux données d'entraînement. Quand la variance (ou la sensibilité) est élevée, le modèle accorde trop d'attention aux détails et ne tient pas compte des schémas sous-jacents dans l'ensemble de données.
Dans le cas de l'apprentissage supervisé, lorsque la variance est trop élevée et le biais trop faible, on parle de surajustement ou de surentraînement. Lorsque le biais est élevé et la variance faible, on parle de sous-ajustement. Parce qu'il est difficile d'obtenir un ajustement parfait, il faut chercher le juste équilibre, que l'on appelle couramment le compromis biais-variance.
Les paramètres définissent des limites, et les limites sont essentielles pour donner un sens à l'énorme volume de données que les algorithmes de deep learning doivent traiter. Ainsi, le sous-ajustement et le surajustement peuvent souvent être corrigés en utilisant plus ou moins de paramètres, respectivement.
Prise en compte du biais humain
Si un modèle de deep learning est entraîné avec des données statistiquement biaisées ou qui ne donnent pas une représentation exacte de la population, les résultats peuvent être erronés. Malheureusement, le biais humain existant est souvent transféré à l'intelligence artificielle, avec à la clé des algorithmes potentiellement discriminatoires et des résultats biaisés.
Plus les entreprises exploitent l'IA pour améliorer leur productivité et leurs performances, plus il est essentiel de mettre en place des stratégies pour minimiser le biais. Cette approche nécessite d'abord des processus de conception inclusifs et une prise en compte plus réfléchie de la diversité représentative au sein des données collectées.
Boîte noire
Le terme « boîte noire » fait référence à l'étape où un programme d'IA réalise une tâche au sein de son réseau neuronal sans montrer ce qu'il fait. À ce moment-là, personne, pas même les data scientists et les ingénieurs qui ont créé l'algorithme, n'est en mesure d'expliquer exactement comment le modèle parvient au résultat qu'il propose. Le manque d'interprétabilité des modèles de boîte noire peut avoir des conséquences néfastes lorsqu'ils sont utilisés pour des prises de décisions sensibles, en particulier dans des secteurs tels que la santé, la justice pénale ou la finance.
Avantages du deep learning pour le cloud
Les modèles de deep learning sont capables de réaliser des tâches informatiques plus complexes sans intervention humaine. Il leur faut cependant une plus grande puissance de traitement, une infrastructure suffisante et de plus gros volumes de données d'entraînement. Le cloud computing permet aux équipes d'accéder à plusieurs processeurs à la fois, tels que des clusters de GPU (unités de traitement graphique) et de CPU (unités centrales de traitement), ce qui crée un environnement idéal pour l'exécution d'opérations mathématiques complexes.
Grâce à la conception, au développement et à l'entraînement des modèles de deep learningdans le cloud, les équipes de développement peuvent faire évoluer et distribuer les charges de travail avec rapidité et précision, tout en réduisant les coûts d'exploitation.
Deep learning et machine learning en périphérie du réseau
L'utilisation du cloud ouvre des possibilités de machine learning pour l'edge computing. Grâce à la mise en place de hubs d'edge computing connectés à des ressources de cloud public, les informations peuvent être saisies et analysées en temps réel pour faciliter l'exploitation, que ce soit pour des mises à jour de l'état de la chaîne d'approvisionnement ou des informations sur les sites d'évacuation en cas de catastrophe.
Nos solutions
Notre gamme de produits offre à vos équipes une base commune pour créer et déployer des applications d'IA et des modèles d'AA, de manière transparente et contrôlée.
Red Hat® OpenShift® AI est une plateforme conçue pour l'entraînement, le réglage des commandes, l'ajustement des requêtes et la distribution de modèles d'IA qui reposent sur vos données et sont adaptés à votre cas d'utilisation.
Pour les déploiements à grande échelle, la solution Red Hat OpenShift offre une plateforme d'applications évolutive qui convient aux charges de travail d'IA, avec un accès aux principaux accélérateurs matériels.
Chez Red Hat, nous nous appuyons aussi sur nos outils Red Hat OpenShift AI pour optimiser d'autres logiciels Open Source, à commencer par Red Hat Ansible® Lightspeed with IBM watsonx Code Assistant. Ce service aide les équipes d'automatisation à apprendre, créer et gérer des contenus Ansible plus efficacement. Il reçoit les requêtes saisies par un utilisateur, puis interagit avec les modèles de fondation IBM watsonx pour générer des recommandations de code qui sont ensuite utilisées pour créer des playbooks Ansible.
Enfin, les intégrations des partenaires Red Hat ouvrent la voie à un écosystème d'outils d'IA fiables et compatibles avec les plateformes Open Source.
Le blog officiel de Red Hat
Découvrez les dernières informations concernant notre écosystème de clients, partenaires et communautés.