Son objectif est de donner aux ordinateurs la capacité d'apprendre sans être spécifiquement programmés sur les résultats à fournir. Les algorithmes utilisés par le machine learning aident l'ordinateur à apprendre à reconnaître les choses.
Le deep learning permet déjà aux agriculteurs de déployer des équipements capables de repérer et de différencier les plantes cultivées et les mauvaises herbes. Cette capacité permet aux machines de désherbage d'épandre des herbicides exclusivement sur les mauvaises herbes tout en épargnant les autres plantes.
Deep Learning : définition. Le Deep Learning (ou « apprentissage profond ») est un sous-domaine du Machine Learning, lui-même faisant partie de la grande famille de l'intelligence artificielle. Il correspond à toutes les techniques de réseaux de neurones artificiels.
Le machine learning, spécialité de l'intelligence artificielle, est le domaine de la science informatique qui a pour objectif d'analyser et d'interpréter des modèles et des structures de données afin de permettre l'apprentissage, le raisonnement et la prise de décision sans interaction humaine.
Le Deep Learning est un apprentissage en profondeur. Il va chercher à comprendre des concepts avec davantage de précision, en analysant les données à un haut niveau d'abstraction. Pour illustrer le fonctionnement du Deep Learning, imaginez que les réseaux de neurones veulent apprendre à reconnaître les visages humains.
Traitement d'images. Les IA à deep learning sont très efficaces pour les analyses d'images. Elles sont, par exemple, employées dans l'imagerie médicale pour détecter des maladies ou dans le secteur automobile dans le cas des voitures autonomes.
Yann Le Cun [ləkœ̃], né le 8 juillet 1960 à Soisy-sous-Montmorency, est un chercheur en intelligence artificielle et vision artificielle (robotique) français. Il est considéré comme l'un des inventeurs de l'apprentissage profond.
Le Machine Learning est une IA capable de s'adapter automatiquement avec une interférence humaine minimale, et le Deep Learning est un sous-ensemble du Machine Learning utilisant les réseaux de neurones pour mimer le processus d'apprentissage du cerveau humain.
On distingue trois techniques de Machine Learning : l'apprentissage supervisé, l'apprentissage non-supervisé, et l'apprentissage par renforcement.
En général, deux principaux types d'algorithmes de machine learning sont utilisés aujourd'hui : l'apprentissage supervisé et l'apprentissage non supervisé.
Avec l'avènement des fakes news et ses effets néfastes sur les réseaux sociaux, la diffusion de deepfake sur le web constitue donc une nouvelle menace technologique. Manipulation, désinformation, humiliation, diffamation... les dangers des deepfakes seront de plus en plus nombreux.
Le deep learning et le Python
Python est un langage de programmation puissant pour la création d'IA. Il est également facile à apprendre et à utiliser, avec un riche écosystème de bibliothèques pour l'apprentissage profond. La communauté Python est vaste et active.
Pour revenir à ses origines, le deep learning est apparu en 1943 lorsque Warren McCulloch et Walter Pitts ont utilisé des mathématiques et des algorithmes pour créer un système informatique reproduisant les réseaux neuronaux. De petites avancées ont été réalisées dans les années 1950, 1960, 1970 et 1980.
Le GPU NVIDIA Titan RTX convient parfaitement aux jeux vidéo et à l'apprentissage en profondeur. Il est le choix idéal pour les scientifiques des données et des chercheurs en IA.
Concrètement, le deep learning est une technique d'apprentissage permettant à un programme, par exemple, de reconnaître le contenu d'une image ou de comprendre le langage parlé – des défis complexes, sur lesquels la communauté de chercheurs en intelligence artificielle s'est longtemps cassé le nez.
Dans le domaine du Machine Learning, 3 acteurs se partagent le podium. Il s'agit de Microsoft, IBM et Google. En effet, les 3 acteurs bénéficient de leur statut d'éditeur mondial ainsi que leur empreinte déjà faite dans les domaines du Cloud Computing et du Big Data.
Si l'on répète à l'envi qu'un volume important de données est l'une des clés de voûte du machine learning, en avoir trop n'aide pas forcément. Ce problème est en lien direct avec le précédent. En effet, la masse d'information n'indique pas leur qualité et leur pertinence au regard d'un cas d'usage spécifique.
La Data Intelligence (ou intelligence des données) fait référence à un processus d'exploration, d'analyse et de compréhension des données permettant d'en retirer toute la valeur nécessaire et ainsi faciliter la prise de décision au sein d'une organisation.
Dans ce chapitre, je vous présente deux limites principales du machine learning : une limite théorique sur la capacité d'un algorithme à résoudre différentes tâches ; une limite pratique sur la capacité des ordinateurs à gérer la complexité des problèmes à traiter.
Les algorithmes de deep learning sont des réseaux neuronaux modélisés sur le cerveau humain. Par exemple, un cerveau humain contient des millions de neurones interconnectés qui travaillent ensemble pour apprendre et traiter l'information.
Avantages des modèles de machine learning :
Par exemple, le machine learning dans les logiciels de cybersécurité peut surveiller et identifier en permanence les irrégularités dans le trafic réseau sans la moindre intervention de l'administrateur. Les résultats peuvent devenir plus précis avec le temps.
Pour le Parlement européen, l'intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».
Le machine learning (ML), traduit aussi en français par apprentissage automatique ou encore apprentissage statistique, est un sous-domaine de l'intelligence artificielle (IA) qui permet à des applications de prédire des résultats de plus en plus précis sans être explicitement programmées en ce sens.