L’histoire des réseaux de neurones
L’étude des modèles neuronaux biologiques
Les scientifiques découvrent les modèles neuronaux biologiques et cherchent à mieux comprendre le fonctionnement des neurones et de la mémoire. La performance des réseaux de neurones biologiques inspire les scientifiques. Leurs capacités à apprendre et à s’adapter sont une inspiration pour les concepteurs des premiers modèles computationnels et informatiques.
Un modèle explique le fonctionnement mathématique des réseaux de neurones biologiques.
Le neuropsychologue canadien Donald Hebb publie la théorie de Hebb, une des recherches les plus concluantes de l’époque. Il s’agit d’un modèle théorique en neuroscience qui explique le fonctionnement mathématique des réseaux de neurones biologiques.
Le premier réseau de neurones artificiels fonctionnel : le perceptron
Frank Rosenblatt, un psychologue américain qui travaille principalement sur les concepts liés à l’intelligence artificielle, propose le premier réseau de neurones artificiels fonctionnel, le perceptron. Cet algorithme de classification binaire se base sur de l’apprentissage supervisé capable de classer une entrée dans une des deux classes disponibles telles que Vrai ou Faux, Chat ou Pas chat, etc.
Un des premiers modèles de réseaux de neurones artificiels récurrents
Le physicien américain John Hopfield crée le modèle de Hopfield, qui propose un des premiers modèles de réseaux de neurones artificiels récurrents.
Le perceptron à couches multiples est introduit.
David Rumelhart et Yann LeCun introduisent le perceptron à couches multiples (MLP, Multilayers Perceptron). Ils présentent une nouvelle approche permettant aux réseaux de neurones de résoudre des problèmes non linéaires avec l’introduction de la rétropropagation du gradient à travers les couches multiples du réseau.
Les développements liés aux réseaux de neurones profonds
Dans les années 2000, la capacité de calcul des ordinateurs se développe de façon vertigineuse. La disponibilité de la capacité computationnelle et l’accessibilité du matériel informatique permettent de développer des réseaux de neurones ayant une performance largement supérieure à celle des réseaux existants. Du coup, les centres de recherche publics et privés redoublent d’efforts dans la recherche et le développement en lien avec l’intelligence artificielle.
L’ère nouvelle de l’intelligence artificielle est principalement monopolisée par les développements liés aux réseaux de neurones profonds, d’où la discipline de l’apprentissage profond (Deep Learning). Ces réseaux de neurones se distinguent particulièrement par leurs capacités à résoudre des problèmes complexes, de nature variable. Depuis, plusieurs architectures et techniques liées aux réseaux de neurones profonds voient le jour dont les réseaux de neurones à convolution (CNN – ConvNet ou Convolutional Neural Net) qui révolutionnent la discipline de la reconnaissance d’images.