Sauter au menu Sauter au contenu
PraedictIA

L’histoire des réseaux de neurones

… – 1948

L’étude des modèles neuronaux biologiques

Les scientifiques découvrent les modèles neuronaux biologiques et cherchent à mieux comprendre le fonctionnement des neurones et de la mémoire. La performance des réseaux de neurones biologiques inspire les scientifiques. Leurs capacités à apprendre et à s’adapter sont une inspiration pour les concepteurs des premiers modèles computationnels et informatiques.

1949

Un modèle explique le fonctionnement mathématique des réseaux de neurones biologiques.

Le neuropsychologue canadien Donald Hebb publie la théorie de Hebb, une des recherches les plus concluantes de l’époque. Il s’agit d’un modèle théorique en neuroscience qui explique le fonctionnement mathématique des réseaux de neurones biologiques.

1957

Le premier réseau de neurones artificiels fonctionnel : le perceptron

Frank Rosenblatt, un psychologue américain qui travaille principalement sur les concepts liés à l’intelligence artificielle, propose le premier réseau de neurones artificiels fonctionnel, le perceptron. Cet algorithme de classification binaire se base sur de l’apprentissage supervisé capable de classer une entrée dans une des deux classes disponibles telles que Vrai ou Faux, Chat ou Pas chat, etc.

1982

Un des premiers modèles de réseaux de neurones artificiels récurrents

Le physicien américain John Hopfield crée le modèle de Hopfield, qui propose un des premiers modèles de réseaux de neurones artificiels récurrents.

1986

Le perceptron à couches multiples est introduit.

David Rumelhart et Yann LeCun introduisent le perceptron à couches multiples (MLP, Multilayers Perceptron). Ils présentent une nouvelle approche permettant aux réseaux de neurones de résoudre des problèmes non linéaires avec l’introduction de la rétropropagation du gradient à travers les couches multiples du réseau.

Après les années 2000

Les développements liés aux réseaux de neurones profonds

Dans les années 2000, la capacité de calcul des ordinateurs se développe de façon vertigineuse. La disponibilité de la capacité computationnelle et l’accessibilité du matériel informatique permettent de développer des réseaux de neurones ayant une performance largement supérieure à celle des réseaux existants. Du coup, les centres de recherche publics et privés redoublent d’efforts dans la recherche et le développement en lien avec l’intelligence artificielle.

L’ère nouvelle de l’intelligence artificielle est principalement monopolisée par les développements liés aux réseaux de neurones profonds, d’où la discipline de l’apprentissage profond (Deep Learning). Ces réseaux de neurones se distinguent particulièrement par leurs capacités à résoudre des problèmes complexes, de nature variable. Depuis, plusieurs architectures et techniques liées aux réseaux de neurones profonds voient le jour dont les réseaux de neurones à convolution (CNN – ConvNet ou Convolutional Neural Net) qui révolutionnent la discipline de la reconnaissance d’images.