Sauter au menu Sauter au contenu
PraedictIA

L’histoire du traitement du langage naturel

1933

Le dépôt d’un premier brevet pour la traduction d’un texte

Georges Artsrouni et Petr Troyanskii déposent un premier brevet avec une approche informatique (un programme sous forme de cartes perforées dans le temps). Ce programme permet la traduction automatisée d’un texte entre deux langues par le biais d’un schéma reliant les différentes règles grammaticales entre elles.

L’histoire de la discipline du traitement du langage naturel repose sur l’évolution des disciplines qui la composent, à savoir la linguistique et l’intelligence artificielle.

1980 – 1989

Un intérêt grandissant pour les approches statistiques

Grâce aux nouvelles capacités de calcul et à la performance croissante des techniques d’apprentissage machine, l’intérêt des linguistes et des scientifiques de données se tourne vers des approches statistiques.

L’histoire du traitement du langage naturel est intimement liée à celle de l’intelligence artificielle. Les techniques de traitement du langage naturel profitent des années où l’intelligence artificielle prend du galon auprès de la communauté scientifique pour surfer sur cette nouvelle vague. Avant les années 1980, cette discipline était largement dominée par les systèmes ayant des règles (principalement définies manuellement). L’adoption des approches statistiques pour le traitement des données démontre une capacité supérieure aux anciennes approches largement dominées par les règles.

La fin des années 1990

Une piste prometteuse : les réseau de neurones

À la fin des années 1990, l’utilisation des réseaux de neurones récurrents et l’introduction des réseaux de neurones LSTM (Long Short-Term Memory) pour des opérations de traitement du langage naturel se révèlent comme une nouvelle piste prometteuse pour obtenir des systèmes efficaces. Ce type particulier de réseau de neurones permet le traitement des données tout en tenant compte de leur caractère temporel, car la compréhension de la sémantique d’un texte requiert la prise en compte de l’ordre des mots et des phrases.

Février 2011

Un programme informatique réussit à battre le champion du monde de Jeopardy.

Le programme informatique Watson d’IBM réussit à battre le champion du monde de Jeopardy, un jeu télévisé américain dans lequel la performance dépend essentiellement de la compréhension textuelle. Cette réussite symbolique laisse miroiter l’espoir de voir un jour des machines capables de comprendre le langage naturel aussi bien qu’un être humain.

Octobre 2011

La disponibilité d’un agent virtuel performant

L’entreprise Apple annonce la disponibilité de son assistant virtuel, Siri, dans ses nouveaux appareils téléphoniques iPhone. Cet agent virtuel se distingue par sa capacité à comprendre les questions des utilisateurs et à y répondre d’une manière cohérente et instantanée. Depuis l’apparition de Siri, les agents virtuels continuent à gagner en popularité.

2014

La multiplication des agents virtuels

Amazon introduit son assistant virtuel, Alexa, suivie par Google qui propose Google Assistant.