De la machine de Turing à l’intelligence artificielle
L’être humain n’a cessé d’accroître sa capacité d’action sur le monde, utilisant son intelligence pour construire des outils et des machines. Dans le contexte du traitement automatique de l’information (informatique), il a élaboré un mode de pensée algorithmique susceptible d’être codé dans des langages permettant de commander des machines. Plus largement, le terme « intelligence artificielle » (IA) se définit comme un champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines : reconnaître et localiser des objets dans une image, conduire une voiture, traduire un texte, dialoguer, etc. Un champ de l’intelligence artificielle ayant récemment permis des applications spectaculaires est celui de l’apprentissage automatique.
Jusqu’au début du XXe siècle, les machines traitant l’information étaient limitées à une ou à quelques tâches prédéterminées (tisser grâce à un ruban ou des cartes perforées, trier un jeu de cartes perforées, séparer des cartes selon un critère, sommer des valeurs indiquées sur ces cartes, etc.). Turing a été le premier à proposer le concept de machine universelle qui a été matérialisé dix ans plus tard avec les premiers ordinateurs. Ceux-ci sont constitués au minimum d’un processeur et d’une mémoire vive.
Un ordinateur peut manipuler des données de natures diverses une fois qu’elles ont été numérisées : textes, images, sons. Les programmes sont également des données : ils peuvent être stockés, transportés et traités par des ordinateurs. En particulier, un programme écrit dans un langage de programmation de haut niveau (Python, Scratch, etc.) peut être traduit en instructions spécifiques à chaque type de processeur.
Un programme peut comporter jusqu’à plusieurs centaines de millions de lignes de code, ce qui rend très probable la présence d’erreurs appelées bogues (ou bugs). Ces erreurs peuvent conduire un programme à avoir un comportement inattendu et entraîner des conséquences graves.
L’intelligence artificielle (IA) est née en 1956. À cette époque, elle visait à simuler sur ordinateur les facultés cognitives humaines et recouvrait des approches relevant de l’informatique, des mathématiques et des sciences cognitives. L’approche symbolique (systèmes experts) initiée à la fin des années 50 n’a pas tenu ses promesses. Aujourd’hui, on a tendance à attribuer le terme d’IA à l’un de ses sous-domaines, celui de l’apprentissage automatique (apprentissage machine). Il s’agit d’un processus par lequel un algorithme évalue et améliore ses propres performances, non pas sous l’intervention d’un humain chargé de programmer la machine, mais en répétant son exécution sur des jeux de données de natures variées (mesures de capteurs pour des prévisions, textes pour la traduction, sons pour la reconnaissance vocale, images pour la reconnaissance visuelle, etc.).
L’apprentissage machine exploite des méthodes mathématiques qui, à partir du repérage de tendances (par exemple, des corrélations ou des similarités) sur de très grandes quantités de données (données massives), permettent de faire des prédictions ou de prendre des décisions sur d’autres données.
La qualité et la représentativité des données fournies sont essentielles pour la qualité des résultats. En effet, l’un des risques de l’apprentissage automatique réside dans l’amplification des biais des données. Par ailleurs, une interprétation trop rapide des données et un amalgame entre corrélation et causalité peuvent aboutir à des résultats erronés.
L’inférence bayésienne est une méthode de calcul de probabilités de causes à partir des probabilités de leurs effets. Elle est utilisée en apprentissage automatique pour modéliser des relations au sein de systèmes complexes, notamment en vue de prononcer un diagnostic.