Platon et Aristote ont posé que les deux formes principales de raisonnement sont la déduction et l’induction. Dans le raisonnement déductif, une conclusion est atteinte en appliquant des règles générales (prémisses), réduisant le domaine du discours par des étapes logiques, de la règle générale au cas particulier (conclusion) : les hommes sont mortels, Socrate est un homme, donc Socrate est mortel.

Dans le raisonnement inductif, les prémisses fournissent des arguments forts, mais pas des preuves de la conclusion. Nous passons des faits à des règles et les mathématiques permettent de mesurer l’incertitude pesant sur ces règles, dépendant notamment des faits sur lesquels ces règles sont basées. Partir d’un modèle correspond à adopter un raisonnement déductif, partir des données est adopter un raisonnement inductif, avec une incertitude à apprécier. Ainsi, en concluant, par induction, que les animaux (canari, tortue, chien…) sont mortels, la proportion de vieux canaris ou de jeunes tortues dans l’échantillon fera que l’espérance de vie estimée sera très différente.

Ces deux éléments, déduction et induction, sont à l’œuvre dans le cadre de l’IA. Plus précisément, le knowledge-based system applique la déduction tandis que le machine learning applique l’induction.

Les premiers pas de l’IA (déductive) dans les années 1960-1990 ont été marqués par des innovations emblématiques, notamment un système mis au point par Schlumberger d’assistance à l’exploration pétrolière, incorporant les connaissances d’Al Gilreath, un découvreur de pétrole de légende. Des « knowledge engineers » du MIT le suivirent durant un an alors qu’il interprétait les résultats de mesure, lui demandant de décrire comment il atteignait ses conclusions, et formalisant ceci.

Le système comportait un moteur d’inférence, 90 règles et une station de travail avec une Interface Homme Machine (IHM) spécifique. Les composants IA, moteur de règle et base de connaissance pesèrent 30% de l’effort et l’interface graphique fut, comme souvent, l’élément le plus important. Le facteur limitant de cette IA dite aujourd’hui symbolique reste le temps des experts en création et en maintenance du corpus de règles, et son avantage est l’explicabilité totale de l’algorithme en ses règles.

Le machine learning (IA inductive) fait, quant à lui, l’objet de développements marqués depuis les années 2010, dans un contexte d’accroissement des capacités de traitement, de transmission et de stockage de données. À ce jour, l’IA est très bien représentée par les réseaux de neurones profonds : le deep learning, incorporés notamment dans les Transformers, dont GPT-3.

Leurs performances sont étonnantes. Deux exemples emblématiques, l’un dans le domaine de la vision (reconnaissance à la volée d’objets présentés à la caméra d’un ordinateur portable) et l’autre de l’audio :  lors d’une conférence au Collège de France, le mathématicien Stéphane Mallat avait pu montrer la performance d’un algorithme identifiant et séparant deux discours simultanés, rendant chacun d’eux parfaitement intelligible.

Pour lire la suite de l'article de Pierre Delort :

Télécharger l'article

Les formations à venir de Pierre Delort

11 juin 2024

# 1 jour

# 880€ HT (1 056€ ttc)