Définir l’intelligence artificielle (IA) et en circonscrire les contours n’est pas aisé. On trouve dans la littérature et dans l’usage commun de nombreuses définitions qui ne renvoient pas toujours aux même objets.
Cette ambiguïté sémantique peut s’expliquer à la fois par le caractère multidisciplinaire des travaux fondateurs[1] ainsi que par la diversité des applications utilisant des algorithmes d’IA.
Les premiers travaux avaient en commun la volonté de développer des modèles d’automatisation ou de simulation de l’intelligence comprise comme une suite de raisonnements logiques et de processus d’inférence. Rapidement, des questions plus générales relatives à la modélisation des processus perceptifs, d’apprentissage, d’auto-organisation, ou d’adaptation se sont développés. La diversité des théories mobilisés et des outils analytiques développés a contribué à créer plus de confusion autour du concept d’IA.
Deux principaux axes de développement du programme de recherche structurant l’IA restent toutefois prégnants depuis les années 1950 :
Les travaux récents se sont concentrés sur le développement de techniques algorithmiques. La puissance des ordinateurs (puissance de calcul et capacité de stockage) et l’explosion des données disponibles ont permis d’obtenir des avancées techniques significatives permettant de développer un grand nombre de solutions combinant différentes techniques. Ainsi on trouve des familles technologiques assurant des fonctionnalités très diverses dédiées à nombre d’applications toujours plus grand.[4] Il devient alors plus difficile de s’accorder sur une définition commune.
Le point d’achoppement se situe autour de la notion d’intelligence. L’intelligence peut avoir des acceptions différentes selon les disciplines[5] parle-t-on nécessairement d’intelligence humaine et, si c’est le cas, peut-elle être simulée ou automatisée ?
On peut toutefois regrouper les différentes définitions mentionnées dans la littérature en trois familles et ainsi situer l’IA au confluent de trois dimensions complémentaires.
La première s’appuie sur une compréhension technique ou technologique. L’IA se présente alors à l’intersection des mathématiques et des sciences du numérique (ou de l’informatique). Une conception élargie présente l’IA comme une famille de modèles statistiques – à savoir des modèles de prédiction à partir du traitement de données- utilisant des techniques de machine learning (e.g. apprentissage bayésien, random forests, support vector machines ou SVMs, shallow neural networks ou réseaux de neurones artificiels). Une approche plus restrictive considère que seules les techniques relevant du « data-driven deep learning » peuvent être identifiées comme de l’IA.
Selon cette perspective, l’IA est une technique car elle décrit un ensemble de procédés (algorithmes) ou de méthodes susceptibles d’obtenir un résultat déterminé. Elle est aussi une technologie en ce qu’elle est une discipline d’étude des techniques spécifiques à l’IA et donc peut se comprendre comme un domaine permettant de développer de nouvelles techniques.
La limite de cette approche d’inspiration exclusivement technique ou technologique est de restreindre le champ des possibles en se privant de solutions qui ne relèveraient pas de modèles statistiques. En outre, elle nous nous prive de discussions plus conceptuelles interrogeant les liens entre la nature des modèles utilisés, les fonctions possibles et leur portée notamment quant à leur impact sur l’homme et la société.
Une seconde famille définit l’IA comme une machine capable de reproduire ou simuler l’intelligence humaine (i.e. apprendre, comprendre, raisonner, interagir etc.). Ainsi, une science de l’IA serait l’étude des moyens permettant d’automatiser les processus de perception, d’apprentissage, de raisonnement, de décision et d’action.[6]
L’intelligence humaine est alors la référence permettant d’étalonner une machine et évaluer ses performances. Généralement, cette définition mène naturellement au test de Turing : une machine peut être qualifiée d’intelligente si elle se comporte comme une personne intelligente, autrement dit, si une tierce personne n’est pas capable de distinguer les réponses de la machine de celles d’un être humain.
Outre que cette définition anthropocentrique se limite à une compréhension purement comportementale de l’intelligence, elle nous contraint à restreindre la machine à un champ fonctionnel limité aux activités cognitives humaines. Par ailleurs, la machine peut être plus performante que l’homme pour certaines tâches –liées en général à la difficulté des êtres humains à raisonner à partir d’une quantité d’information qui dépasse ses capacité de traitement- ou moins bien –liées en général à la difficulté des systèmes artificiels à développer une compréhension située de la connaissance ou de l’apprentissage et de porter un jugement sur les processus et sur leurs conséquences relativement à un système de valeurs.[7] Enfin, l’analogie à un système cognitif humain peut être trompeuse et engendrer des confusions quant à sa nature.
Toutefois, souligner la capacité d’une intelligence artificielle à simuler ou reproduire des processus de délibération, de décision et d’action humains permet à un public large de s’approprier le concept et de laisser libre cours à l’imagination de futurs possibles. Ces futurs imaginés peuvent aller des fantasmes les plus extravagants, voire des dystopies sources de peurs le plus souvent injustifiées, jusqu’aux anticipations potentiellement productives et aux prises de conscience nécessaires à la définition de règles d’encadrement.
Enfin, une troisième famille de définitions propose une perspective fonctionnelle mais sans référence aux capacités humaines. Elle présente l’IA comme un ensemble de systèmes automatisés capables de s’adapter de façon (plus ou moins) autonome à son environnement pour parvenir à des fins prédéfinies. La définition proposée par l’OCDE, dans son rapport sur l’IA [e] va dans ce sens : « un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. »
Cette définition s’inspire de l’approche initiale proposée par Herbert Simon dans son ouvrage Sciences of the Artificial [f] qui fait référence à des systèmes téléologiques dont la capacité d’interaction avec un environnement leur procure des propriétés adaptatives et des moyens d’agir sur –et donc de modifier- leur environnement. Elle permet aussi d’envisager différentes classes de systèmes selon la « fermeture » ou « l’ouverture » d’une fin prédéfinie (l’objectif assigné à la machine). De fait, il est alors possible d’envisager et d’étudier différentes classes de comportements (humains ou non), sans se contraindre à des considérations techniques particulières.
Il est intéressant de noter que cette dernière conception pourrait se rapprocher de celle adoptée par la proposition de cadre juridique de la Commission européenne (21 avril 2021) visant à réglementer l’IA. En effet, cette proposition s’appuie sur une définition de l’IA fondée sur les risques (inacceptables, élevés, limités, et minimes). L’article 3 du projet de règlement définit les systèmes d’intelligence artificielle comme des logiciels qui peuvent, pour un ensemble donné d’objectifs définis par l’homme, produire des résultats tels que du contenu, des prévisions, des recommandations, ou des décisions influant sur les environnements avec lesquels ils interagissent.
Cette approche fonctionnelle –ou fonctionnaliste- met donc l’accent sur les caractéristiques comportementales sans préjugé ontologique sur l’intelligence. Elle permet d’aborder l’étude des systèmes IA non seulement comme des systèmes distincts, identifiables et dont la fonction est prédéfinie, mais aussi comme un ensemble de sous-systèmes en interaction et dont le comportement global n’est pas toujours prévisible.
La question de la prévisibilité comportementale devient particulièrement pertinente avec la multiplication des formes de systèmes, leur interconnexion, l’explosion des données produites (notamment du fait de la multiplication des objets connectés) et immédiatement disponibles et la progressive décentralisation des algorithmes IA au plus près des objets producteurs de données (via le edge computing). On peut alors comprendre l’IA comme un écosystème d’algorithmes IA en interaction.
Ces trois familles de définitions se complètent et peuvent être combinées pour appréhender les questions relatives aux impacts de l’IA sur la société, l’économie, l’éthique, etc. Les questions portant sur la diffusion, l’appropriation ou les effets de l’IA ne peuvent alors être appréhendées toutes choses égales par ailleurs, mais en fonction des contextes (économiques, politiques, organisationnels, professionnels, etc.) dans lesquels ils sont conçus et utilisés.
[1] Les premiers travaux accompagnant la naissance de la cybernétique dans les années quarante et cinquante regroupaient mathématiciens, logiciens, anthropologues, psychologues et économistes ayant comme objectif de conceptualiser et éventuellement simuler l’apprentissage et l’intelligence humaine.
[2] Les systèmes symboliques physiques de Newell et Simon [a] sont emblématiques de cette approche
[3] Les travaux pionniers de McCulloch et Pitts dès 1943 [b] illustrent cette orientation.
[4] Il est communément admis de considérer l’IA comme une technologie d’application générale (General Purpose Technology)
[5] En particulier, selon les disciplines, l’intelligence –capacité à comprendre, apprendre, s’adapter- ne relève pas exclusivement d’un processus cognitif, et peut comprendre l’intelligence émotionnelle, la conscience de soi, etc.
[6] Par exemple, le Bureau International des Brevets [c] définit l’IA comme « une branche de l’informatique qui a pour objet de concevoir des machines et des systèmes à même d’accomplir des tâches faisant appel à l’intelligence humaine, avec une intervention humaine limitée ou nulle ». Dans le même sens, l’enquête de la Commission Européenne sur l’usage des technologies basées sur l’intelligence artificielle par les entreprises européennes [d] définit l’IA comme « une technologie qui essaie d’automatiser une ou plusieurs fonction ou processus cognitifs (humains). Elle produit des prédictions, des recommandations, ou des décisions pour atteindre des objectifs spécifiques. Elle y parvient en apprenant en permanence de son environnement ou des résultats de ses actions »
[7] Cette remarque renvoie au paradoxe de Moravac selon lequel les tâches les plus faciles en IA sont celles qui sont les plus difficiles pour l’homme, et inversement.
Références bibliographiques
[a] Newell, A., & Simon, H. A. (1976). “Computer Science as Empirical Inquiry: Symbols and Search”, Communications of the ACM, 19(3), 113-126.
[b] McCulloch, W. S., & Pitts, W. (1943). “A Logical Calculus of the Ideas Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 5, 115-133.
[c] WIPO (2019) WIPO Technology Trends 2019 – Artificial Intelligence. Geneva: World Intellectual Property Organization.
[d] Commission européenne (2020). European enterprise survey on the use of technologies based on artificial intelligence, European Commission, Directorate-General of Communications Networks, Content & Technology.
[e] OCDE (2019). Artificial Intelligence in Society, Éditions OCDE, Paris,
[f] Simon, H. A. (1996). The Sciences of the Artificial (3rd ed.). Cambridge, MA: MIT Press. ISBN 9780262193740.