De Turing à Watson : genèse de l'intelligence artificielle
Si il est un "buzz word" qui prospère, c'est bien le terme d'intelligence artificielle. Les GAFAM s'en sont emparés, ouvrant pleinement les vannes de l'investissement. Depuis, le phénomème se propage, Mais le saviez-vous le concept est presque centenaire .?
... Depuis, le phénomème se propage, et il est cocasse pour nous de constater que plus une start-up ne se créée, sans faire mention d'IA ou d'AI dans son programme de développement. L'Intelligence Artificielle semble être devenue la condition nécessaire mais non suffisante pour lever des fonds. Si l'usage du terme est souvent usurpé et opportuniste, englobant aussi bien le "machine learning" que "la Big data", l'AI est utilisée aujourd'hui dans tous les secteurs de l'économie. La finance de marché, terrain de prédilection de Fine Digit, n'échappe pas à la règle.
Les prémices de l'AI, les machines peuvent-elles penser?
Dans la première moitié du XXe siècle, les premières "machines pensantes" apparaissent dans la science-fiction. Dès 1921, la pièce de théâtre “Rossum Universal Robot” de Karel Čapek met en scène des machines intelligentes, que l'on trouve en 1939 dans le magicien d'Oz de Victor Fleming sous la forme de Tin Man (’homme de fer blanc)
Dans les années 50, c’est au tour des scientifiques, des mathématiciens et des philosophes d'imaginer des machines pensantes.
Le mathématicien britannique Alan Turing, explore la possibilité mathématique de l'intelligence artificielle (IA), dans son article “Computing Machinery and Intelligence“. Il y explique comment construire des machines intelligentes et comment tester leur intelligence. Dès lors Turing est l’un des premiers à concrétiser la possibilité qu’une machine ait la capacité de s’approcher d’une intelligence humaine. Il met alors en place une méthode qu’il appelle ‘’Imitation Game’’ plus connue sous le nom de ‘’Test de Turing’’ qui permet de déterminer si une machine est capable de penser comme un humain. Ce sont les débuts de l’IA.
Pendant l’été 1956, les scientifiques américains John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon réunissent les meilleurs chercheurs à une conférence sur le thème de l’intelligence artificielle, terme qui fera son apparition à l'occasion de cette conférence. L'équipe scientifique commence ses recherches en déterminant rigoureusement le processus d’apprentissage et d’intelligence chez l’humain afin de les reproduire avec une machine.
L’âge d'or d'IBM lance la course à l'intelligence artificielle.
Au milieu des années 1950, une entreprise américaine nommée International Big Machine et plus connue sous l'acronyme IBM lance le modèle 650, premier calculateur muni d'une mémoire à tambour et orienté calcul scientifique doté d’une mémoire vive de 2 000 « caractères » (2 kilo octets). Celui-ci coutait la bagatelle d'un demi-million de dollars mais fût tout de même lancé en grande série. Et c'est en 1957 qu'IBM lance le Fortran et le disque dur.
Les ordinateurs peuvent désormais stocker plus d'informations et sont plus rapides. Ils sont "moins" chers et les algorithmes d’apprentissage automatique se sont également améliorés. La même année, le premier logiciel d’IA, le Logic Theorist, qui réalise seul des démonstrations mathématiques, est créé par Allen Newel et Herbert Simon, deux chercheurs américains. En 1957, le psychologue Frank Rosenblatt, invente le premier programme d’apprentissage grâce à un réseau de neurones simples appelé le Perceptron. La même année, Noam Chomsky, un chercheur linguiste américain invente des modèles mathématiques de langage pour les rendre compréhensibles aux machines.
Plus tard, en 1965, Joseph Weinzenbaum, informaticien au MIT, développera ELIZA, un programme informatique capable de remplacer un psychothérapeute dans les entretiens thérapeutiques. C’est aussi le premier programme qui réussit le Test de Turing.
L'hiver de L'IA.
A La fin des années 60’, Hans Moravec, un étudiant au doctorat de McCarthy met fin provisoirement à l'utopie IA :il déclare que «les ordinateurs sont encore des millions de fois trop faibles pour faire preuve d'intelligence.» C'est le début de l’hiver de l’intelligence artificielle. Mais l'AI continue néanmoins de fasciner les esprits dans la culture et la science-fiction comme dans “2001 : "l’Odyssée de l’espace" de Stanley Kubrick mettant en scène un ordinateur intelligent “HAL” capable de piloter un vaisseau spatial. Et évidemment les fameux robots R2D2, et X6PO dans "la guerre des étoiles".
1997 : Deep blue, la machine a vaincu l'homme
En 1980, l'informatique connait un nouvel essor, les investissements repartent, et les recherches reprennent. C'est à cette époque qu'Edward Feigenbaum créé ce qu’on appelle : les systèmes experts, trés utilisés dans la finance et dans la banque de crédit. Les machines sont alors capables d’imiter le processus de prise de décision d’un expert humain dans un domaine précis, comme un diagnostic financier en vue de l'obtention d'un crédit.
En 1990, l’IA se développe intensivement dans les laboratoires de recherche car celle-ci est stimulée par les progrès de l’informatique et le début du Big Data.
En 1997, pour la première fois, le champion du monde d'échecs et grand maître Gary Kasparov est vaincu par “Deep Blue” d'IBM, un programme informatique conçu pour les échecs. Ce match est très médiatisé, il marque la première victoire de la machine sur l'homme qui plus est aux échecs. C'est un énorme tournant pour le développement de l'AI.
Désormais "les fantasmes" des écrivains de science-fiction sont devenus réalité, la machine peut faire mieux que l'homme. Toujours en 1997, un logiciel de reconnaissance vocale, développé par Dragon Systems, est installé sous Windows.
Cette période marque aussi l’essor du “Deep learning” grâce à des chercheurs comme le français Yann Lecun qui apporte des avancées importantes dans la reconnaissance d’écriture et d’image qui sont rapidement exploitées par la banque pour le repérage de chèques frauduleux.
L'ère du big data
Au cours de la dernière décennie, l’IA prend un nouveau tournant. C’est l’ère du big data. Les améliorations techniques accroissent la performance des algorithmes. On parle du deep learning qui permet à une machine d’apprendre seule. Aujourd’hui, on la retrouve dans notre quotidien, sur nos smartphones, véhicules, dans les suggestions de moteur de recherche, etc.
Aujourd'hui Google a encore fait parler de lui avec «Deep Dream », un programme permettant, en quelque sorte, de visualiser un processus de deep learning, avec des résultats étonnants : les formes repérées, analysées et interprétées dans une image par le programme sont visuellement « augmentées ».
En clair, si un nuage ressemble un peu à un oiseau, le réseau va le faire ressembler encore plus à un oiseau d’une manière artistique.
Watson ou l'AI au quotidien
En 2006, IBM lance “Watson”, un programme capable de reconnaître des mots, des images, comprendre le langage, analyser des données, donner des prédictions…
Le programme est capable d'identifier les émotions mais aussi d'analyser le ton utilisé par ses interlocuteurs... Watson s’essaie à la conversation. Autant de nouvelles possibilités qui trouvent très rapidement de multiples applications dans des domaines variés.
Watson est capable de répondre à des questions formulées en “langage naturel”. Contrairement aux premiers chatbots, Watson ne traduit pas une question en langage informatique pour pouvoir formuler une réponse. Watson est capable de trouver une signification à la question posée par rapport à ce qu’il a appris et emmagasiné dans sa mémoire grâce aux différents échanges avec les utilisateurs. Il crée ensuite des hypothèses grâce à des algorithmes de réflexion et des scores de pondération et de confiance.
Il est finalement capable de trouver une réponse pertinente à une question ambigüe. Aujourd'hui, d'après IBM, Watson dispose d'un mode d'acquisition cognitif qui se rapproche de la compréhension humaine avec plus ou moins 4 % d’erreurs.
Que réserve l’IA pour l’avenir?
Aujourd'hui le développement de l'intelligence artificielle continue de faire l'objet d'autant d'espoir, dans les domaines médicaux par exemple, que de fantasmes, quand le robot cognitif aura pris le dessus sur l'homme. Ce qui est désormais certain, c'est qu'à terme l’objectif des chercheurs en Intelligence Artificielle est de surpasser les capacités cognitives humaines dans toutes les tâches. Nous serons alors assez proche du Roman d'Abraham Asimov, le monde des robots.