L'intelligence artificielle (IA), un domaine en pleine effervescence, suscite un intérêt mondial et une course à l'innovation depuis le début des années 2000. Mais d'où vient ce concept et que recouvre-t-il exactement ?
Les Prémices de l'IA : Une Idée Née au Milieu du XXe Siècle
L'avènement des ordinateurs dans les années 1940 et 1950 a semblé concrétiser le rêve de l'IA. Le mathématicien Norbert Wiener a lancé la cybernétique dans les années 1940, la définissant comme la science du fonctionnement de l'esprit humain. L'objectif était de modéliser l'esprit comme une boîte noire, une tentative qui n'a finalement pas abouti. Les chercheurs se sont alors détournés de l'esprit pour se concentrer sur les neurones, marquant le début d'un foisonnement d'idées.
Deux approches de l'IA ont émergé dans les années 1940 : le connexionnisme et le cognitivisme. Le connexionnisme, porté par les neurologues Warren McCulloch et Walter Pitts, visait à reproduire dans une machine le fonctionnement interne du cerveau humain. Ils ont inventé le neurone formel, le premier modèle mathématique du neurone. En 1949, le neuropsychologue Donald Hebb a créé une règle permettant de doter les neurones formels de capacités d'apprentissage.
Le cognitivisme, quant à lui, considérait que la pensée pouvait être décrite à un niveau abstrait comme une manipulation de symboles, indépendamment du support matériel de cette manipulation. Cette approche établissait un lien entre la pensée et le langage, comme système de symboles, et visait à développer la traduction automatique sur ordinateur. En pleine guerre froide, la traduction automatique du russe vers l'anglais (et inversement) était un enjeu majeur.
Le Test de Turing : Une Étape Fondamentale
En octobre 1950, le mathématicien britannique Alan Turing a publié un article intitulé "Machines de calcul et intelligence", un texte fondateur qui posait la question : "Les machines peuvent-elles penser ?" Il y présentait un jeu dit de l'imitation, qui deviendra le célèbre test de Turing. Ce test visait à déterminer la capacité d'une machine à adopter un comportement intelligent similaire à celui d'un être humain, en se basant sur la capacité de la machine à tenir une conversation avec un humain.
Lire aussi: Marcel Pagnol : un artiste complet
En 1951, le mathématicien américain Marvin Minsky a créé le SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier simulateur de réseau neuronal, simulant le comportement d'un rat apprenant à se déplacer dans un labyrinthe.
L'Apparition du Terme "Intelligence Artificielle"
L'expression "intelligence artificielle" est apparue en 1956, lors d'une conférence à l'université de Dartmouth, aux États-Unis. Plusieurs chercheurs américains, dont John McCarthy et Marvin Minsky, se sont réunis pour développer l'IA. Le terme, inventé par John McCarthy, a immédiatement séduit par son caractère frappant, paradoxal et ambigu. Il décrivait bien les projets de ces experts, parlait au public et permettait de formuler des promesses afin d'attirer des financements.
Trois ans après le séminaire de Dartmouth, McCarthy et Minsky ont fondé le laboratoire d'intelligence artificielle du Massachusetts Institute of Technology (MIT). Le mouvement s'est ensuite étendu à la Grande-Bretagne, à la France et aux autres pays où les ordinateurs commençaient à être utilisés. En France, en 1959, un laboratoire, le "centre d'étude de la traduction automatique", a été créé et cofinancé par le CNRS, l'armée et l'université de Grenoble.
Les Hivers de l'IA : Périodes de Désillusion
L'histoire de l'IA n'a pas été linéaire. Son développement a été fortement influencé par les financements alloués, les effets de mode et les fluctuations financières. Des phases de grand enthousiasme, attirant chercheurs et financements, ont alterné avec des périodes de désillusion, entraînant des coupes budgétaires. Ces périodes de repli sont qualifiées d'"hivers de l'intelligence artificielle".
Le premier hiver de l'IA a eu lieu au milieu des années 1960. Les promesses de traductions automatiques en masse ne se sont pas concrétisées. Des linguistes ont souligné que la traduction des langues ne se limitait pas à des algorithmes bien conçus, mais nécessitait une compréhension approfondie de la langue elle-même. Cela a freiné la traduction automatique et tari les financements. Cependant, indirectement, cela a rapproché la linguistique et l'informatique théorique, donnant naissance à l'informatique théorique.
Lire aussi: Valérie Darmon : Journaliste et Bien-être
Une autre promesse non tenue était celle d'un ordinateur capable de battre le champion du monde d'échecs en moins de dix ans, formulée en 1958. Cet ordinateur d'IBM a été capable de le faire, mais ce n'est arrivé qu'en 1997, avec Gary Kasparov contre le programme Deep Blue.
En 1969, McCarthy et Minsky ont écrit un livre commun, "Perceptrons", qui a mis en évidence les limites de l'apprentissage machine (machine learning), ce qui a temporairement freiné les recherches dans ce domaine. Un nouvel hiver a eu lieu au milieu des années 1970, coïncidant avec la fin de la guerre du Vietnam et l'arrêt des financements militaires.
Dans les années 1980, les Américains ont réinvesti dans l'IA, en pleine guerre Russie-Afghanistan. C'est également à cette époque qu'a été développée l'idée de remplacer l'homme par la machine dans certains métiers.
Le Tournant des Années 2000 : Un Nouvel Essor
Après l'éclatement de la bulle Internet au début des années 2000, l'IA a connu un nouvel essor, porté notamment par Google, dont le moteur de recherche est intrinsèquement lié à l'IA. Le Web 2.0 a permis de recueillir en permanence des informations, des rumeurs et des bruits, afin d'améliorer les produits et de répondre aux désirs des consommateurs. Pour exploiter ces grandes quantités d'informations, il fallait des outils informatiques et on s'est tourné vers les outils d'apprentissage d'intelligence artificielle.
Ce tournant a concentré la recherche sur l'IA sur trois domaines : la perception automatique de l'environnement, la résolution de problèmes combinatoires et l'apprentissage. L'apprentissage, et en particulier le Machine Learning et le Deep Learning, est devenu la colonne vertébrale de la recherche. Le Deep Learning, basé sur des réseaux de neurones artificiels, permet à un programme de reconnaître, entre autres, le contenu d'une image ou de comprendre le langage parlé.
Lire aussi: Obtenir Acte de Naissance Cayenne
Une démonstration récente de Deep Learning a été réalisée début 2016, lorsque le programme de Google, Deep Mind, a permis à un ordinateur de battre pour la première fois un joueur professionnel de go.
Les Types d'Intelligence Artificielle
Arend Hintze, professeur en biologie intégrative et ingénierie informatique à l'université du Michigan, distingue quatre types d'intelligence artificielle :
- La réactivité : La machine est capable de percevoir le monde autour d'elle et d'agir en fonction de ces perceptions. C'est le stade le plus développé aujourd'hui.
- La mémoire limitée : Les machines s'appuient sur des représentations du monde pour prendre des décisions, comme les voitures autonomes.
- La théorie de l'esprit : Dans le futur, les robots pourraient appréhender et classifier le monde, mais aussi comprendre et hiérarchiser les émotions pour influer sur le comportement humain.
- L'auto-conscience : Le dernier pallier de l'IA, où la machine serait consciente d'elle-même.
L'IA et la Conscience : Un Débat Ouvert
Aujourd'hui, l'investissement dans l'IA est considérable. La Chine a annoncé un plan d'investissement public de 22 milliards de dollars d'ici 2020. La marge de manœuvre concernant le progrès dans l'IA est grande.
La question de la conscience des machines reste un sujet de débat. L'ordinateur ou le robot peut-il penser ? Peut-il être conscient qu'il pense ? Ces réflexions durent en fait depuis le début de l'intelligence artificielle. On ne peut pas doter la machine d'une conscience, concept qu'on ne sait pas définir. Or l'IA couvre les processus de pensée, y compris d'apprentissage, que l'on peut définir assez précisément pour les décrire en programmes et les faire simuler par une machine. On peut simuler le raisonnement humain, par exemple en développant des systèmes d'IA pour démontrer des théorèmes mathématiques.
L'IA : Un Domaine en Constante Évolution
L'IA a cessé d'être une inconnue pour devenir une partie intégrante de nombre de nos interactions quotidiennes entre nous et avec les dispositifs qui nous entourent. Des philosophes grecs à Turing et McCarthy, nous disposons de modèles capables de générer des images photoréalistes et de multiples applications dans l'industrie. L'intelligence artificielle, également connue sous son abréviation (« IA ») ou son abréviation en anglais (« AI »), est définie de manière générale comme un domaine d’étude qui cherche à développer des systèmes informatiques et des algorithmes qui présentent certaines capacités semblables à celles de l’être humain.
Les origines de ce que nous connaissons aujourd’hui sous le nom d’IA remontent aux années 1940, lorsque des scientifiques ont commencé à étudier la possibilité de créer des machines capables d’apprendre et de raisonner, des idées qui n’étaient auparavant que des théories. Le concept primordial d’intelligence artificielle remonte à l’Antiquité et à la réflexion philosophique sur la nature de l’intelligence et la possibilité de mécaniser la pensée humaine. C’est à cette époque que sont apparus les premiers mythes sur les automates (machines qui imitent la figure et les mouvements d’un être animé) comme le géant Talos, le proto-Androïde défenseur de la Crète.
Les travaux du mathématicien britannique Alan Turing ont constitué l’un des premiers fondements du développement de l’IA. En 1950, il a publié un article intitulé Computing Machinery and Intelligence dans lequel il posait la question suivante : « Les machines peuvent-elles penser ? » Il a proposé le test de Turing, une méthode permettant de déterminer, à l’aide de questions, la capacité d’une machine à adopter un comportement intelligent similaire à celui d’un être humain. L’héritage des idées de Turing se perpétue encore aujourd’hui. Une version inversée de ce test, appelée CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart), est utilisée quotidiennement comme mesure de sécurité pour déterminer si un humain ou une machine tente d’accéder à un système.
En 1956, John McCarthy, Marvin Minsky, Claude Shannon et d’autres scientifiques ont organisé la conférence de Dartmouth sur l’Intelligence Artificielle, dont les conclusions ont donné naissance au terme que nous connaissons tous. Cette conférence est considérée comme le point de départ de l’IA moderne.
Au fil des décennies, l’IA a fait de grands progrès. Aujourd’hui, elle est utilisée dans un large éventail d’applications, de la médecine à l’industrie, et est entrée dans notre vie quotidienne par le biais de modèles génératifs de textes et d’images tels que ChatGPT. Dans le contexte industriel, l’IA est utilisée pour automatiser des tâches, améliorer l’efficacité et la productivité et prendre des décisions plus éclairées.
L'Apprentissage Automatique au Cœur de l'IA
Le « Machine Learning » (ML) est un domaine de l’IA spécialisé dans les algorithmes et les techniques qui permettent aux machines d’apprendre à partir de données et d’améliorer leurs performances sur la base de l’expérience acquise. Au sein du ML, le Deep Learning se concentre sur les algorithmes basés sur les réseaux neuronaux profonds, qui sont construits par analogie au cerveau humain.
La capacité croissante de l’IA à reconnaître des modèles à travers les données collectées par les capteurs permet, par exemple, de vérifier en temps réel l’état d’une infrastructure électrique pour détecter les dysfonctionnements, tant dans l’installation elle-même que pour les actifs qui y sont connectés.
Le fonctionnement des modèles d’Intelligence Artificielle repose sur l’interprétation de grandes quantités de données. Cependant, ces unités d’information, en elles-mêmes, sont inutiles si elles ne sont pas traitées. Par exemple, dans l’apprentissage supervisé, pour qu’un modèle apprenne à reconnaître des modèles et des relations dans les informations qu’il reçoit, il faut lui fournir un ensemble de données étiquetées qui lui permettent de comprendre le résultat souhaité. Cela signifie qu’il doit savoir quelle est la réponse correcte pour chaque entrée, afin d’ajuster ses paramètres, d’améliorer sa précision au fil du temps et d’interpréter ces données d’une manière qui fournisse des informations utiles.
Applications et Perspectives d'Avenir
Un modèle d’intelligence artificielle (IA) ouvre un horizon illimité pour obtenir l’efficacité d’une prise de terre, aussi bien de l’installation elle-même que de tout élément qui y est connecté. L’IA et l’apprentissage automatique permettent de détecter automatiquement toute anomalie et de la signaler en temps réel afin d’effectuer une maintenance corrective dans les plus brefs délais et en cas de toute éventualité (vol de matériel, dysfonctionnement des équipements, etc.). Ainsi, les entreprises protègent leurs actifs, réduisent le gaspillage d’énergie lié à une panne et réalisent des économies. De plus, grâce à la reconnaissance de schémas et sur la base des données qu’il enregistre, il peut également prédire quand des actions de maintenance préventive seront nécessaires pour éviter des situations critiques.
L'histoire de l'IA est riche en rebondissements et aujourd'hui, nous ne nous trouvons qu'au début de cette technologie révolutionnaire.
Les Étapes Clés de l'Évolution de l'IA
1940 - 1960 : La naissance et les créateurs de l'IA générale: C’est entre les années 1940 et les années 1960 que l’intelligence artificielle et ses développements techniques voient le jour. L’accélération a été donnée après la seconde guerre mondiale et, à ce moment-là, un coup de projecteur va être mené sur l’IA. Les premiers objectifs de cette technologie étaient basés sur la possibilité d’automatiser des commandes grâce à l'électronique avec un premier modèle mathématique informatique. Il faudra attendre l’année 1943 pour voir apparaître un premier réseau de neurones artificiel par Warren McCulloch et Walter Pitts. Le premier concept d’intelligence artificielle est mis au monde. John Von Neumann et Alan Turing inventent la technologie qui sera apparentée à l’IA. Grâce à cela, ils créent le point de départ de l’architecture des ordinateurs domestiques : le concept d’ordinateur voit le jour sur la base de la capacité de la machine à exécuter un programme configuré par l’homme. Alan Turing crée le Test de Turing qui est toujours d’actualité aujourd’hui : il questionne la capacité de la machine à avoir une conversation avec un humain. Un test majeur dans l'histoire de l'IA des capacités des machines à résoudre des problèmes de plus en plus complexes. En parallèle, la machine et son raisonnement intelligent commencent à se développer : en 1952, elle sait jouer aux échecs, grâce au premier logiciel informatique créé par Arthur Samuel. La paternité du terme IA est attribuée à John McCarthy (université de Stanford), un terme définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique » par Marvin Minsky (MIT). Les recherches sont menées avec intensité à cette période, dans différentes universités dont le MIT, l'université Carnegie-Mellon (sous le contrôle de Allen Newell et Herbert Simon), l'université d'Édimbourg (Donald Michie), en France avec Jacques Pitrat, etc. On considère l’année 1956 comme le point de départ officiel de l’intelligence artificielle dans le monde car l’expression voit le jour durant la conférence “Dartmouth Summer Research Project on Artificial Intelligence” au Dartmouth College, une sorte d’atelier de réflexion autour de l’IA animé par six chercheurs dont McCarthy et Minsky.
1970 - 1990 : Développement et évolution de l'IA d’aujourd’hui: Il faudra attendre les décennies d’après pour que la recherche autour de l’intelligence artificielle reprenne, aidée par la démocratisation des images futuristes dans la culture populaire. En 1968 sort le film “2001, l’odyssée de l’espace de Stanley Kubrick” : un ordinateur intelligent est l’un des personnages principaux. Cette œuvre mythique prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur. Même si la culture n’a pas forcé la science à avancer, elle a permis de rendre le secteur plus accessible au plus grand nombre, vers un engouement retrouvé autour de cette technologie. En 1965 et en 1972, les recherches menées par le MIT et l’université de Stanford exploitent l’intelligence artificielle au service de la chimie moléculaire ou encore de la santé. Les prémices de l’intelligence artificielle d’aujourd’hui sont posés : les machines créées alors étaient programmées comme des logiciels imitant la logique humaine, des machines pouvant donner des réponses à des stimulations créées par l’humain en entrant des données spécifiques. Ces inventions n’ont pourtant pas motivé les pouvoirs publics à continuer leurs investissements dans ce domaine. Les années 1980 et le début des années 1990 connaissent un nouvel hiver de l’intelligence artificielle, avec un projet qui sera mis de côté pour un temps. En effet, la technologie ainsi que la programmation demandaient beaucoup trop de ressources pour des résultats pas assez rapides. De plus, les recherches sont focalisées sur le développement de l’ordinateur domestique. L’intelligence artificielle n’est donc plus une priorité. Un événement majeur va tout de même marquer les années 1990, avec le succès du système expert d'IBM Deep Blue. IBM Deep Blue est un logiciel connu pour avoir battu le champion mondial d’échecs Garry Kasparov. Pour la première fois, une intelligence artificielle est capable d’un tel exploit. Même si cette prouesse a marqué l’histoire de l’intelligence artificielle, le processeur utilisé n’était pas des plus convaincants, car utilisant seulement des fonctionnalités limitées, bien loin des projections futuristes et complexes d’une IA rêvée.
2010 : Essor de l’IA nouvelle génération: La première transformation majeure dans les systèmes d'IA est survenue avec l'avènement des données massives. Contrairement à une simple action itérative, l'algorithme a commencé à intégrer une capacité d'apprentissage. Le travail réalisé par des experts en IA a permis cette avancée. En 2011, l'IA Watson d'IBM a démontré cela en remportant Jeopardy ! face à des champions. En 2012, une IA de Google, Google X, a innové en matière de reconnaissance d'image, identifiant des chats dans des vidéos. Ces événements marquent les premiers jalons de l'intelligence artificielle moderne, capable d'apprendre et de reconnaître des objets de manière autonome. En 2016, l'intelligence artificielle Alpha Go de Google, spécialisée dans le jeu de go, a surmonté des problèmes complexes en battant le champion d'Europe, puis le champion du monde, avant de se mesurer à elle-même. Un travail gigantesque et le test de logique ultime pour une machine : la preuve que les systèmes IA évoluaient vers de nouvelles capacités encore plus abouties, encore plus impressionnantes. Le changement dans le concept d’intelligence artificielle est installé durablement : désormais, il n’est pas question d’imposer les règles aux machines, mais de laisser les machines découvrir les règles et apprendre grâce aux données récoltées.
2020 : La démocratisation de l'IA: La démocratisation de l'intelligence artificielle depuis les années 2020, c'est comme avoir permis à toute la population connectée à Internet un accès à ce qui était depuis toujours dans les mains de grandes entreprises et de scientifiques. Avant l'arrivée de ChatGPT, de nombreux outils avaient vu le jour avec une intelligence artificielle souvent limitée à des crédits et dont les résultats étaient toujours en cours de développement. Néanmoins, il était possible d'avoir accès à des IA en payant des abonnements ou des crédits, pour générer des contenus ou pour retoucher des photos sur les smartphones notamment. En juin 2020, OpenAI a lancé GPT-3, un modèle de traitement du langage naturel, qui a démontré des capacités impressionnantes en matière de génération de texte, de traduction, de réponse aux questions. C'est en 2022 que ChatGPT révolutionne le milieu et rend l'IA accessible à tous, gratuite, avec une API ouverte pour permettre à tous les professionnels d'utiliser cette technologie.
tags: #naissance #de #l'intelligence #artificielle