19 avril 2024

L’Intelligence Artificielle (IA) fait aujourd’hui l’objet de bien des fantasmes, futur inquiétant pour certains, fascinant pour d’autres, cette discipline encore jeune est loin d’égaler l’intelligence humaine et sa complexité dans son ensemble, mais se montre particulièrement efficace pour des réalisations spécifiques. Son impact sur le monde de demain sera considérable et indispensable dans quasiment tous les domaines.

La Santé est l’un des secteurs où les investissements sont les plus conséquents, à voir avec l’intérêt porté par les Gafam et Batx. (1)

Pascal Wolff – Le Cardiologue n° 433 – Juin 2020

La naissance de l’intelligence artificielle

 

C’est à partir des années 1940 et 1950 qu’une poignée de scientifiques d’une large gamme de domaines (mathématiques, psychologie, ingénierie, économie et sciences politiques) ont commencé à discuter de la possibilité de créer un cerveau artificiel. 

Et c’est durant l’été 1956 que l’intelligence artificielle « moderne » a réellement pris son envol suite à une conférence qui s’était tenue sur le campus de Dartmouth College (Hanover – New Hampshire – Etats-Unis). Ce congrès – auquel six chercheurs se sont succédés devant un auditoire de… vingt personnes qui assistèrent à l’intégralité des débats – a marqué la naissance de cette « science nouvelle », fondée en tant que discipline académique.

Ces vingt participants représentaient des domaines en pleine ébullition qui n’avaient aucune structure ni lien : la cybernétique (2), le traitement complexe de l’information, les réseaux neuronaux formels (3), la théorie des automates, les modèles de prise de décision…

 

Le moment fondateur de l’IA

 

À la suite de cette réunion, certains participants ont pronostiqué qu’une machine aussi intelligente qu’un être humain existerait en moins d’une génération, donnant des ailes aux investisseurs. Des millions de dollars ont ainsi été investis pour réifier cette prédiction.

Cette conférence est largement considérée, dans le monde occidental, comme le moment fondateur de l’intelligence artificielle en tant que discipline théorique indépendante (de l’informatique).

Suite à cet engouement et dans les années qui ont suivi, l’optimisme et les prévisions allèrent bon train : « d’ici dix ans un ordinateur sera le champion du monde des échecs [1958] » ; «  des machines seront capables, d’ici vingt ans, de faire tout le travail que l’homme peut faire [1965] » ; « Dans trois à huit ans, nous aurons une machine avec l’intelligence générale d’un être humain ordinaire [1970] »…

Mais cet engouement a été, durant ces années, confronté à des problèmes majeurs tels les puissances de calcul mathématique, les capacités des programmes et mémorielles des machines plutôt limités dans ces années post-2000.

 

Deep Blue

 

Mais ces piètres performances des années 1970 n’ont malgré tout pas altéré les efforts et l’engouement des chercheurs. On se souvient de Deep Blue, le « superordinateur » de 1,4 tonne développé par IBM au début des années 1990. Spécialisé dans le jeu d’échecs, ce calculateur a réussi par battre le champion du monde en titre, Garry Kasparov en 1997.

Cette approche de l’intelligence artificielle est intéressante car elle commence à comparer l’homme et la machine. Deep Blue énumère et analyse systématiquement des millions de coups possibles en passant en revue les positions qu’on lui a mises en mémoire et en éliminant celles jugées mauvaises.

A l’opposé, l’homme sait d’abord « sentir », « voir » les coups, avant de les calculer et c’est justement ici que la différence est profonde entre le jeu de l’homme et celui de la machine.

Les concepteurs de Deep Blue ont dopé la machine d’un logiciel d’ajustement qui lui aurait permis par la suite de corriger ses erreurs.

Cette évolution, « minime » soit-elle avant l’an 2000, est en quelque sorte le symbole de la porte d’entrée de l’intelligence artifcielle du XXIe siècle.

Si dans les années 1950, l’IA avait pour objectif  de reproduire les tâches primaires de l’homme, elle a réussi par la suite à se structurer avec une technologie logicielle qui peut aujourd’hui prendre des décisions grâce aux algorithmes, aux méthodes d’apprentissage et aux méthodes scientifiques que sont le machine learning, le deep learning et le data science (voir encadré ci-contre). Ainsi a pu se développer l’IA telle qu’on la connaît aujourd’hui de par l’adaptation de son mécanisme de diagnostic et de pronostic.

C’est grâce à l’apprentissage machine et, plus particulièrement, l’apprentissage profond que l’intelligence artificielle connaît depuis 2010 un intérêt sans précédent.

 

Les préoccupations liées à l’Intelligence artificielle

 

Mais cet intérêt exponentiel a également ses contradicteurs, ses détracteurs et ses lanceurs d’alerte. Si personne ne réfute les progrès apportés par l’intelligence artificielle, les risques que pourraient encourir les humains sont bien réels, et particulièrement dans les trois domaines cibles que sont :

le monde du numérique où les chercheurs évoquent des phishings très élaborés et parfaitement ciblés ;

le monde physique, l’étude met en avant le cas d’un robot ménager détourné de ses fonctions ;

Le monde politique où les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l’intelligence artificielle.

 

Les interventions de personnalités publiques

 

Plusieurs personnalités, parmi lesquelles Bill Gates (fondateur de Microsoft), Stephen Hawking (astrophysicien théoricien et cosmologiste britannique décédé en 2018), Elon Musk (Pdg de Tesla), avaient exprimé leurs préoccupations par rapport aux progrès de l’intelligence artificielle, qu’ils jugent potentiellement dangereuse. (2015)

« Il ne faut pas être naïf face aux risques qu’encourent les humains face à la puissance de l’intelligence artificielle. Les machines vont finir par considérer les humains comme des êtres “lents et stupides” », avait avancé Elon Musk.

Avec son célèbre « On a eu les armes atomiques et l’énergie nucléaire, et jusqu’ici tout va bien », Bill Gates accentue le risque que « l’intelligence artificielle nous échappe des mains en nous menant tout simplement à l’extinction de l’espèce humaine, si l’on ne la manipule pas avec extrême précaution. »

« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité », avait affirmé Stephen Hawking lors d’un entretien à la BBC en 2014. 

 

(1) A l’opposé américain des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) se situe le chinois BATX (Baidu, Alibaba, Tencent et Xiaomi).

(2) Cybernétique : étude des « communications et de leurs régulations dans les systèmes naturels et artificiels ».

(3) Réseaux neuronaux formels : machines cherchant à imiter le fonctionnement du cerveau.

L’IA et ses technologies

L’Intelligence Artificielle, technologie principalement logicielle,  peut prendre des jugements et des décisions – dans une certaine mesure – similaires aux  humains grâce à ses différentes composantes.

 

Le machine learning (apprentissage automatique) est un sous-domaine de l’IA. Le principe est un système capable d’apprendre, à partir d’exemples, à résoudre un problème (contrairement à la programmation qui ne fait qu’exécuter). En d’autres termes, il est auto-apprenant en créant des algorithmes à partir de ses données et porter ainsi des jugements et prendre ses propres décisions. C’est grâce à cette technologie que l’IA étend ses capacités et accroit ses performances.

 

Le deep learning (apprentissage en profondeur) est un sous-domaine du machine learning. Il s’appuie sur un réseau de dizaines voire de centaines de « couches » de neurones artificiels s’inspirant du cerveau humain. 

Chaque couche reçoit et interprète les informations de la couche précédente. Plus on augmente le nombre de couches, plus les réseaux de neurones apprennent des choses compliquées, abstraites. Mais à l’heure actuelle, la mise au point de ces mécanismes d’apprentissage pour être efficace pour chacune des couches intermédiaires est extrêmement complexe. Selon certains  scientifiques, le deep learning va se généraliser dans la prochaine décennie dans toute l’électronique de décision, comme les voitures (autonomes) ou les avions.

 

La data science (science des données) est une méthode de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles.

A lire également

Les 50 ans d’internet – 4e partie

Les mastodontes du net

Les virus

Tachicardie paroxystique et Applewatch 4.4

De l’impression 3D à la bio-impression

Retour vers le futur – les prédictions médicale dans les années 1950

image_pdfimage_print