27 octobre 2020

Nous avons vu dans notre précédent numéro la naissance dans les années 1950 de l’intelligence artificielle et les préoccupations dues à cette nouvelle technologie qui fascine autant qu’elle effraie. Cette vision du futur se retrouve dans tous les secteurs d’activités technologiques, et particulièrement dans la Santé qui est considéré comme un secteur stratégique (rapport Villani) pour le développement de l’intelligence artificielle. (4)

Pascal Wolff – Le Cardiologue n° 434 – Septembre 2020

Les préoccupations liées à l’Intelligence artificielle

L’intérêt exponentiel de l’IA a également ses contradicteurs, ses détracteurs et ses lanceurs d’alerte. Si personne ne réfute les progrès apportés par l’intelligence artificielle, les risques que pourraient encourir les humains sont bien réels, et particulièrement dans les trois domaines cibles que sont :

• le monde du numérique où les chercheurs évoquent des phishings très élaborés et parfaitement ciblés ;

• le monde physique, l’étude met en avant le cas d’un robot ménager détourné de ses fonctions ;

• le monde politique où les « fakes news » et autres bots sur les réseaux sociaux pourraient prendre une tout autre ampleur avec l’intelligence artificielle.

 

Les interventions de personnalités publiques

Plusieurs personnalités, parmi lesquelles Bill Gates (fondateur de Microsoft), Stephen Hawking (astrophysicien théoricien et cosmologiste britannique décédé en 2018), Elon Musk (Pdg de Tesla), avaient exprimé leurs préoccupations par rapport aux progrès de l’intelligence artificielle, qu’ils jugent potentiellement dangereuse. (2015)

« Il ne faut pas être naïf face aux risques qu’encourent les humains face à la puissance de l’intelligence artificielle. Les machines vont finir par considérer les humains comme des êtres “lents et stupides” », avait avancé Elon Musk.

Avec son célèbre « On a eu les armes atomiques et l’énergie nucléaire, et jusqu’ici tout va bien », Bill Gates accentue le risque que « l’intelligence artificielle nous échappe des mains en nous menant tout simplement à l’extinction de l’espèce humaine, si l’on ne la manipule pas avec extrême précaution. »

« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité », avait affirmé Stephen Hawking lors d’un entretien à la BBC en 2014. 

Dans notre précédent numéro, nous avions vu que plusieurs personnalités de renom avaient exprimé leurs préoccupations sur l’intelligence artificielle qu’ils jugaient potentiellement dangereuse, tant dans la recherche et le développement que le contrôle des machines. On se souvient de ce 11 mai 1997 lorsque Garry Kasparov s’était incliné aux échecs face à Deep Blue. Le supercalculateur avait réalisé un coup surprenant vers la fin de la première partie en sacrifiant l’un de ses pions alors qu’il s’était limité jusque là à répondre au coup par coup. Cette manœuvre imprévisible a supris et déstabilisé Kasparov qui s’attendait à une stratégie de la part de Deep Blue. Le joueur ne s’en était pas remis et avait fini par perdre la partie. Cette épisode était dû, selon Murray Campbell, l’un des trois principaux concepteurs de la machine, à un bug qui avait créé de façon totalement aléatoire le déplacement d’un pion (voir notre numéro précédent).

Face à ces préoccupations technologiques légitimes, Stuart Russell (5), connu pour sa contribution sur l’intelligence artificielle, considère qu’il est nécessaire de développer des machines « compatibles avec l’humain » (human compatible). Il en a énuméré trois principes afin de guider le développement d’une IA bénéfique en soulignant qu’ils ne sont pas censés être explicitement codés dans les machines, mais plutôt destinés aux [humains] développeurs :

1. L’unique objectif de la machine est de maximiser la réalisation des préférences humaines.

2. La machine ne sait pas au départ quelles sont ses préférences.

3. La source ultime d’informations sur les préférences humaines est le comportement humain. 

Il faudrait donc apprivoiser l’IA par rapport aux besoins de l’être humain et non de rendre une machine complètement autonome sans accéder dans le futur à ses ressources propres.

Les chercheurs ont donc consacré du temps à rendre les algorithmes plus transparents et explicables, d’où la naissance de la XAI (eXplainable Artificial Intelligence) pour « intelligence artificielle explicable ». Ceci est d’autant plus important que les logiciels d’intelligence artificielle vont se servir et apprendre des données qu’on va leur soumettre (machine learning). Par contre, si celles-ci sont biaisées, ces logiciels reproduiront les biais dans leurs prédictions. Autant dire que l’avenir de l’intelligence artificielle passera d’abord par celle de l’être humain.

 

La stratégie européenne…

C’est d’ailleurs dans ce but que la  Commission européenne a présenté sa stratégie sur l’intelligence artificielle en février dernier avec la sortie de son Livre Blanc : « Intelligence artificielle : une approche européenne axée sur l’excellence et la confiance » (6). Elle entend réguler fermement ce champ technologique innovant afin d’éviter tout abus, investir pour aider les entreprises européennes et présenter une IA de confiance centrée sur l’Homme.

 

… et le rappport Villani

En France, le rapport Villani commandé par Edouard Philippe en 2018 retenait la Santé comme étant l’un des principaux « secteurs stratégiques » pour le développement de l’intelligence artificielle.

Ce rapport recommandait que la France et l’Europe, face aux géants chinois et américains, « concentrent leurs efforts sur des secteurs spécifiques où il est encore possible de faire émerger des acteurs d’excellence », appuyant cette stratégie par 10 messages clés (voir encadré ci-contre en haut de page).

La rapidité d’évolution et la démocratisation des usages liés à l’IA en santé « exigent des pouvoirs publics une adaptation rapide sous peine d’assister impuissant à la reformulation complète des enjeux de santé publique et de pratiques médicales ». Pour autant, assure cette mission, « il n’est pas question de remplacer les médecins par la machine », mais d’ « organiser des interactions vertueuses entre l’expertise humaine et les apports de l’IA ». On rejoint ici les inquiétudes réelles sur la potentialité du contrôle des machines sur l’être humain.

 

Le rôle de la formation

Le rapport insiste également sur le fait que les professionnels de santé vont jouer dans la prochaine décennie « un rôle fondamental dans l’expérimentation et l’entraînement des IA à des fins médicales dans des conditions réelles » en proposant de « transformer les voies d’accès aux études de médecine » tout en intégrant « davantage d’étudiants spécialisés dans le domaine de l’informatique et de l’IA ». Les professionnels de santé devront être formés aux usages de l’IA, des objets connectés et du big data en Santé. 

 

L’Avancement du rapport Villani aujoud’hui

Un coordinateur interministériel de l’IA, Renaud Vedel, a été désigné en mars dernier.

Elément clé de la stratégie Villani, le gouvernement a labellisé quatre instituts interdisciplinaires d’intelligence artificielle (dénommés 3IA) [7] :

– l’institut 3IA grenoblois (MIAI Grenoble-Alpes) fera le pont entre hardware et algorithmes d’IA ;

– l’institut 3IA parisien (Prairie) se lancera sur le tryptique santé-transport-environnement ;

– l’institut niçois 3IA Côte d’Azur travaillera sur la santé, la biologie numérique et les territoires intelligents en s’inspirant du vivant ;

– l’institut 3IA Aniti (« Artificial and Natural Intelligence Toulouse Institute ») aura pour objectif d’apporter des garanties quant aux décisions prises par les algorithmes afin d’éviter les dérives. On retrouve ici une partie de la stratégie de la Commission européenne et de son Livre Blanc. 

Le supercalculateur demandé par Cédric Villani a été inauguré en janvier dernier au CNRS. Dénommé Jean Zay (8), cette machine peut développer 16 millions de milliards de calculs à la seconde (16 pétaflops), soit l’équivalent de quelque 35 000 ordinateurs personnels réunis. Ce supercalculateur, mis gratuitement à la disposition des scientifiques, permet d’aborder tout le spectre de l’intelligence artificielle, du Big Data au deep learning. Sa puissance de calcul devrait atteindre les 30 pétaflops d’ici fin 2020.

Deux grands défis avaient été choisis par le Conseil de l’innovation et financés à hauteur de 150 M d’euros par an par le Fonds pour l’innovation et l’industrie (FII). Deux directeurs ont été nommés et les projets lancés. (9)

– Une feuille de route a été validée pour le premier (« Comment améliorer les diagnostics médicaux par l’intelligence artificielle ? ») en s’articulant autour de 3 axes : le développement technologique, le soutien à l’expérimentation et la mise en œuvre d’outils numériques structurants pour les professionnels de santé.

– Le deuxième grand défi (« Comment sécuriser, certifier et fiabiliser les systèmes qui ont recours à l’intelligence artificielle ? »), quant à lui,  vise à assurer la transparence et l’auditabilité des systèmes autonomes à base d’intelligence artificielle, d’une part en développant les capacités nécessaires pour observer, comprendre et auditer leur fonctionnement et, d’autre part, en développant des approches démontrant le caractère explicable de leur fonctionnement.

 

(4) Le rapport Villani peut-être visualisé et téléchargé sur notre site rubrique Technologie.

(5) professeur d’informatique et professeur-adjoint de chirurgie neurologique – Université de Californie – San Francisco.

(6) Le Livre Blanc peut-être visualisé et téléchargé sur notre site rubrique Technologie.

(7) Industrie-techno.com.

(8) L’un des pères fondateurs du CNRS.

(9) Secrétariat Général Pour l’Investissement (SGPI).

Les 10 messages-clés pour la santé du rapport Villani

1. Favoriser l’émergence d’un écosystème européen de la donnée.

2. Créer un réseau de recherche d’excellence en IA.

3. Concentrer l’effort économique et industriel sur 4 domaines prioritaires : santé, transports, écologie, défense/sécurité.

4. Structurer le soutien à l’innovation sur de grands défis à expérimenter.

5. Créer un Lab public (*) de la transformation du travail.

6. Expérimenter un dialogue social au niveau de la chaîne de valeur pour financer la formation professionnelle.

7. Tripler le nombre de personnes formées à l’IA d’ici 2020.

8. Se donner les moyens de transformer les services publics grâce à l’IA.

9. Intégrer les considérations éthiques à tous les niveaux, de la conception des solutions d’IA jusqu’à leur impact dans la société.

10. Porter une politique audacieuse de féminisation du secteur de l’IA.

(*) Le Lab est une structure qui aurait un rôle de « tête chercheuse » à l’intérieur des politiques publiques de l’emploi et de la formation professionnelle.

A lire également

Les 50 ans d’internet – 4e partie

Les mastodontes du net

Les virus

Tachicardie paroxystique et Applewatch 4.4

De l’impression 3D à la bio-impression

Retour vers le futur – les prédictions médicale dans les années 1950

image_pdfimage_print