17 octobre 2025
Intelligence artificielle, réalité augmentée, réalité virtuelle… des mots qui paraissaient il y a encore peu de temps dans le domaine de la fiction, sont devenues des mots communs, grâce notamment à Chat GPT, même si l’IA existe depuis bien plus longtemps. Chacun dans leur espace, ils sont pour certains le devenir de la médecine, et pour d’autres le début des ennuis…

Pascal Wolff – Le Cardiologue n° 461 – juin-juillet 461

Comme chacun le sait aujourd’hui, l’intelligence artificielle (IA) désigne des systèmes informatiques capables d’imiter des comportements humains (perception, raisonnement, apprentissage, compréhension) qui permettent aux machines d’analyser un nombre impressionnant de données en prenant des décisions d’une rapidité et d’une précision exceptionnelles. L’IA repose sur des composants clés comme les algorithmes avancés, les bases de données et les systèmes informatiques, en utilisant des sous-domaines tels que le machine learning, le deep learning, la vision par ordinateur, et le traitement du langage naturel.

L’IA est aujourd’hui omniprésente dans notre quotidien, que ce soit à travers les assistants vocaux, la reconnaissance faciale, la médecine, la sécurité, ou encore la création artistique, et continuera à l’avenir de transformer profondément notre société et notre économie.

L’intelligence artificielle se divise en deux types spécifiques :

  • Une IA faible (ou spécialisée), conçue pour exécuter des tâches spécifiques.
  • Une IA forte (ou IA générale) tend à simuler l’intelligence humaine dans tous les domaines.

L’IA faible est conçue pour accomplir une tâche précise et limitée, comme la reconnaissance vocale, la traduction de langues ou la conduite autonome. Elle fonctionne à partir d’algorithmes préprogrammés ou en se basant sur la machine learning, pour exécuter efficacement des fonctions spécifiques, sans compréhension ou conscience au-delà de sa programmation. Elle ne peut pas s’adapter à des domaines ou des tâches différentes de celles pour lesquelles elle a été conçue.

L’IA forte, encore hypothétique dans certains sujets (mais pour combien de temps ?) et en cours de développement, reproduit l’intelligence humaine dans sa globalité en apprenant de son propre fait, en raisonnant, en comprenant le monde et en transférant ses connaissances dans tous les contextes demandés. Elle peut résoudre des problèmes variés, s’adapter à de nouvelles situations et posséder une forme de métacognition ou conscience artificielle.

L’EXPERTISE HUMAINE VERSUS INTELLIGENCE ARTIFICIELLE, LA DIFFICILE ÉQUATION DE L’ÉQUILIBRE

Pensée en 1950, Alan Turing, mathématicien et cryptologue britannique, a publié un article mémorable sur la possibilité de créer des machines dotées d’une véritable intelligence. Le test de Turing a été la première hypothèse sérieuse dans le domaine de la philosophie de l’intelligence artificielle.

Elle joue aujourd’hui un rôle clé dans de nombreux domaines stratégiques tels que la géopolitique, les finances, le changement climatique et bien sûr la santé, qui vont profondément changer nos comportements et notre vision de l’humain. Il est donc crucial de prendre du recul afin d’avoir une compréhension sur toutes les données concrètes de l’IA afin de comprendre où nous en sommes et ce vers quoi nous allons, car l’essentiel est là : comprendre notre avenir.

Dans le domaine de la santé, le Comité consultatif national d’éthique (CCNE) (1) s’était penché sur l’IA en reconnaissant que « le recours à l’intelligence artificielle peut être bénéfique au niveau du diagnostic » tout en observant que « la machine est capable d’opérations de calcul extrêmement plus complexes que l’être humain et sa mémoire est quasiment infinie ». Elle peut travailler sans relâche et produire un diagnostic « plus rapide et plus précis » dans une variété de champs d’application très large.

L’intelligence artificielle, qui peut « accumuler un nombre de schémas d’interprétation médicale sans commune mesure avec les capacités d’un médecin », soulève des questions autour de la responsabilité : « Faut-il et, si oui, comment, rendre indispensable et responsable l’expertise humaine ? », et cela même si l’IA prend une place de plus en plus importante dans la décision finale ? En d’autres termes, où trouver l’équilibre machine/homme ?

Selon Laurent Alexandre, médecin et spécialiste de l’intelligence artificielle : « On est face à une révolution technologique qui est complètement sous-estimée par les Français. Chat GPT gagne un point de quotient intellectuel chaque semaine. Chat GPT O3 fait quatre fois mieux les diagnostics médicaux que les médecins spécialistes hospitalier ». Le spécialiste de l’intelligence artificielle recommande de « complètement réorganiser le système de santé et les études de médecine vu la vitesse à laquelle galope l’intelligence artificielle ». L’avenir est juste à notre porte. A nous donc d’anticiper l’IA.

L’IA EN CHIFFRES

En 2019, on estimait le marché de l’IA à 90 milliards de dollars pour 2025. Il est aujourd’hui estimé à 244 milliards de dollars. L’accroissement est donc terriblement exponentiel avec une perspective de 1000 milliards de dollars en 2031.
Cette technologie s’est fortement imposée dans tous les domaines, et nous l’utilisons sans s’en rendre compte :

  • 66 % des personnes l’utilise régulièrement.
  • 78 % des organisations utilisent l’IA.
  • 90 % des hôpitaux s’en servent pour le diagnostic.
  • 92 % des étudiants ont recours à l’IA générative.
  • 51 % du marketing ont été séduit par cette technologie.

Mais l’IA continue également sa folle avancée dans la consommation du grand public où seule 60 % de la population mondiale vit sous une législation encadrant l’IA.

LES RISQUES DE L’IA

Si l’IA offre des bénéfices potentiels indéniables, les risques qui y sont liés sont nombreux et préoccupants, tant sur le plan social, éthique que sécuritaire tels, la désinformation, les deepfakes malveillants, les vidéos avec des visages modifiés… La confiance n’est pas à sous-estimer devant un septicisme ambiant qui va de pair avec les attaques sur le net.

La régulation des gouvernements, la transparence et l’éthique sont essentielles pour limiter ces dangers.

  • Les préjugés humains : En s’appuyant sur ses recherches dans les bases de données (favorables à ces sujets), l’IA renforcera probablement le racisme, le sexisme ou d’autres sujets à risque en ciblant par exemple certains groupes ethniques ou de genre.
  • Cybercriminalité : L’IA facilite la création de contenus falsifiés comme les deepfakes, qui peuvent être utilisés pour nuire, diffuser de fausses informations, de fausses vidéos ou des manipulations sur l’opinion publique.
  • Impact environnemental (voir ci-dessous) : La consommation énergétique des data centers liés à l’IA est considérable, contribuant à la pollution et à l’épuisement des ressources naturelles, notamment dans les pays du Sud.
  • Surveillance invasive et dérive autoritaire : L’IA permet une surveillance de masse, souvent discriminatoire, avec un renforcement de la répression, comme c’est le cas avec la reconnaissance faciale ou les systèmes de contrôle aux frontières, mettant en suspens la vie privée et les libertés fondamentales, notamment dans les pays à régimes dictatoriaux où l’intelligence artificielle peut être une aide considérable pour ces pouvoirs. Elle pourrait également compromettre les démocraties.
  • Armes autonomes : La possibilité que des systèmes d’armes, comme les drones ou robots-tueurs, prennent des décisions de tuer sans contrôle humain représente une menace existentielle, avec des risques d’escalade de conflits.
  • Perte de contrôle de la technologie : La course à la création d’une IA généralisée ou superintelligence pourrait échapper à tout contrôle humain dans le futur, avec des conséquences imprévisibles pouvant mettre en danger l’humanité tout entière.
  • Contrefaçon : fabriquer de faux contenus, comme des œuvres d’art en activant le style d’un peintre reconnu d’après une photo par exemple, ou en musique avec un générateur IA (paroles comprises), pouvant être vendus sous une fausse paternité.

L’EMPREINTE ENVIRONNEMENTALE

L’intelligence artificielle requiert des quantités considérables d’énergie avec les data centers, les algorithmes complexes et la consommation d’énergie nécessaire pour le fonctionnement de cette technologie.

Et ce n’est pas prêt de s’arrêter avec la montée en puissance des modèles de type GPT-4, Perplexity ou encore Google Gemini. Les LLMs (Large Language Models) nécessitent des infrastructures de fonctionnement 24h/24 et 7j/7, une consommation énergétique qui pose des questions fondamentales sur la durabilité de ces technologies dans un monde confronté à une crise majeure du réchauffement climatique, notamment parce que cette énergie provient de sources non renouvelables. On estime qu’il faudrait 4 à 6 fois la consommation annuelle du Danemark en eau, juste pour refroidir les centres de donnés de l’IA d’ici à 2027.

Actuellement, les technologies de l’IA échappent encore à des réglementations écologiques strictes. Cela s’explique en partie par la nouveauté de ces technologies, mais également par la difficulté à mesurer précisément l’empreinte énergétique de chaque modèle d’IA.

LES EMPLOIS DANS LE FUTUR

L’automatisation des postes dans les emplois qualifiés va être profondément modifiée dans le futur où l’on estime à 50 % les remplacement des personnes par l’IA. Ce déclin concerne tous les domaines, et notamment les administrations, les analystes, le travail de caisse, les livraisons, les tâches répétitives dans les domaines de fabrication, le diagnostic médical, la traduction, le marketing, l’édition…

Quant à la santé, « Dans une décennie, l’intelligence artificielle sera capable de fournir de très bons conseils médicaux et les humains ne seront plus nécessaires la plupart du temps. » Ces propos de Bill Gates résonnent comme un coup de tonnerre pour l’avenir de la médecine telle qu’elle existe aujourd’hui. Les essais réalisés par Google Health (2) ont obtenu des performances comparables, voire supérieures, à celles des médecins généralistes dans des contextes spécifiques, soulèvent de véritables questions pour le futur.

Et l’on revient ainsi, pour certains chercheurs, que le remplacement des médecins par l’IA faisait courir le risque de retrouver la pensée d’Alan Turing (voir plus haut) qui suggérait en 1950 que si une machine pouvait fournir une réponse qui la rendait indiscernable d’un humain, alors elle serait qualifiée d’intelligente.

Même si l’IA n’est pas infaillible et n’est pas aujourd’hui irremplaçable, il faut se poser les bonnes questions et réfléchir au devenir de l’être humain face à ses questionnements et ses qualités devant des machines qui seront devant nous si nous n’écoutons pas : réagir face aux profits des grandes entreprises, aux Etats qui veulent profiter de ce pouvoir numérique, à la cybercriminalité et à l’environnement qui risque de finaliser ce que nous avons commencé de détruire.

(1) Numerama
(2) Medscape

© Kurhan – Fotolia

Vérifiez vos adresses mails !

Il n’y a pas que votre ordinateur qui peut être piraté. Vos adresses mails on pu être subtilisées dans d’autres bases de données (Santé, Gafam, réseaux sociaux…). Pour le savoir et éviter une usurpation de votre identité, de l’hameçonnage ou autre méfait, vérifiez auprès du site  haveibeenpwned s’il y a eu violation de vos adresses. Si tel est le cas, le site vous indique sur quels sites vos données ont été volées… et changez vos mots de passe.

la CNIL et vos données

Le médecin libéral doit donc protéger ses données personnelles et médicales. Pour ce faire, il doit passer par des protocoles précis : hébergement certifié données de Santé avec demande préalable auprès de la Commission Nationale de l’Informatique et des Libertés (CNIL). 

 

La CNIL a récemment sanctionné deux médecins libéraux pour ne pas avoir suffisamment protégé les données de leurs patients, des milliers d’images médicales hébergées sur des serveurs étaient en accès libre. Toutes ces données pouvaient donc être consultées et téléchargées, et étaient, selon les délibérations de la CNIL, « suivies notamment des nom, prénoms, date de naissance et date de consultation des patients ». Le problème venait simplement d’un mauvais paramétrage de leur box internet et du logiciel d’imagerie qui laissait en libre accès les images non chiffrées.

A lire également

Les préoccupations liées à l’intelligence artificielle

Les 50 ans d’internet

Les virus

De l’impression 3D à la bio-impression

Retour vers le futur – les prédictions médicale dans les années 1950

image_pdfimage_print