8 décembre 2024

« Nous avons perdu notre sens de l’optimisme à propos de l’avenir – parfois pour de bonnes raisons. Mais je crois que c’est notre devoir à tous de le raviver (…) et le seul moyen que je connaisse pour le retrouver, c’est d’utiliser la technologie pour créer l’abondance. »… Sam Altman. (1)

Pascal Wolff – Le Cardiologue n° 457 – mars-avril 2024

Sam Altman, reconnu pour son « techno-optimisme », est en tournée mondiale six mois après la sortie de ChatGPT lorsqu’il s’exprime sur le futur de l’intelligence artificielle. « Nous pouvons bâtir une intelligence artificielle générale. Nous pouvons coloniser l’espace. Nous pouvons faire marcher la fusion nucléaire et massifier l’énergie solaire. Nous pouvons guérir toutes les maladies. Nous pouvons construire de nouvelles réalités », avait-il encore précisé quelque temps avant le lancement de DALL-E (2).

Ces propos illustrent également la position des géants du numérique de Google à Elon Musk qui estime que le monde numérique, grâce à l’intelligence artificielle, restructurera la condition humaine, où travailler ne sera plus « nécessaire ».

« Les progrès technologiques que nous ferons dans les cent prochaines années dépasseront largement tout ce que nous avons fait depuis que nous avons maîtrisé le feu et inventé la roue », y prédisait le dirigeant d’OpenAI, concédant un « semblant utopique ».

Tout est donc clair et la course est lancée. L’IA est devenu un atout stratégique de tout premier ordre, autant dans son développement que dans ses effets pervers.

 

LES RISQUES LIÉS À L’IA

 

L’Union européenne a récemment lancé son premier cadre juridique en adoptant un règlement sur les risques liés à l’IA. Ceux-ci sont définis sur quatre niveaux :

 

1. Risque inacceptable

Cette catégorie interdit les systèmes qui représentent une menace évidente pour la sécurité ou les droits de l’Homme.

 

2. Risque élevé

Sont considérées comme élevées les infrastructures critiques qui constituent une menace pour la sécurité humaine ou les droits fondamentaux (transports, éducation, composants de sécurité des produits, l’emploi, la gestion des travailleurs et l’accès au travail indépendant, les services publics et privés essentiels, les services répressifs susceptibles d’interférer avec les droits fondamentaux des personnes, la gestion de la migration, de l’asile et du contrôle aux frontières, l’administration de la justice et processus démocratiques.

 

3. Risque limité

La loi doit garantir que toute personne doit être informée lors de l’utilisation de chatbots (programme informatique simulant ou traitant une conversation humaine écrite ou parlée telle que ChatGPT) et que les contenus sont générés artificiellement. Les contenus audio et vidéo, qui peuvent se caractériser par des contrefaçons importantes, font partie de cet encadrement.

 

4. Risque minimal ou nul

Le risque minimal ou nul inclut des applications telles que les jeux vidéo compatibles avec l’IA ou les filtres antispam. La grande majorité des systèmes actuellement utilisés dans l’Union européenne relèvent de cette catégorie.

 

L’UTILISATION DES ALGORITHMES

 

Les algorithmes suivent les instructions d’un programme pour effectuer des tâches spécifiques, comme par exemple le contenu des réseaux sociaux qui sont gérés par l’interaction des utilisateurs avec d’autres contenus tels les likes, les commentaires et les partages. Ils façonnent ainsi notre réalité de manière omniprésente, de la recommandation de contenu en ligne à la prise de décisions critiques dans tous les domaines et particulièrement ceux de la finance, de la santé et de la justice. Ils peuvent avoir de nombreux effets pervers et dangereux : les malwares avec une incroyable capacité d’adaptation, le pishing (comme cet exercice pour les Jeux olympiques où 500 gendarmes se sont fait piéger par un faux mail venu de leur hiérarchie), un robot détourné de sa fonction première pour identifier et détruire une cible, un système prédictif de perturbation civile et autres fake news

 

La désinformation

L’un des dangers les plus préoccupants de l’utilisation des algorithmes est la désinformation. Les plateformes de médias sociaux et les moteurs de recherche utilisent des algorithmes pour personnaliser le contenu présenté à chaque utilisateur, créant ainsi des bulles de filtres et des chambres d’écho qui est « l’endroit » où les gens ne voient que des informations tournées vers leurs croyances et leurs opinions.

 

La systématisation des discriminations

Les algorithmes peuvent aggraver les discriminations présents dans la société lorsqu’ils sont formés sur des données historiques qui reflètent des préjugés humains. Ils peuvent ainsi perpétuer – voire amplifier – ces biais. Par exemple, les systèmes de recrutement basés sur des algorithmes ont été accusés de favoriser certains groupes démographiques au détriment d’autres, renforçant ainsi les inégalités sur le marché du travail.

 

La cybercriminalité

La sophistication des algorithmes a donné lieu à de nouvelles formes de cybercriminalité. 

Des attaques de phishing ciblées en exploitant les algorithmes pour maximiser leur efficacité donneront dans le futur des perturbations majeures dans les données informatiques, comme cette cyberattaque menée contre France Travail (anciennement Pôle Emploi) sur les 43 millions d’inscrits.

 

Pertes massives d’emplois

L’automatisation alimentée par des algorithmes a le potentiel de perturber de manière significative le marché du travail, entraînant des pertes massives d’emplois dans de nombreux secteurs. 

Comme l’a souligné  Sam Altman (1), les progrès rapides de l’intelligence artificielle et de la robotique signifient que de plus en plus de tâches effectuées autrefois par des travailleurs humains peuvent désormais être accomplies par des machines. 

Si ces tendances se poursuivent sans régulation adéquate, cela pourrait entraîner un chômage structurel généralisé et des inégalités économiques croissantes.

 

ET LES DICTATURES DANS TOUT CELA ?

 

Les dictatures ont un fort potentiel à exploiter l’intelligence artificielle pour consolider leur pouvoir à l’intérieur de leurs frontières et leur influence à l’étranger. Ces préoccupations majeures en matière de droits de l’homme, de liberté d’expression et de démocratie soulignent la nécessité d’une réglementation stricte et de vigilance internationale pour encadrer l’utilisation de l’IA dans le monde entier.

 

Surveillance de la population 

Pour détecter rapidement toute opposition ou dissidence et de réprimer efficacement toute forme de contestation, les dictatures utiliseront l’intelligence artificielle sur leur population en collectant et en analysant toutes les données provenant des réseaux sociaux, des caméras de surveillance et des communications… 

 

Contrôle de l’information

Contrôler et manipuler l’information accessible à la population font partie des régimes autoritaires. 

Cela peut inclure la censure en ligne, la manipulation des résultats de recherche, la propagande sur l’opinion publique conformément à la narrative officielle du régime.

En utilisant des techniques de reconnaissance faciale et d’analyse de comportement bien plus efficace que celles actuellement utilisées, les dictatures pourront identifier et surveiller plus aisément les individus considérés comme des dissidents ou des opposants politiques. Cela peut conduire à des arrestations arbitraires, des détentions secrètes et d’autres formes de répression, comme cela se passe déjà aujourd’hui.

 

Utilisation de la désinformation à l’étranger

Les algorithmes d’IA pourront être utilisés pour mener des campagnes de désinformation à l’étranger, dans le but de semer la confusion, de diviser les populations étrangères et d’affaiblir les démocraties rivales. Cela peut se faire via les réseaux sociaux, les sites web et les médias étrangers contrôlés par les différents régimes.

 

Développement de technologies de surveillance pour d’autres dictatures

Certains régimes autoritaires peuvent développer, vendre ou s’allier avec ces technologies de surveillance basées sur l’IA à d’autres dictatures, contribuant ainsi à renforcer le contrôle gouvernemental et la répression dans d’autres pays.

 

EST-CE QUE L’INTELLIGENCE ARTIFICIELLE EST L’AVENIR DE L’HUMANITÉ ?

 

Il est évident que l’intégration de l’IA dans de nombreux domaines (médical, scientifique, industriel ou autres), donnera une approche beaucoup plus précise et rapide grâce à l’analyse des données en grande quantité.

L’idée de créer des systèmes capables de penser, d’apprendre et d’agir comme des êtres humains suscite une curiosité ou une fascination évidente pour certains, et pour d’autres une exploitation ou une forte dégradation humaine. L’IA représente un réel défi intellectuel, incitant les chercheurs et les passionnés à explorer les frontières de la science et de la technologie sous toutes ses formes, ses défis et ses ambiguïtés.

Mais il est tout d’abord crucial d’adopter une approche proactive et réfléchie pour garantir que l’IA soit utilisée de manière responsable et au service du bien commun. On sait que l’IA offre un potentiel considérable pour façonner l’avenir de l’humanité, mais tout dépendra de la manière dont nous aborderons les défis et les opportunités associés à son développement.

Il est également important de se méfier d’une dépendance excessive à cette technologie et de la concentration du pouvoir entre les mains de quelques acteurs qui pourrait entraîner des déséquilibres et des risques de manipulation.

Pour que l’IA puisse réellement bénéficier à l’humanité, une gouvernance responsable et une collaboration mondiale sont essentielles. Cela implique de travailler ensemble pour garantir que l’IA est développée et utilisée de manière éthique, équitable et inclusive, en tenant compte des valeurs et des besoins de diverses communautés et cultures. En serons-nous capables ?

(1) Sam ALtman : pdg d’OpenAI (ChatGPT)
(2) DALL-E : programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles.

Source : Le Monde, Les Echos, Blog du modérateur

© Popbas – fr.depositphotos

Vérifiez vos adresses mails !

Il n’y a pas que votre ordinateur qui peut être piraté. Vos adresses mails on pu être subtilisées dans d’autres bases de données (Santé, Gafam, réseaux sociaux…). Pour le savoir et éviter une usurpation de votre identité, de l’hameçonnage ou autre méfait, vérifiez auprès du site  haveibeenpwned s’il y a eu violation de vos adresses. Si tel est le cas, le site vous indique sur quels sites vos données ont été volées… et changez vos mots de passe.

la CNIL et vos données

Le médecin libéral doit donc protéger ses données personnelles et médicales. Pour ce faire, il doit passer par des protocoles précis : hébergement certifié données de Santé avec demande préalable auprès de la Commission Nationale de l’Informatique et des Libertés (CNIL). 

 

La CNIL a récemment sanctionné deux médecins libéraux pour ne pas avoir suffisamment protégé les données de leurs patients, des milliers d’images médicales hébergées sur des serveurs étaient en accès libre. Toutes ces données pouvaient donc être consultées et téléchargées, et étaient, selon les délibérations de la CNIL, « suivies notamment des nom, prénoms, date de naissance et date de consultation des patients ». Le problème venait simplement d’un mauvais paramétrage de leur box internet et du logiciel d’imagerie qui laissait en libre accès les images non chiffrées.

A lire également

Les préoccupations liées à l’intelligence artificielle

Les 50 ans d’internet

Les virus

L’ESPRIT DERRIÈRE LE DR. GUPTA

 

Si l’on ne connaissait pas le personnage Martin Shkreli, on pourrait presque croire que Dr. Gupta aurait été créé pour remplacer les visites chez le médecin et de réduire ainsi les frais médicaux. « Une grande quantité de demandes d’informations sur les soins de santé et de décisions peuvent être prises par l’IA » selon son concepteur. Mais l’empathie médicale et humaine est loin de faire partie de la personnalité de Martin Shkreli qui table pour sa part sur une véritable ruée vers l’or de l’IA. 

Si certains médecins (voir Le Cardiologue 450) se sont déjà associés à cette technologie dans leur pratique médicale, ce sont surtout les patients qui jettent leur dévolu sur ces sites « médicaux » en se passant d’un véritable avis médical (songez à la vieille dame qui pourrait penser qu’elle parle à un vrai médecin… certains se persuadant qu’une intelligence artificielle générative est humaine et c’est là tout le risque de notre comportement). Un jeune chercheur dans le domaine de la santé s’est récemment donné la mort après avoir discuté six semaines avec Eliza, son chatbot, qui était devenue sa confidente, son obsession, et qui ne se permettait jamais de le contredire mais au contraire appuyait ses plaintes et encourageait ses angoisses.

 

NEUTRALISER L’IA DANS L’AVENIR ?

 

Respect des droits d’auteur, protection des données personnelles, engagement de la responsabilité civile… L’utilisation de l’IA générative pose des questions de législation inédites. L’Union européenne s’y est penchée avec la loi sur l’intelligence artificielle (Artificial Intelligence Act) qui présente une approche pour le respect des droits fondamentaux des citoyens et les valeurs de l’UE. 

Cette loi divisera les applications en trois catégories de risques et devrait voir le jour en 2025.

La Cnil lance également un plan d’action sur l’IA générative avec des règles claires et protectrices des données personnelles des citoyens européens (trois plaintes ont été déposées auprès de la Cnil sur Chat-GPT à propos de la collecte des données et les nombreuses erreurs factuelles incluses dans ses réponses).

Au niveau européen, une task force sur Chat-GPT a été lancée afin de « favoriser la coopération et l’échange d’informations sur de possibles actions ».

La bataille ne fait que commencer !

De l’impression 3D à la bio-impression

Retour vers le futur – les prédictions médicale dans les années 1950

LES NFT, C’EST QUOI EXACTEMENT ?

Les jetons non fongibles (NFT) sont des certificats de propriété stockés sur une blockchain. Ces jetons numériques permettent de certifier l’authenticité d’un objet qui lui est associé en achetant un code (ou un certificat)

Contrairement à la monnaie telle qu’on la connaît (ou aux cryptomonnaies), chaque NFT est unique ou non fongible, c’est-à-dire qu’il ne peut être échangé contre quelque chose de valeur égale. 

Le marché de l’art est en pleine révolution grâce aux NFT. Mike Winkelmann (Beeple) a vendu une photo numérique pour plus de 69 millions de dollars chez Christie’s. Et pourtant, cette photo est consultable et téléchargeable sur internet, contrairement à un tableau « réel ». Alors, pourquoi acheter une telle œuvre de cette manière ? Et bien tout simplement parce que celle-ci a été vendue avec son NFT qui la rend unique et traçable. Ce certificat signe bien sûr l’œuvre de l’artiste et indique qui l’a vendue, qui l’a achetée et pour quelle somme et à quelle date. Cette œuvre « numérique » peut donc être cédée en enchère… et si la valeur de la cryptomonnaie qui a permis d’acquérir le certificat NFT augmente, la valeur de cette œuvre augmentera  pour le possesseur du NFT.

image_pdfimage_print