L'intelligence artificielle : ni ange... ni démon

L’intelligence artificielle : ni ange... ni démon

La révolution de l’IA est en marche. Certes, mais pour quels bénéfices ? C’est toute la question. Le Luxembourg Sustainability Forum passe cette disruption technologique massive au crible du développement durable. Quels apports ? Quels impacts sur la société et sur notre environnement ? Pour la découverte de cette technologie, suivez les guides !

Encore un grand succès pour le Luxembourg Sustainability Forum, organisé par IMS Luxembourg. Les petits plats ont été mis dans les grands au Tramsschapp, pour débattre sur un sujet d’actualité : l’intelligence artificielle. Un programme aussi intriguant que passionnant, découpé en trois moments :

  • Ni ange ni démon ? Écoutez débattre les spécialistes sur les enjeux sociétaux majeurs posés par l’IA.
  • 10 raisons d’y croire. Découvrez 10 innovations qui changent vraiment la donne.
  • IA compatibles ? Comprenez le monde du travail de demain (matin), les compétences attendues, et l’intelligence humaine en réponse.
- © IMS Luxembourg

En route pour la 1re étape...

Lors de son intervention au Luxembourg Sustainability Forum, Aurélie Jean, scientifique et entrepreneuse spécialisée dans les algorithmes, a abordé l’intelligence artificielle (IA) en expliquant qu’il faut déconstruire les idées reçues et comprendre les véritables enjeux. Son discours visait à corriger les perceptions erronées de l’IA, souvent vues sous un angle dystopique, et à montrer que l’IA peut être bénéfique si elle est bien maîtrisée.

Démystifier l’IA : les mythes à déconstruire

Aurélie Jean a commencé par rappeler que l’IA n’est pas une nouveauté. Elle préfère parler d’algorithmes, ces modèles mathématiques entraînés sur des jeux de données pour résoudre des problèmes spécifiques. « Le terme IA est souvent utilisé à tort, suscitant des peurs irrationnelles, surtout depuis l’émergence des outils d’IA générative, comme ChatGPT. »

Aurélie Jean
Aurélie Jean - © IMS Luxembourg

Elle a expliqué que la plupart des critiques actuelles de l’IA, telles que « l’IA est raciste et sexiste » ou « l’IA va remplacer tous les emplois », reposent sur des incompréhensions.


« L’IA ne possède ni émotions, ni créativité, contrairement à l’intelligence humaine. Ces outils sont conçus pour traiter des tâches analytiques, mais ne peuvent ressentir ou avoir des intentions comme les humains. »

Les véritables enjeux de l’IA

Pour Aurélie Jean, les véritables menaces de l’IA sont bien plus subtiles que les scénarios catastrophiques souvent relayés. Par exemple, la discrimination technologique est un problème important. Certains algorithmes peuvent reproduire des biais présents dans les données, créant des inégalités dans la reconnaissance faciale ou la rédaction de requêtes, en fonction du genre ou de l’origine des utilisateurs.

L’impact environnemental de l’IA est aussi une préoccupation. L’entraînement des modèles et la gestion des données consomment beaucoup d’énergie. Cependant, il existe des solutions pour minimiser cette empreinte, comme optimiser les modèles ou utiliser des techniques plus économes en ressources.

Aurélie Jean a également mis en lumière le risque de manipulation des opinions. « Si les algorithmes des réseaux sociaux peuvent influencer les opinions publiques, cela tient surtout à la manière dont ces plateformes sont conçues. » Elle a insisté sur la nécessité de comprendre comment ces algorithmes fonctionnent et de développer des modèles plus éthiques.

Elle a également abordé l’exploitation des travailleurs dans le secteur numérique, souvent chargés de collecter et d’annoter les données dans des conditions précaires. Cela doit être pris en compte dans une gouvernance responsable de l’IA.

L’IA au service du développement durable

Enfin, Aurélie Jean a souligné que l’IA peut jouer un rôle clé dans le développement durable. Par exemple, elle peut contribuer à la conception de matériaux plus écologiques ou améliorer les systèmes de gestion des données. « L’IA offre ainsi des opportunités d’innovation, à condition d’être utilisée de manière éthique et durable. »

Aurélie Jean
Aurélie Jean - © IMS Luxembourg

Elle a insisté sur l’importance d’adopter une « gouvernance algorithmique », c’est-à-dire de mettre en place des pratiques responsables et transparentes dans le développement et l’utilisation de l’IA, pour maximiser ses bénéfices tout en réduisant ses risques.


« L’IA n’est pas une menace pour l’humanité, mais un outil puissant qui doit être utilisé avec discernement. Plutôt que de céder aux discours alarmistes, il est essentiel de se concentrer sur les véritables défis, tels que la discrimination et l’impact environnemental, et de travailler à exploiter les nombreuses opportunités offertes par l’IA. »

Aurélie Jean

Une régulation plus stricte des algorithmes

Marc Faddoul, directeur d’AI Forensics et expert en « transparence algorithmique », a pris le relais d’Aurélie Jean. Il a notamment souligné l’importance de rendre les systèmes d’intelligence artificielle plus transparents et responsables. « Les algorithmes sont de plus en plus présents dans nos vies quotidiennes, influençant des décisions aussi variées que ce que nous regardons sur Netflix ou des choix plus critiques, comme les embauches ou même les bombardements militaires. Leur omniprésence, combinée à un manque de transparence, peut engendrer des risques, notamment des biais et des erreurs non détectés. »

Marc Faddoul
Marc Faddoul - © IMS Luxembourg

Marc Faddoul explique que les algorithmes actuels, basés sur le deep learning, sont souvent incompréhensibles, même pour leurs créateurs. Les entreprises invoquent parfois le « secret commercial » pour justifier cette opacité, limitant ainsi la surveillance publique.

« Ce manque de transparence est particulièrement problématique dans des secteurs comme les réseaux sociaux, où les algorithmes sont optimisés pour capter l’attention des utilisateurs, souvent en mettant en avant des contenus polarisants ou même de fausses informations. L’arrivée des IA génératives, capables de créer du contenu automatiquement, amplifie ces risques, rendant la désinformation plus ciblée et personnalisée. »

Face à ces enjeux, Marc Faddoul appelle à une régulation plus stricte des algorithmes, en s’inspirant des progrès réalisés par l’Union européenne avec le Digital Services Act (DSA) et le Digital Markets Act (DMA). Il conclut en soulignant la nécessité de renforcer les contre-pouvoirs pour limiter l’influence croissante des grandes entreprises technologiques et anticiper les risques liés à l’IA générative.

« AI, Neither Good nor Evil »

La première partie de ce Luxembourg Sustainibilty Forum s’est achevée sur une table ronde ayant comme thématique « AI, Neither Good nor Evil » et animée par Maxime Derian, anthropologue du numérique. Ce dernier a réuni trois experts : Marc Faddoul (chercheur et expert en désinformation), Benjamin Baelus (Directeur des affaires gouvernementales pour Microsoft en Belgique et Luxembourg) et Lou Welgryn (Co-président de Data4Good).

Maxime Derian, Benjamin Baelus, Lou Welgryn et Marc Faddoul
Maxime Derian, Benjamin Baelus, Lou Welgryn et Marc Faddoul - © IMS Luxembourg

Ensemble, ils ont exploré les enjeux éthiques, environnementaux et sociétaux de l’intelligence artificielle (IA). La discussion s’est focalisée sur trois aspects principaux : la désinformation, les biais algorithmiques, et l’impact environnemental de l’IA.

Désinformation : un enjeu amplifié par l’IA

Maxime Derian a initié le débat en soulignant les risques accrus de désinformation liés à l’essor des IA génératives, notamment dans les contextes politiques sensibles comme les élections américaines. Il a observé que ces technologies rendent de plus en plus difficile la distinction entre ce qui est vrai et ce qui est faux, en particulier avec les deepfakes (enregistrements vidéo ou audio réalisés ou modifiés grâce à l’intelligence artificielle).

Marc Faddoul a approfondi cette question en évoquant la régulation européenne DSA (Digital Services Act), qui impose aux plateformes numériques de prendre des mesures pour atténuer les risques systémiques, comme ceux touchant à l’intégrité électorale. Il a fait un parallèle avec le scandale Cambridge Analytica, illustrant comment les IA permettent aujourd’hui des manipulations électorales à une échelle inédite : « Les deepfakes sont capables de manipuler l’opinion publique bien au-delà de ce que nous avons vu il y a huit ans. »

Benjamin Baelus, représentant de Microsoft, a ensuite décrit les efforts déployés par son entreprise pour lutter contre ces abus. Il a cité la plateforme Bing Image Creator qui interdit la génération d’images trompeuses à des fins politiques. Cela s’inscrit dans une stratégie plus large visant à limiter l’usage abusif des technologies de génération d’images et de textes par IA.

Biais algorithmiques : reproduire ou amplifier les inégalités

La conversation a ensuite pivoté vers les biais algorithmiques, un autre défi fondamental posé par l’IA. Lou Welgryn a souligné que les algorithmes, loin d’être neutres, reflètent les préjugés de leurs concepteurs et des données sur lesquelles ils sont formés. Elle a donné des exemples concrets de biais de genre et de race, notamment dans les systèmes de reconnaissance faciale, où les populations ethniques sont souvent sous-représentées, voire mal identifiées. Elle a également relevé des biais dans la manière dont les images sont générées : « Sur certaines plateformes, si vous tapez “politicien”, vous obtenez majoritairement des images d’hommes. »

Maxime Derian a insisté sur le caractère opaque des algorithmes, qualifiant cette opacité de boîte noire. Il a souligné que la régulation de ces systèmes est indispensable pour éviter qu’ils ne perpétuent, voire n’amplifient, les discriminations existantes.

Impact environnemental : la consommation énergétique de l’IA

Le débat s’est ensuite orienté vers l’impact environnemental de l’IA, une question de plus en plus pressante. Maxime Derian a posé une question à Benjamin Baelus concernant la manière dont Microsoft entend concilier les exigences de performances croissantes de l’IA avec la nécessité de réduire son impact environnemental.

Benjamin Baelus a expliqué que Microsoft mise sur l’innovation technologique pour accroître l’efficacité énergétique de ses centres de données. Il a cité l’augmentation de 900 % des charges de travail dans ces centres entre 2010 et 2020, comparée à une hausse de seulement 10 % des émissions de carbone, grâce à des progrès dans les systèmes de refroidissement, les matériaux de construction et l’efficacité des processeurs. Il a souligné les engagements de Microsoft en matière de neutralité carbone d’ici 2030 et a détaillé les initiatives, telles que l’investissement dans les énergies renouvelables et les technologies de captage de carbone.


« Nous avons des contrats pour 20 gigawatts d’énergie renouvelable, soit 11 fois la capacité de production du Luxembourg. »

Benjamin Baelus

Benjamin Baelus et Lou Welgryn
Benjamin Baelus et Lou Welgryn - © IMS Luxembourg

Cependant, Lou Welgryn a mis en avant le paradoxe auquel sont confrontées les grandes entreprises technologiques. Elle a critiqué l’augmentation des émissions de Microsoft de 30 % depuis 2020, malgré ses engagements environnementaux, et a cité des exemples de projets controversés, tels que le contrat de Microsoft avec ExxonMobil, qui, selon une lanceuse d’alerte, aurait permis d’augmenter les extractions pétrolières de 50.000 barils par jour.


« Une vraie politique environnementale ne peut pas se contenter de faire plus de vert, il faut aussi faire moins de brun. »

Lou Welgryn

Sobriété numérique et régulation de l’IA

Lou Welgryn a également insisté sur la nécessité de la sobriété numérique. Selon elle, face aux ressources limitées de notre planète, il est indispensable de réduire la consommation numérique. Elle a posé la question de savoir qui doit décider de l’allocation de ces ressources : « Est-ce le marché ou les grandes entreprises de la tech qui doivent choisir où l’énergie doit être utilisée ? »

La discussion s’est alors élargie à la régulation de l’IA. Maxime Derian a demandé aux intervenants s’ils pensaient que l’autorégulation des grandes entreprises tech était suffisante. Marc Faddoul a répondu que l’autorégulation avait montré ses limites, en particulier sur les réseaux sociaux.


« Les intérêts financiers des plateformes l’emportent souvent sur ceux des utilisateurs. Je salue l’AI Act européen, une régulation basée sur les risques, comme un modèle à suivre. »

Marc Faddoul

Lou Welgryn a soutenu cette position, soulignant l’importance d’une mobilisation citoyenne pour s’assurer que les régulations soient appliquées correctement. Elle a aussi mentionné les tentatives des entreprises technologiques pour modifier les normes de comptabilisation des émissions carbone, ce qui pourrait masquer une partie des émissions réelles.

L’avenir de l’IA : perspectives et espoirs

En guise de conclusion, Maxime Derian a demandé aux intervenants de partager leur vision de l’IA dans cinq ans. Marc Faddoul a proposé l’idée d’un pluralisme algorithmique, où les utilisateurs auraient la possibilité de choisir les algorithmes qu’ils utilisent, en fonction de leurs préférences, plutôt que d’être soumis à ceux imposés par les plateformes. Il a comparé cette diversité à une forme de « biodiversité » dans l’écosystème numérique.

Benjamin Baelus a, quant à lui, mis en avant l’importance de la confiance dans les technologies : « Les gens n’utiliseront pas l’IA s’ils ne peuvent pas lui faire confiance. » Il a également insisté sur la nécessité de collaborations entre les entreprises technologiques, les gouvernements et les ONG pour garantir que l’IA serve le bien commun.

Enfin, Lou Welgryn a souligné l’importance de la technolucidité, c’est-à-dire de réfléchir aux finalités avant de développer les moyens technologiques. Elle a rappelé que l’IA, comme toute technologie, n’est jamais neutre et qu’elle reflète les subjectivités de ses concepteurs. Elle a conclu en affirmant que « l’avenir de l’IA n’est ni inévitable, ni automatique, mais profondément politique. »

Découvrez les deux autres parties de ce Luxembourg Sustainability Forum dans nos prochains articles.

Sébastien Yernaux
Photos : © IMS Luxembourg

Article
Publié le jeudi 24 octobre 2024
Partager sur
Avec notre partenaire
Nos partenaires