Intelligence artificielle : Et l'éthique dans tout ça ?

Intelligence artificielle : Et l’éthique dans tout ça ?

La Commission nationale pour la protection des données (CNPD) promeut le développement d’une intelligence artificielle (IA) responsable et de confiance. Le commissaire Alain Herrmann et le juriste Maxime Dufour discutent des enjeux éthiques liés à cette technologie.

L’IA est de plus en plus répandue dans notre quotidien. Pensez-vous que l’utilisateur ordinaire a conscience de recourir à des outils qui intègrent de l’IA ? Et qu’il peut être amené lui à transmettre des données personnelles ?

Alain Herrmann : Il y a des obligations d’information et de transparence envers les utilisateurs. Par exemple, lorsqu’un humain interagit avec une IA, il doit en être informé. Mais il y a un travail de sensibilisation à faire. À la CNPD, nous organisons des conférences, publions des articles… C’est un travail continu. Nous avons aussi un projet d’intervention dans les lycées sur le thème de la protection des données.


« On entend souvent que la régulation bloque l’innovation, qu’elle empêche les entreprises de se développer. Ce n’est pas vrai, elle permet une innovation responsable. »

Alain Herrmann, CNPD

Maxime Dufour : On peut penser que la jeune génération est plus sensible à ces sujets, mais au contraire, on a l’impression que les compétences informatiques sont régressives. Les jeunes savent utiliser les outils, mais ils ne comprennent pas forcément comment cela fonctionne. Tout le monde doit donc être éduqué et sensibilisé.

L’Union européenne (UE) veut garantir une IA « centrée sur l’humain ». Comment interprétez-vous cet objectif et comment est-il mis en œuvre ?

MD : Le 2 février 2025, une première partie du règlement européen sur l’IA (AI Act) est entrée en vigueur, concernant les cas d’utilisation interdits de l’IA. Ce sont ceux décrits dans le texte comme présentant des risques inacceptables. En lisant la liste de ces IA prohibées, on se rend compte que l’UE a ici l’intention d’écarter tout ce qui est contre ses valeurs, comme la notation sociale ou la surveillance de masse avec identification faciale dans les lieux publics. Pour celles qui sont autorisées, l’aspect « centrée sur l’humain » va surtout dépendre du comportement du marché et des utilisateurs.

AH : L’AI Act prévoit également que les systèmes d’IA doivent respecter les droits fondamentaux des personnes. Il y en a une cinquantaine qui figurent dans la Charte des droits fondamentaux de l’UE.

Comment assurer la protection de données collectées et traitées par des IA en dehors de l’UE ?

AH : C’est malheureusement encore difficile lorsque que l’entreprise se trouve dans un pays où il n’y a pas de contrôle ou avec lequel aucun accord n’a été signé. Les écosystèmes derrière les interfaces d’IA sont par ailleurs très complexes, avec des dizaines, voire des centaines d’acteurs impliqués.

En guise d’exemple, début février, nous avons publié un message concernant DeepSeek (solution d’IA développée par une entreprise chinoise, ndlr) et les risques liés à son usage.


Extrait du message publié par la CNPD le 03/02/2025 à propos de DeepSeek : « Son utilisation soulève des préoccupations importantes, notamment en matière de collecte et de traitement des données sans garanties suffisantes. […] Cela implique des difficultés, voire une impossibilité, pour les personnes concernées d’exercer leurs droits prévus par le RGPD. […] Cela entraîne un déficit de garanties claires en matière de conformité au RGPD, un manque de transparence sur la gouvernance de cette IA, ainsi que l’implication potentielle d’acteurs étatiques ou tiers dans la gestion des données, amplifiant les risques de violation des données personnelles et du droit fondamental au respect de la vie privée. »

Votre rôle est-il aussi de favoriser l’émergence de solutions d’IA en Europe et au Luxembourg ?

AH : C’est clairement l’un des objectifs de l’AI Act. Les autorités ont d’ailleurs l’obligation de mettre en place des mesures pour supporter l’innovation. À la CNPD, nous proposons un bac à sable règlementaire et le règlement EU sur l’IA prévoit la possibilité d’effectuer des tests en conditions réelles pour les acteurs publiques et privés. Cela leur permet d’analyser les risques et de trouver, avec la CNPD, des solutions pour que le modèle d’IA qui en ressorte soit une IA dans laquelle on puisse avoir confiance.

Les données à partir desquelles une IA est entrainée peuvent contenir des biais cognitifs, qui seront donc retranscrits dans les résultats donnés par le modèle d’IA en question. Comment cette problématique est-elle appréhendée ?

MD : La problématique des biais n’est pas liée au système d’IA puisque celui-ci est entraîné sur des données fournies par des humains. C’est l’humain qui est biaisé, la machine ne fait que reproduire ce biais.

Les données, à partir desquelles s’entrainent les IA, doivent être étiquetées. C’est-à-dire que, quand vous montrez une photo de chat à une IA, il faut lui dire c’est un chat. Ensuite, l’IA s’entraine pour retenir ce qu’est un chat, et ce qui ne l’est pas. Les personnes qui étiquettent les données vont forcément y mettre leur vision, qui dépend souvent de considérations culturelles et/ou géographiques. Cela soulève des questions en matière de liberté d’expression et d’information.

Comment lutter contre ce risque ?

AH : L’AI Act prévoit une obligation d’analyser ce type de risque et impose à ceux qui développent ou utilisent un système d’IA d’effectuer des corrections si le risque de biais est trop important. Les IA peuvent être considérées à « risque élevé » lorsqu’elles ont la capacité d’impacter négativement des personnes, notamment par de la discrimination. Ce sont par exemple des solutions de tri de CV, d’attribution de crédits ou encore d’accès à des services publics.

Y a-t-il d’autres enjeux d’éthiques liés à l’IA donc le grand public n’a pas conscience ?

MD : Nous parlions d’étiquetage des données. Dans le cadre de la modération de contenus, il faut apprendre à l’IA ce qu’est, par exemple, un contenu violent à bannir. Pour cela, il faut au préalable qu’un être humain regarde des contenus et définisse s’ils sont violents ou pas.

Cette tâche est bien souvent déléguée à des sous-traitants, des sociétés localisées dans des pays qui ne sont pas particulièrement développés, où les gens ne sont pas bien payés. Quand une personne passe six mois ou un an à regarder des contenus difficiles, psychologiquement, elle ne va pas très bien.


« Je pense qu’on va voir fleurir des modèles d’IA plus éthiques au Luxembourg. Le secteur de l’IT y est bien développé et le pays est petit, ce qui permet d’être assez flexible, de faciliter les communications entre acteurs. Nous sommes en train de mettre en marche cette machine de collaboration avec tout l’écosystème de l’innovation luxembourgeoise. »

Maxime Dufour, CNPD

L’utilisation massive de l’IA implique également une très grande consommation d’énergie.

MD : Microsoft veut relancer l’un des réacteurs d’une ancienne centrale nucléaire en Pennsylvanie pour alimenter ses data centers. Cela donne une idée de la puissance énergétique nécessaire. Autre exemple : en 2021, l’entreprise avait estimé une consommation d’eau de 20 millions de litres pour ces data centers aux Pays-Bas. Ils en aurait finalement consommé 84 millions.

AH : Le règlement n’oblige pas à prendre la consommation énergétique en compte. Il y a simplement un article qui prévoit un contexte spécifique dans lequel celle-ci doit être évaluée. Mais pour beaucoup, ça restera de la responsabilité de chaque entreprise.

La CNPD a lancé le programme Sandkësch, sa première initiative de « bac à sable règlementaire » qui consiste en un environnement dédié à la mise à l’essai et à la compréhension des implications légales, notamment des solutions d’IA. Parmi les critères, un est justement lié à l’impact énergétique.

Propos recueillis par Léna Fernandes
Photos : PICTO

Extrait du dossier du mois « Évolution techno-logique ? »

Article
Publié le lundi 3 mars 2025
Partager sur
Nos partenaires