Logo du site Popol Media

I.A : Intox Artificielle

Les systèmes dotés d’I.A sont capables d’adapter leurs comportements (plus ou moins) en analysant les effets produits par leurs actions précédentes, travaillant de manière autonome. L’ “intelligence” fait référence au fait qu’elle s’adapte et peut donc prédire car nous, humains, sommes prédictibles.

Illustration de Clothilde Le Coz

Clothilde Le Coz

23 mars

a computer circuit board with a brain on it
Logo du site Popol Media

I.A : Intox Artificielle

Les systèmes dotés d’I.A sont capables d’adapter leurs comportements (plus ou moins) en analysant les effets produits par leurs actions précédentes, travaillant de manière autonome. L’ “intelligence” fait référence au fait qu’elle s’adapte et peut donc prédire car nous, humains, sommes prédictibles.

Illustration de Clothilde Le Coz

Clothilde Le Coz

23 mars

Soyons claires ; l’“intelligence artificielle” fait partie de ce que l’on peut considérer une “fausse amie”.  D’abord car nous avons un problème de traduction. Ensuite car ce n’est que le reflet artificiel de notre société réelle et donc inégalitaire.

Si vous cherchez une personne intelligente aux États-Unis, vous la trouverez “smart” ou  “clever”. “Intelligence” fait plus généralement référence à la notion de “renseignement” au sens politique du terme, soit une information recueillie à l'intérieur ou à l'extérieur des États-Unis qui concerne les menaces pesant sur la nation, son peuple, ses biens ou ses intérêts. Il s’agit d’une modalité de recueil de renseignement, comme l’HUMINT (Human Intelligence) qui renvoie au renseignement d’origine humaine ou le SIGINT (Signal Intelligence) au renseignement d’origine électromagnétique etc. 

Pour le Parlement européen, l’I.A désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité. Elle permet à des systèmes techniques de percevoir leur environnement, gérer ces perceptions, résoudre des problèmes et entreprendre des actions pour atteindre un but précis. L’ordinateur reçoit des données (déjà préparées ou collectées via ses capteurs - une caméra, par exemple) les analyse et réagit.

Les systèmes dotés d’I.A sont capables d’adapter leurs comportements (plus ou moins) en analysant les effets produits par leurs actions précédentes, travaillant de manière autonome. L’ “intelligence” fait référence au fait qu’elle s’adapte et peut donc prédire car nous, humains, sommes prédictibles. Accordons-nous donc ici le loisir de parler plutôt d’ “éclairage artificiel” ou d’“information rassemblée de manière artificielle”, plutôt que d’intelligence. Il est également possible de parler d’“apprentissage machine” (ou machine learning), l’application la plus connue de cet éclairage artificiel.

Algos b(i)aisés

L’intoxication par l’information rassemblée de manière artificielle mène à la propagande. En France par exemple, on sait que le sexisme s’aggrave chez les hommes de moins de 35 ans et que les “plateformes numériques” sont de “véritables caisses de résonance des stéréotypes de genre” selon le dernier rapport du Haut Commissariat à l'Égalité. 

Et pour cause ! Selon les chiffres compilés par le Forum économique mondial, 88 % des algorithmes sont conçus par des hommes. On estime globalement qu’entre 12 et 22 % des postes liés à l’IA sont occupés par des femmes. D’ici l’année prochaine, 90 % des informations lues par le grand public pourraient être générées par des algorithmes, qui apprennent seuls et définissent leurs propres recettes mathématiques pour trouver une solution à un problème donné.

Ne nous trompons pas ; ces algorithmes sont bien humains. Tellement humains qu’ils reflètent les biais sexistes de la société. Derniers exemples en date : Chat GPT (développé par Open AI) et Alpaca (par Stanford). Quand on leur demande d’écrire des lettres de recommandations, celles que ces outils écrivent pour les hommes contiennent des mots faisant référence à l’expertise, l’intégrité, l’écoute et la pensée alors que celles réalisées pour des femmes contiennent des références à la beauté, au plaisir ou la grâce. Les adjectifs qualifiant les hommes sont “respectueux”, “ayant bonne réputation” et “authentique” ; les femmes sont “époustouflantes”, “chaleureuses” et “affectives”.

En 2018, le MIT a lancé le projet Gender Shades qui explore les marges d’erreurs des logiciels de reconnaissance faciale et prouve que les algorithmes utilisés sont toujours plus efficaces pour reconnaître les visages d’hommes blancs plutôt que de femmes racisées. Pour les auteurices du projet, “plus nous creusons, plus nous trouvons de vestiges de préjugés dans notre technologie. Nous ne pouvons pas nous permettre de détourner le regard cette fois-ci, car les enjeux sont tout simplement trop importants. Nous risquons de perdre les acquis du mouvement des droits civiques et du mouvement des droits des femmes sous le prétexte fallacieux de la neutralité des machines. Les systèmes automatisés ne sont pas neutres par nature. Ils reflètent les priorités, les préférences et les préjugés - le regard codé - de ceux qui ont le pouvoir de façonner l'intelligence artificielle.” La journaliste Mathilde Saliou insiste d’ailleurs sur le fait que les algorithmes participent à accentuer les inégalités déjà présentes au sein de la société. Dans une interview, elle explique que “les algorithmes sont entrainés sur du contenu disponible gratuitement en ligne. Donc, si on entraîne un algorithme de reconnaissance du langage sur des morceaux de discussion tels que ceux que l’on retrouve sur certains forums, où les mots sont souvent violents, notamment à l’égard de toutes les minorités, alors l’algorithme ne pourra pas faire la part des choses et pensera que l’on communique ainsi.”

Mais il y a également une explication plus simple. Pour Cristina Lunghi, 60 ans, fondatrice de l’association Arborus, qui a proposé en 2020 une Charte internationale pour une intelligence artificielle inclusive, “les I.A sont principalement conçues par des hommes, de la même catégorie sociale et ethnique. On obtient donc un résultat représentatif d’un système traditionnel de domination masculine, avec des représentations archétypales et très anciennes”. 

C’est fait exprès ?

Pour Asma Mhalla, spécialiste des enjeux politiques et géopolitiques de la Tech, l’objectif des différents éclairages artificiels est bien d’accentuer les biais de la société pour la polariser puis la déstabiliser. Dans un entretien à Usbek & Rica, elle  affirme que “les attaques extérieures, informationnelles et cognitives, visant à faire imploser les démocraties de l’intérieur, convergent grâce aux groupes antisystèmes, ce que les anglo-saxons appellent les contrarians, ceux qui sont contre tout. Ces groupes ont entre les mains des technologies qui peuvent diffuser leurs idées massivement. Ils sont encore marginaux mais peuvent métastaser, et on se retrouve ainsi dans des logiques insurrectionnelles.” 

L’insurrection peut avoir du bon, surtout si elle est féministe, mais certainement pas si elle est dictée par un artifice pas si intelligent que ça…

Soutenez Popol Media

Aidez-nous à rester indépendantes