À la fin du mois de novembre 2023, les autorités israéliennes indiquaient que, dans les 35 premiers jours du conflit à Gaza, elles avaient frappé plus de 15 000 cibles – soit trois fois plus qu’au cours des 51 jours qu’avait duré l’opération "Bordure protectrice", en 2014. Quelques jours plus tard, le magazine d’investigation israélien +972 dévoilait une enquête révélant les raisons de ce rythme effréné : un programme informatique dopé à l’intelligence artificielle (IA) surnommé Habsora – l’Évangile en français – et fonctionnant comme une "usine à cible", 24 heures sur 24. D’après l’article, ce système capable de traiter des masses de données très hétérogènes et issues de différentes branches du renseignement serait utilisé par Tsahal pour identifier les cibles potentielles de la campagne de bombardements, mais aussi pour estimer à l’avance le nombre de victimes civiles.
Comment distinguer le vrai du faux à l’ère des réseaux sociaux ? La réponse à cette question devient de plus en plus délicate. Leurs algorithmes prennent une importance croissante dans notre vie, au point de bouleverser notre rapport à la réalité. Le chercheur Michaël Lainé a essayé de comprendre comment et pourquoi la vérité était en train de disparaître à l’ombre de ces algorithmes. Il s’est penché sur leur histoire et leur fonctionnement, a essayé de décrire comment la post-vérité s’est imposée, comment les médias ont participé à cette relativisation extrême, pour comprendre ce qui fait que l’on va souvent préférer la croyance au savoir, ou encore, comment tenter de retrouver une indépendance intellectuelle. Alors comment des croyances sont-elles devenues des équivalents de vérités scientifiques dans la tête d’une partie de la population, pourquoi l’ignorance et la haine ont-elles atteint de tels degrés d’étalement dans nos esprits ?
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.
Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée.
Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».
C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.