Dès la création de l'entreprise en 2017, le co-fondateur de Clearview, Hoan Ton-That, avait en tête la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L'entreprise s'appuie sur des milliards d’images récupérées sur Internet, très souvent sans aucun consentement. Elle a aussi essayé de récupérer des millions de données de police comprenant des photos de suspects.
Auteur de Technopolice, Félix Tréguer, chercheur au CNRS et membre de La Quadrature du Net, analyse l’accouplement de la machine et de la police. Entre Nice, Marseille et Denver, le constat apparaît terrifiant. Les bonds technologiques permettent d’enserrer de plus en plus la population, avec des formes de contrôle pas si éloignées du modèle chinois. Malgré tout, le réel et la rue résistent.
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.
Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée.
Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».
C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.
Le Parti Pirate français a été informé par un lanceur d’alerte de l’ajout d’un dispositif de « mouchard », ou « porte dérobée » (backdoor), dans les logiciels médicaux utilisés par les médecins français, sous la houlette de l’Agence du Numérique en Santé (ANS).
Ce dispositif imposé aux éditeurs de logiciels médicaux, décrit dans un document de travail titré « Référentiel d'Exigences Minimales LGC MDV Vague 2 », permettra à l’administration d’accéder aux données des dossiers médicaux des patients sans avoir à obtenir leur consentement, ni celui des professionnels de santé.
Il fait partie des exigences à respecter par les éditeurs de logiciels de gestion de cabinet pour obtenir le label « Ségur vague 2 », et les financements liés.
Il s’agit là d’une évolution notable par rapport à la situation antérieure, appelée « Ségur vague 1 », qui rendait explicite la transmission d’informations par les personnels de santé à l’administration et permettait ainsi son blocage.
Le Parti Pirate, défenseur des libertés individuelles et de la vie privée, considère cette mesure comme une nouvelle atteinte aux droits fondamentaux des citoyens, notamment en matière de protection de la vie privée et de confidentialité des informations médicales, ouvrant la porte à des abus de pouvoir…
Une atteinte à la confidentialité des soins médicaux
L’introduction dans les systèmes informatiques médicaux de ce dispositif, nommé "trigger" dans la documentation technique, met en péril la relation de confiance entre les patients, les professionnels de santé et l’administration.
La confidentialité des données médicales est un principe fondamental du système de santé, qui garantit aux patients que leurs informations personnelles seront traitées avec le plus grand respect. Le Parti Pirate estime qu’en introduisant une telle fonctionnalité dans les logiciels médicaux, le gouvernement compromet cette confiance et s’arroge le droit de procéder à une surveillance injustifiée et disproportionnée.
Les données de santé ne doivent pas être utilisées à des fins de surveillance généralisée. Leur accès doit être réservé aux professionnels médicaux concernés et avec le consentement explicite des patients.
L’information a fait l’effet d’une bombe samedi dernier, le 24 août.
Le milliardaire russe Pavel Durov, fondateur de Telegram, a été arrêté à l’aéroport du Bourget, alors qu’il débarquait en France à bord d’un avion privé.
Telegram, ce n’est pas n’importe quelle application. La messagerie cryptée, alternative au célèbre Whatsapp, compte près d’un milliard d’utilisateurs dans le monde. En France, elle s’est notamment fait connaître en 2017, via le coup de pub offert par les macronistes, qui l’utilisaient dans le cadre de leurs échanges de campagne.
On parle de complicité dans des actes de terrorisme, de pédocriminalité et de modération défaillante sur Telegram. Pourquoi, au fond, Pavel Durov a-t-il donc été arrêté ?
Jusqu’où ira cette affaire ? En quoi Telegram dérange plus que Whatsapp ou Signal ? Est-ce qu’il s’agit là d’un précédent fâcheux pour la liberté d’expression en France et en Europe ? Pour répondre à toutes ces questions, nous avons fait appel à Fabrice Epelboin, spécialiste des réseaux sociaux, entrepreneur et enseignant à Sciences Po et à l’IAE de Poitiers.
Les images de Paris grillagée choquent l’opinion publique. De nombreux médias regrettent ce qu’ils présentent comme un détournement de l’« ordre habituel » de la ville, détournement qu’il faudrait accepter au nom de la fête (stupéfiante inversion logique).
Mais n’est-ce pas le contraire ? Si ces images nous heurtent, n’est-ce pas justement parce qu’elles rendent visible l’« ordre habituel » de la ville sous régime capitaliste ? Elles ne le dévoient pas ; elles le manifestent de manière éclatante et ce retour du refoulé est douloureux, suscitant colère ou déni.
À trois jours du lancement des JO de Paris 2024, de nouveaux dispositifs de contrôle viennent s'ajouter aux effectifs policiers déployés dans la capitale. Autant d'outils d'exception voués à se pérenniser au service des politiques sécuritaires du pouvoir.
Alors que certains médias se félicitent de l’arrivée d’une grande compétition sportive dans une démocratie libérale, après les coupes du monde de football en Russie puis au Qatar ou des Jeux Olympiques d’hiver en Chine, force est de constater que les Jeux Olympiques de Paris 2024 sont organisés dans un climat particulièrement sécuritaire. Une politique d’ores et déjà visible à trois jours du lancement des Jeux, avec 45 000 policiers et gendarmes mobilisés, accompagnés de militaires, d’agents de sécurité privée et même de 2 500 policiers. étrangers, sans compter les milliers de barrières qui hérissent les rues de la capitale aux abords du périmètre « Silt », la zone à accès contrôlé qui entoure les principaux sites olympiques.
Les Jeux Olympiques vont nous laisser la surveillance de masse en héritage. En instrumentalisant cet évènement, le gouvernement a autorisé l’utilisation de la vidéosurveillance algorithmique (VSA) jusqu’en 2025 pour des situations qui dépassent largement le cadre cette compétition sportive. Ces logiciels, qui analysent les images de vidéosurveillance et envoient automatiquement des alertes à la police, sont déployés depuis des années en France en toute illégalité, sans que jamais les responsables n’aient été inquiétés. L’hypocrisie est donc totale. En légalisant quelques usages de VSA, l’État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l’espace public.
Derrière cette légalisation inédite, qui porte sur un petit nombre de cas d’usage (départs de feux, individus marchant à contre-sens, etc.), ce sont d’autres applications qui pourraient à leur tour être légalisées. De nombreux responsables politiques assument publiquement de vouloir autoriser le suivi et la catégorisation biométriques de la population, y compris à travers la reconnaissance faciale ou encore la reconnaissance des émotions. Les entreprises distribuent déjà ces technologies et les propositions de légalisation sont dans les tuyaux.
Alors que le choix d’Emmanuel Macron de dissoudre l’Assemblée nationale au lendemain des élections européennes risque de renforcer le poids de l’extrême droite, nous partageons l’inquiétude exprimée par beaucoup face au risque important que ce tremblement de terre politique fait peser sur la démocratie et les libertés. L’idéologie du Rassemblement National, entièrement tournée vers la création de droits différenciés sur des fondements racistes et réactionnaires, ne peut exister sans une structure de pouvoir forte et centralisée. C’est pourquoi nous ne doutons pas qu’un gouvernement d’extrême droite utilisera et renforcera la surveillance de la population pour exercer son pouvoir. Il aura, par exemple, besoin du fichage pour identifier les personnes à qui retirer des droits, de l’écosystème de surveillance pour traquer les personnes qu’il veut expulser, maltraiter ou enfermer ou encore des lois de censure et coercitives pour faire taire les oppositions anti-fascistes.
Le groupe de travail des polices européennes a multiplié les réunions (sept en trois mois) pour finaliser les « questions techniques » liées à la proposition de règlement « établissant des règles pour prévenir et combattre les abus sexuels concernant les enfants ». Il a poussé à son adoption la semaine prochaine, avant la fin de la présidence belge du Conseil de l'UE le 30 juin.
La présidence du Conseil de l'UE veut faire adopter la proposition de règlement européen de surveillance des contenus pédosexuels, révèle l'ex-eurodéputé pirate allemand Patrick Breyer, en pointe contre l'adoption de ce texte. Il est surnommé #ChatControl parce qu'il vise à scanner l'ensemble des images partagées par les utilisateurs de messageries (cf nos actus).
D'après ses informations, le COREPER II (pour Comité des représentants permanents, l'organisme de l'Union européenne qui prépare les travaux du Conseil de l'Union européenne), composé des représentants permanents de chacun des États membres, devrait adopter le projet de « compromis » récemment proposé par la Belgique, qui préside le Conseil de l'Union européenne jusqu'au 30 juin.
Alors que les expérimentations de vidéosurveillance algorithmique (VSA) prévues par la loi relative aux Jeux Olympiques ont à peine débuté et qu’aucune évaluation n’a encore été réalisée, le gouvernement passe déjà à la vitesse supérieure. Mercredi 15 mai, la commission des lois de l’Assemblée va discuter d’une proposition de loi visant à légaliser une nouvelle forme de VSA, en utilisant cette fois-ci comme excuse la sécurité dans les transports. Derrière ce texte passé presque inaperçu se cache une nouvelle avancée sécuritaire mais surtout un agenda politique assumé : celui de la généralisation sur le long terme des technologies de surveillance algorithmique des espaces publics. Le rapporteur Clément Beaune a refusé de nous auditionner. Pourtant nous aurions eu beaucoup à lui dire sur les dangers de cette technologie et les contradictions du gouvernement qui trahit sans scrupule les promesses formulées il n’y a même pas un an.
En novembre, à la suite des révélations de Disclose sur l’utilisation par la police du logiciel de reconnaissance faciale Briefcam, Gérald Darmanin annonçait le lancement d’une enquête indépendante dont les conclusions devaient être rendues « sous trois mois ». Alors que le ministère de l’Intérieur refuse de communiquer sur le sujet, un rapport confidentiel démontre que la fonction reconnaissance faciale est « activée par défaut » depuis 2018.
Plus de 20 000 personnes font actuellement l'objet, en France, d'une surveillance de la part des services de renseignement. Ces techniques ne visent pas que les personnes suspectées de terrorisme ou la grande criminalité, comme le montrent les rapports de la Commission nationale de contrôle des techniques de renseignement (CNCTR). La société civile est aussi concernée.
Le 8 décembre 2020, une opération antiterroriste visait 9 militant·es politiques français·es. Les quelques éléments de langage et de procédure distillés dans la presse par la police laissent alors songeur. Une association de Paint Ball, un artificier qui travaille à Disneyland et quelques discussions de fin de soirée où l’on dit tout le mal que l’on pense de la police nationale captées par des micros cachés par la DGSI. À partir du 3 octobre, sept personnes seront jugées à Paris, soupçonnées de participation à une association de malfaiteurs en relation avec une entreprise terroriste. Afin de mieux saisir les enjeux comme le fond de cette affaire, nous avons reçu cette analyse détaillée et politique du dossier d’instruction.
Nous en parlions déjà il y a deux ans : au-delà de la surveillance de nos rues, la surveillance biométrique se déploie aussi dans nos supermarchés pour tenter de détecter les vols en rayons des magasins. À la tête de ce business, la start-up française Veesion dont tout le monde, même le gouvernement, s’accorde sur l’illégalité du logiciel mais qui continue à récolter des fonds et des clients en profitant de la détresse sociale