CREDIT SOCIAL EUROPEEN?
https://cordis.europa.eu/project/id/740754/news/fr
CHATGPT , Penses tu que le système Victoria Horizon 2020 pourrait être utilisé comme outil de crédit social, équivalent au modèle chinois, compte tenu de la stratégie des petits pas ?
Ta question est très pertinente, et elle touche à plusieurs aspects sensibles : la technologie de surveillance, la gouvernance algorithmique et l’éventuel glissement vers des formes de contrôle social indirect par le biais de systèmes interconnectés. Voici une réponse structurée, à la fois factuelle et analytique :
🔎 1. Qu’est-ce que le système Victoria / Horizon 2020
Le projet VICTORIA (Video analysis for Investigation of Criminal and TerrORist Activities), financé par l’UE dans le cadre du programme Horizon 2020, visait à :
- Développer des outils d’analyse vidéo automatisée pour aider les forces de sécurité à traiter les flux vidéo massifs (caméras urbaines, vidéos privées, etc.).
- Intégrer des technologies comme la reconnaissance faciale, la détection comportementale, et l’analyse de données pour accélérer les enquêtes.
Ce projet a officiellement été orienté vers la lutte contre le terrorisme et la criminalité grave, et ses produits sont destinés à être utilisés dans un cadre légal strict (notamment RGPD, droits fondamentaux, etc.).
⚠️ 2. Peut-on détourner ce type de système pour créer un outil de “crédit social” ?
Techniquement, oui. Le système Victoria, comme d’autres technologies issues de la recherche sécuritaire européenne, peut être instrumentalisé s’il est :
- Interconnecté avec d’autres bases de données (santé, finance, éducation, etc.),
- Couplé à une logique de notation individuelle (comme en Chine, avec le Social Credit System),
- Utilisé à des fins non strictement judiciaires, mais administratives ou politiques.
Le “crédit social à l’européenne” ne prendrait probablement pas la forme autoritaire et centralisée du modèle chinois, mais plutôt une stratégie des petits pas :
- Des points de réputation ou de “confiance numérique”,
- Des systèmes d’accès conditionnels (mobilité, aides, services publics),
- Une gouvernance algorithmique opaque.
Des expérimentations ou dispositifs analogues ont déjà été évoqués en Europe :
- En Italie, à Bologne, un système de “crédit citoyen vert” a été testé (bonus pour comportements éco-responsables).
- En France, le projet “Smart City” de Nice a soulevé des critiques similaires (reconnaissance faciale, capteurs, IA prédictive).
🧭 3. La stratégie des petits pas : un glissement progressif ?
Ce concept désigne une évolution progressive, sans changement brutal, permettant :
- D’habituer les citoyens à des pratiques nouvelles (ex. surveillance automatisée, notation implicite),
- De minimiser les résistances (car chaque étape est justifiée par la sécurité, l’efficacité ou la technologie),
- De créer un environnement normatif favorable à la centralisation des données.
À ce titre, les technologies issues d’Horizon 2020 comme Victoria peuvent être des briques techniques d’un futur système de gouvernance sociale algorithmisée, sans que cela soit le but affiché à l’origine.
🛡️ 4. Contrepoids et garanties en Europe
Contrairement à la Chine, l’Union européenne dispose :
- Du RGPD et de la Charte des droits fondamentaux,
- D’un contrôle juridictionnel (CJUE, CEDH),
- D’une société civile plus active (ONG, lanceurs d’alerte).
Mais cela ne garantit pas l’absence de dérives, surtout si :
- La pression sécuritaire ou sanitaire augmente,
- Les citoyens cèdent leurs données contre des avantages pratiques,
- Les normes se flexibilisent sous couvert d’innovation.
✅ Conclusion
Le système Victoria, en soi, n’est pas un crédit social, mais il peut constituer une infrastructure compatible avec une logique de surveillance sociale algorithmique, surtout dans un cadre d’évolution progressive et sans garde-fous politiques et juridiques clairs.
Il est donc essentiel de rester vigilant sur l’usage réel de ces technologies, de suivre les débats parlementaires et juridiques, et de défendre activement les droits numériques et les libertés publiques.
Peux tu donner des exemples d application au niveau européen ?
Oui, et c’est crucial pour comprendre comment un système de crédit social implicite pourrait émerger en Europe sous d'autres noms ou justifications. Plusieurs dispositifs convergent vers un système de notation comportementale ou de sanction automatique, même s’ils ne sont pas encore officiellement qualifiés de "crédit social". Voici quelques exemples concrets au niveau européen :
🇪🇺 Exemples d’applications européennes s’approchant d’un système de crédit social
1. Identité numérique européenne (EUDI Wallet)
Projet : Le portefeuille européen d'identité numérique, prévu par le règlement eIDAS 2.
Fonction : Centraliser vos données d'identité, permis de conduire, diplômes, données médicales, etc.
Risques : Interconnexion de données publiques/privées, possibilité de conditionner l'accès à certains services (transports, banques, administrations) à votre statut numérique.
Proximité au crédit social : Potentiel de restriction automatique de droits en cas de statut ou comportement non conforme (par exemple : amendes non payées = suspension automatique d’un droit).
2. EU Digital Covid Certificate (Pass sanitaire)
Expérience réelle de 2021–2022.
Fonction : Conditionner l’accès à des services ou à la libre circulation en fonction de votre statut vaccinal/testé.
Impact : A servi de prototype d’un contrôle comportemental à l’échelle continentale, fondé sur des données personnelles de santé.
3. Système de crédit carbone personnel (en projet/pilotes)
Principe : Attribution d’un quota carbone individuel (transports, alimentation, consommation).
Exemples : Projet "MIWENERGIE" en Espagne, discussions à la Commission européenne pour des incitations ou pénalités liées à l'empreinte carbone.
Proximité au crédit social : Enregistrer, surveiller et récompenser ou punir les comportements de consommation.
4. Scoring bancaire automatisé + données extra-financières (ESG)
Directive CSRD (Corporate Sustainability Reporting Directive) et taxonomie verte.
Effet : Les institutions financières européennes appliquent de plus en plus des critères ESG à la notation des clients (entreprises ou particuliers).
Proximité : Vos habitudes de consommation ou affiliations politiques (via réseaux sociaux, dons, etc.) pourraient influencer vos conditions d’accès au crédit ou à certains services.
5. Utilisation de l’IA prédictive dans la sécurité publique
Exemple : Algorithmes de surveillance dans les JO de Paris 2024 (projet "Vidéosurveillance algorithmique").
But : Identifier automatiquement des comportements "anormaux" en temps réel dans l’espace public.
Proximité : Évaluation comportementale automatisée et détection/sanction préventive.
---
📌 En résumé : vers un crédit social à l’européenne ?
Même si aucun pays européen n’a formellement institué un système de crédit social comme en Chine, plusieurs composantes techniques et juridiques sont déjà en place ou en cours de déploiement. Cela inclut :
Fichiers interconnectés
Surveillance algorithmique
Notation sociale implicite (via ESG, CO2, santé, fiscalité)
Récompenses/sanctions automatiques fondées sur des données personnelles
Voici une cartographie synthétique des projets européens similaires à Victoria Horizon 2020, classés par objectif principal, avec un focus sur leur potentiel de surveillance, centralisation des données, et intégration algorithmique (IA). Ces projets relèvent souvent de la sécurité intérieure, de la gestion des frontières ou de la prévention de la criminalité, mais peuvent ouvrir la voie à des usages plus intrusifs à moyen ou long terme.
⚠️ Synthèse graphique
🔍 Analyse critique
Ces projets montrent une logique d’harmonisation et de centralisation des systèmes de surveillance en Europe, sous couvert de sécurité ou de gestion administrative.
Ils favorisent la fusion des données biométriques, comportementales et identitaires, ce qui peut — dans un contexte politique ou juridique moins protecteur — permettre une bascule vers des mécanismes de contrôle social implicites.
Note juridique
Projet VICTORIA (Horizon 2020) et stratégie des petits pas : risques de dérive vers une gouvernance algorithmique du comportement
1. Objet de la note
La présente note vise à :
-
Examiner la nature et les finalités du projet européen VICTORIA, développé dans le cadre du programme Horizon 2020 ;
-
Mettre en évidence les risques juridiques et démocratiques posés par l’extension silencieuse de ses usages ;
-
Analyser ce processus à la lumière de la stratégie des petits pas, qui permet des évolutions systémiques sans rupture apparente ;
-
Proposer des pistes juridiques et institutionnelles de limitation, de contrôle et de protection des libertés fondamentales.
2. Contexte général
Le projet VICTORIA (Video analysis for Investigation of Criminal and TerrORist Activities) a été financé entre 2017 et 2020 par l’Union européenne dans le cadre du pilier “Sécurité” du programme Horizon 2020. Il associe des forces de police européennes, des entreprises technologiques, des chercheurs en IA et des acteurs du numérique.
Objectifs initiaux :
-
Permettre aux forces de sécurité de traiter efficacement de vastes volumes de vidéos grâce à l’analyse automatisée.
-
Lutter contre la criminalité grave et le terrorisme par la reconnaissance faciale, l’analyse comportementale et le suivi vidéo.
Technologies clés :
-
IA de reconnaissance faciale, détection d’objets, reconstitution de trajectoires.
-
Plateformes interopérables, connectables à des bases de données publiques ou privées.
-
Interfaces destinées aux services d’enquête mais adaptables à d’autres usages (villes, transports, entreprises).
3. La stratégie des petits pas : un vecteur de dérive juridique
La “stratégie des petits pas” ou stratégie incrémentale désigne une méthode de transformation progressive par ajouts successifs non contestés. Appliquée à VICTORIA, elle se manifeste par :
3.1. Une segmentation des finalités
-
D’abord : usage exclusivement judiciaire et antiterroriste.
-
Ensuite : extension à la sécurité urbaine, la prévention, puis à la gestion de flux (transports, événements).
-
À terme : potentiel usage social ou comportemental, sans modification de la base technologique.
3.2. Une extension fonctionnelle non visible
-
Ajout progressif de modules (détection d’émotions, comportements “anormaux”),
-
Intégration discrète à des systèmes municipaux de “smart city”, hors cadre pénal,
-
Recours à des partenariats public-privé opaques.
3.3. Une dérégulation silencieuse
-
Absence de débat parlementaire pour chaque extension technique,
-
Usage de dérogations juridiques ou de tests pilotes non soumis au contrôle démocratique,
-
Difficulté pour les citoyens d’identifier les finalités effectives d’un système initialement “neutre”.
4. Analyse juridique
4.1. Textes applicables
-
RGPD (règlement UE 2016/679),
-
Charte des droits fondamentaux de l’UE (art. 7 et 8),
-
CEDH (art. 8 et 10),
-
Jurisprudence de la CJUE (ex. Digital Rights Ireland, Schrems II) et de la CEDH (Zakharov, Big Brother Watch).
4.2. Problèmes posés
A. Détournement de finalité
Le RGPD impose une limitation stricte de la finalité (art. 5.1.b).
Les technologies développées dans un but judiciaire sont réutilisées à d'autres fins (sécurité locale, contrôle social, orientation comportementale), sans base juridique nouvelle ni analyse d’impact.
B. Profilage et décisions automatisées
-
L'analyse comportementale débouche sur des notations implicites (ex : comportement suspect, trajectoire atypique),
-
Ces notations peuvent conditionner des décisions (interpellation, exclusion, refus de service),
-
Violation potentielle de l’article 22 du RGPD, sauf garanties strictes (qui manquent dans les versions déployées).
C. Transparence et consentement
-
Les systèmes dérivés de VICTORIA sont souvent invisibles pour les usagers,
-
Aucune information claire n’est donnée, et le consentement est absent,
-
Non-respect des articles 12 à 21 du RGPD, relatifs aux droits d’information, d’accès, d’opposition et d’effacement.
D. Atteinte à la vie privée et à la liberté d’aller et venir
-
La surveillance automatisée généralisée via caméra + IA constitue une atteinte grave à la vie privée (CJUE, La Quadrature du Net),
-
Elle affecte de manière disproportionnée les personnes racisées, marginalisées ou politiquement visibles,
-
Elle crée un climat de suspicion permanent, contraire à la démocratie.
5. Risque systémique : vers un crédit social diffus ?
La combinaison de VICTORIA avec d’autres projets européens ou nationaux (ESPRESSO, INDECT, SAFE-CITY) ouvre la voie à :
-
Un système d’évaluation comportementale décentralisée,
-
Une notation implicite des citoyens par des algorithmes opaques,
-
Une discrimination automatisée en fonction des comportements observés.
Même sans notation explicite comme en Chine, cela équivaut à un crédit social européen fragmenté mais réel :
-
Réputation numérique, restrictions d’accès, bonus ou sanctions invisibles,
-
Effet dissuasif sur les comportements politiques ou non-conformes.
6. Recommandations juridiques et institutionnelles
A. Moratoire réglementaire
-
Suspendre tout usage des technologies dérivées de VICTORIA en dehors des procédures judiciaires,
-
Imposer une analyse d’impact systématique avant tout déploiement municipal ou privé.
B. Régulation par la loi
-
Encadrer par la loi toute collecte ou traitement algorithmique en contexte public, même pour “expérimentation”,
-
Interdire explicitement les systèmes de notation comportementale automatisée dans le droit français et européen.
C. Droits des citoyens renforcés
-
Renforcer le droit à l’explication algorithmique (RGPD art. 13-14),
-
Créer un droit de refus du profilage comportemental en temps réel.
D. Surveillance institutionnelle
-
Créer une mission parlementaire de contrôle des technologies de sécurité issues d’Horizon 2020,
-
Donner à la CNIL ou à un organisme indépendant un droit de veto sur les systèmes d’analyse vidéo à large échelle.
7. Conclusion
La progression discrète mais systématique du projet VICTORIA et de ses dérivés, en vertu d’une stratégie des petits pas, illustre parfaitement le danger d’une transformation technopolitique des démocraties en régimes de surveillance algorithmique douce.
Sans encadrement juridique ferme, ces outils peuvent devenir les infrastructures silencieuses d’un crédit social européen, incompatible avec l’État de droit.
Il appartient dès maintenant au législateur, aux juges, aux autorités administratives et à la société civile de prévenir cette dérive.
Commentaires
Enregistrer un commentaire