L’obsession de la surveillance : Quand se savoir vu détricote l’intimité et programme l’anxiété

par | 21 Nov 2025 | Cybernétique & Rétroaction

L’essentiel en 30 secondes

3 signaux que la surveillance colonise votre quotidien

  • Sommeil < 6h à cause des notifications/vérifications
  • Vous parlez comme si un jury vous écoutait
  • Vous évitez des lectures par peur de laisser une trace

3 micro-actions cette semaine

  • Paramétrer (30 min) : contrôles de confidentialité, purge des autorisations inutiles
  • Segmenter (15 min) : un compte « tests » pour explorer sans pression sociale
  • Soutenir (10 min) : écrire à sa ville/école/entreprise pour demander finalités, durée, audits

Une thèse iconoclaste, mais praticable

On parle trop de caméras, pas assez de corps. Les dispositifs de surveillance d’État ou d’entreprise, en ville ou au bureau, ne sont pas de simples yeux. Ce sont des moteurs émotionnels.

Ils reconfigurent l’attention, serrent la poitrine, polissent les comportements. À la longue, se savoir observé produit une anxiété tonique, une perte d’intimité et ce qui abîme les démocraties : le réflexe d’auto-censure.

Poser le décor : La maison aux miroirs sans tain

On vit comme dans une maison où certains murs sont des miroirs sans tain. Vous vous voyez, mais vous ignorez qui est de l’autre côté et quand il regarde. Alors vous corrigez votre tenue, vous changez vos mots, vous choisissez vos lectures. Pas parce que vous avez fauté, mais parce que ça pourrait être mal lu.

La surveillance généralisée, c’est un aquarium : l’eau est claire, on se croit libre, mais l’oxygène est mesuré.

On respire encore, certes, mais moins profond. Et quand l’air baisse d’un cran, on n’écrit plus exactement ce qu’on pense, on scrolle un peu plus, on renonce un peu plus souvent à l’imprévu.

Ce que disent les faits (et ce qu’ils font au psychisme)

Le cadre européen : Du papier à la réalité

La France a expérimenté la vidéosurveillance algorithmique durant Paris 2024. Le cadre était prétendument exceptionnel. Il a ouvert la porte à un usage prolongé débattu jusqu’en 2027. L’exception aime s’installer.

Côté UE, le Digital Services Act (DSA) impose transparence et audits des grandes plateformes, y compris pour la santé mentale. L’AI Act interdit plusieurs usages intrusifs (certaines reconnaissances biométriques en temps réel, avec des exceptions policières strictes).

Sur le papier, c’est un frein. Dans la pratique, tout dépendra des contrôles.

La jurisprudence européenne (CEDH, Big Brother Watch c. Royaume-Uni) rappelle l’exigence de garanties robustes. Les autorités de contrôle (CNIL) sanctionnent de plus en plus les dérives. Bon signe, si cela se traduit en changements structurels.

Au travail : Le monitoring ne tient pas ses promesses

Méta-analyses convergentes : le monitoring électronique augmente le stress, diminue la satisfaction, et n’améliore pas – de façon fiable – la performance. L’APA relève que 56 % des salariés monitorés se sentent tendus.

Des revues quantitatives (2022/2023) montrent des effets négatifs significatifs sur le bien-être.

Dans l’espace civique : L’effet glacé

Après les révélations Snowden, des travaux ont observé un repli mesurable sur certaines lectures et recherches sensibles (ex. Wikipedia), non pas parce que c’était illégal, mais parce que mieux vaut ne pas laisser de trace.

Ce n’est pas une théorie complotiste. C’est un comportement de réduction du risque.

Les trois boucles qui fabriquent l’anxiété

  • Imprévisibilité : qui regarde ? quand ? avec quelles conséquences ? L’incertitude nourrit l’anxiété et érode le sommeil.
  • Auto-censure : on évite certains mots, certains sites, certains sujets. À force, on rétrécit son monde.
  • Internalisation : l’œil extérieur devient une voix intérieure (« fais simple, fais sûr »). Bienvenue dans la prudence chronique.

Dommages invisibles, effets concrets

Psychiques

  • Anxiété tonique,
  • Hypervigilance,
  • Sommeil coupé,
  • Ruminations (« Et si ce mail ressortait ? »),
  • Dissociation sociale : faire semblant de croire à la neutralité des systèmes.

Affectifs/familiaux

Pudeur fonctionnelle, on parle en modules, on s’auto-modère. La règle tacite « ne laisse pas de trace » remplace « cherche la vérité ».

Sociaux/professionnels

Conformisme de survie. On publie l’inoffensif, on like le consensuel. Tout outil interne devient suspect, les idées minoritaires se taisent.

Réparer sans naïveté : Un manuel en 3 couches

Couche 1 – Hygiène attentionnelle et traçabilité personnelle

  • Deux fenêtres d’actualité par jour (20–30 min), pas de doomscroll (scrolling morbide) au lit.
  • Paramétrer ses comptes (public/privé), vérifier qui voit quoi.
  • Segmentation des identités numériques : pro/perso/expérimentation.
  • EPR informationnelle (exposition avec prévention de la réponse) : lire des contenus qui angoissent sans vérifier ni nettoyer pendant 10–15 min → observer la décrue de l’envie de ritualiser.

Couche 2 – Accords domestiques et d’équipe

  • À la maison : fixer un cadre simple (pas de débats nocturnes, pas d’archivage anxieux des messages)
  • En équipe : charte de mesure (ce qui est suivi, pourquoi, pendant combien de temps, avec quels retours et droits d’accès). Le monitoring déclaré et borné réduit la tension.

Couche 3 – Plaidoyer concret (pas incantatoire)

  • DSA : exiger des plateformes des résumés clairs de leurs évaluations de risques systémiques (dont santé mentale) et des mesures correctrices
  • AI Act : demander la publication des analyses d’impact droits fondamentaux lors d’usages policiers exceptionnels (biométrie)
  • CNIL/EDPB/EDPS : s’appuyer sur les avis et sanctions récentes pour installer des garde-fous locaux (collectivités, écoles, hôpitaux)

Grille minute SAC : Distinguer protection et panoptique

  • S – Surveillance : quoi est collecté ? (images, audio, métadonnées, émotions) → minimisation
  • A – Agence : ai-je un choix réel ? (consentement, opt-out, alternative) → sans choix, pas de vertu
  • C – Contrôle : qui audite, pendant combien de temps, avec quels recours ? → sunset, évaluations publiques, saisine facile

Règle d’or : si S est élevé (données sensibles, biométrie), alors A doit être plein (non-subi) et C fort (contrôle, durée bornée). L’inverse, c’est l’aquarium.

Un espace pour penser sans traces

Parlons du problème pratique que cet article soulève : si l’auto-censure vient de la peur de laisser des traces, où peut-on encore explorer ses pensées anxieuses sans se surveiller soi-même ?

Les moteurs de recherche tracent. Les réseaux sociaux monétisent vos peurs. Les forums gardent tout. Même vos notes privées dans certaines apps cloud sont analysées pour de la pub ciblée. Résultat : vous finissez par ne plus chercher certaines réponses, ne plus formuler certaines questions, par peur qu’elles ressortent.

C’est précisément pour cette raison que nous avons développé un outil d’analyse systémique interne (réservé aux abonnés Premium).

Ce que c’est

C’est un assistant conversationnel conçu pour vous accompagner sur toutes les questions interactionnelles que vous vous posez, sans tracking publicitaire, sans revente de données, sans historique permanent.

Ce que ça permet

  • Pratiquer l’EPR informationnelle mentionnée dans la couche 1 : poser les questions qui posent problèmes
  • Tester des pensées sensibles sans craindre qu’elles soient archivées ou utilisées contre vous un jour
  • Segmenter votre exploration : un espace pour les questions que vous n’osez pas poser ailleurs, même à un proche
  • Avoir un interlocuteur disponible 24/7 quand l’anxiété de surveillance vous réveille à 3h du matin

Pas de miracle

Notre outil d’analyse systémique n’est pas un thérapeute humain pour un suivi structuré. Mais pour désencombrer le mental, désamorcer une rumination nocturne, ou simplement penser à voix haute dans un espace qui ne vous note pas, c’est exactement ce qu’il faut.

L’ironie n’échappera à personne : utiliser un outil interactif pour échapper à la surveillance. Mais justement, le design compte. Notre outil d’analyse systémique a été pensé pour restaurer de la latitude attentionnelle, pas pour la capter. Pas de tableau de bord de productivité émotionnelle, pas de scoring, pas de notifications pour vous faire revenir.

Vous entrez, vous explorez, vous sortez. L’aquarium, c’est dehors.

Conclusion : Ouvrir la fenêtre

La surveillance n’est pas mauvaise par essence. Ce qui l’est, c’est la surveillance sans forme :

  • Sans finalité étroite,
  • Sans durée courte,
  • Sans contrôle extérieur.

Une société adulte n’a pas peur des yeux. Elle a peur des yeux sans paupières.

Pour respirer hors de l’aquarium, il ne suffit pas de mieux respirer. Il faut ouvrir une fenêtre (proportion, audits), épaissir l’intimité (réglages, segmentation, EPR), et exiger que chaque technologie de regard passe un examen public.

Action immédiate

Cette semaine, paramétrez vos comptes, segmentez vos identités numériques, et écrivez à une institution (ville, école, entreprise) pour demander finalités, durée, audits.

La sécurité n’est pas la négation de l’intimité. C’en est la condition.

Questions fréquentes

Mais la surveillance empêche les crimes, non ?

Parfois, oui : certaines caméras réduisent des délits opportunistes (parkings). Mais les effets sur la peur sont inégaux, et l’illusion de sécurité peut coexister avec des coûts psychiques. La vraie question n’est pas caméras ou pas, mais : quelles caméras, où, sous quel contrôle, pour combien de temps, avec quelles évaluations publiques ? Un dispositif de surveillance sans exposition ni audit n’est pas de la sécurité, c’est de l’habitude.

J’ai rien à cacher, pourquoi ça me concerne ?

L’anxiété liée à la surveillance ne vient pas de la culpabilité, elle vient de l’imprévisibilité : qui regarde ? Quand ? Avec quelles conséquences ? Des études post-Snowden montrent que même des personnes sans rien à cacher modifient leurs comportements de recherche et de lecture par réduction du risque. L’intimité n’est pas un luxe de coupables, c’est une condition de pensée libre. Quand tout peut être mal lu un jour, on finit par ne plus rien écrire d’intéressant.

Le RGPD/DSA/AI Act ne protègent-ils pas déjà suffisamment ?

Le droit existe – et c’est crucial – mais la mise en œuvre est la vraie question. Le DSA impose des évaluations de risques systémiques, dont la santé mentale ; l’AI Act restreint certaines identifications biométriques. Les autorités publient avis et sanctions. Reste à mesurer l’effet réel sur nos corps et nos comportements. Un cadre légal sans contrôles effectifs et sans pression citoyenne devient un décor. Votre vigilance active est le dernier verrou.

Mon employeur surveille mes performances, c’est normal, non ?

Mesurer n’est pas surveiller en continu. La littérature distingue pilotage et flicage : le second dégrade la santé et n’améliore pas la performance au niveau promis. 56 % des salariés monitorés se sentent stressés (APA), et les méta-analyses montrent des effets négatifs sur le bien-être sans gains fiables en productivité. Transparence, proportion et finalité comptent plus que la finesse des outils. Exigez une charte : ce qui est suivi, pourquoi, pendant combien de temps, avec quels droits d’accès et de rectification.

Comment savoir si je suis en train de glisser dans l’anxiété de surveillance ?

Trois signaux d’alerte :

  • (1) Vous dormez moins de 6–7 heures à cause des vérifications nocturnes ou des notifications.
  • (2) Vous parlez/écrivez comme si un jury vous écoutait, même dans l’intimité.
  • (3) Vous évitez certaines lectures, certains sujets ou certaines recherches par peur de laisser une trace, alors que ce n’est ni illégal ni immoral.

Si au moins deux de ces signaux sont présents depuis plusieurs semaines, votre environnement mental s’est modifié. Les micro-actions de la couche 1 (paramétrage, segmentation, EPR) peuvent restaurer votre latitude attentionnelle en 2–3 semaines.

Frédéric Arminot, analyse des systèmes interactionnels

À propos de l’auteur

 
Depuis plus de vingt ans, Frédéric Arminot étudie les dynamiques de communication et les mécanismes de régulation présents dans les systèmes humains.

Formé au modèle systémique de Palo Alto, il consacre ses travaux à l’analyse des interactions, des stratégies décisionnelles et des logiques comportementales observables dans les contextes personnels, collectifs et organisationnels.

Ses recherches portent sur la manière dont les boucles d’action et de rétroaction influencent la prise de décision, la coordination et la gestion des relations. Il privilégie une approche empirique, brève et pragmatique, centrée sur l’observation des comportements réels plutôt que sur l’interprétation psychologique.

Ses publications et études de cas explorent les applications concrètes de la cybernétique et de la théorie des systèmes à la compréhension des interactions humaines contemporaines : communication, influence, adaptation, leadership et innovation comportementale.

À travers cette démarche, il propose une lecture critique et méthodologique des pratiques de changement, en cherchant à relier la rigueur conceptuelle à l’expérience quotidienne des individus et des organisations.

Articles similaires