En 2023, la Commission européenne a classé certaines utilisations de l’intelligence artificielle parmi les pratiques à « risque inacceptable », interdisant leur déploiement dans l’espace public. Pourtant, malgré les alertes de chercheurs et de régulateurs, des systèmes de surveillance automatisée et de scoring social franchissent régulièrement les frontières nationales.Cette prolifération s’accompagne d’une concentration sans précédent du pouvoir algorithmique entre les mains de quelques acteurs, souvent privés et opaques. Certains opposants dénoncent une asymétrie d’information et une dépossession des droits fondamentaux, tandis que les cadres juridiques peinent à suivre la cadence de l’innovation.
Oppression numérique : comprendre les nouveaux rapports de pouvoir
L’intelligence artificielle s’infiltre dans chaque recoin de la société, changeant les règles du jeu. Les GAFAM, Google, Microsoft, Amazon, Apple, mènent la danse, s’arrogent les ressources et verrouillent l’ensemble du marché. La Silicon Valley impose sans relâche son tempo pendant que l’Union européenne tente d’établir des remblais. En France, on avance avec prudence, partagé entre la promesse industrielle et la nécessité de défendre l’espace démocratique.
L’administration, elle, peine à suivre le rythme effréné de ces nouveaux modèles d’analyse et d’automatisation. À peine un usage s’installe qu’un autre débarque : diagnostics automatisés dans la santé, recrutement par algorithmes, justice prédictive. L’efficacité brandie en étendard masque souvent un risque plus discret : chaque citoyen peut à présent être jugé par une logique qui lui demeure étrangère, et dont l’opacité s’avère redoutable.
Pour saisir l’ampleur du phénomène, trois réalités s’installent déjà :
- Des décisions algorithmiques qui, dans bien des situations, échappent à toute contestation humaine
- Des comportements standardisés, les différences gommées par l’automatisation
- Une dépendance accentuée vis-à-vis d’infrastructures technologiques détenues par quelques sociétés privées
Les bases de données se multiplient, les modèles apprennent à grande vitesse, les plateformes façonnent nos choix sans bruit, souvent à notre insu. Cette intelligence artificielle connectée modifie l’équilibre social, concentre les leviers d’action, soulève la question d’une souveraineté numérique fragilisée. Désormais, progrès technologique et libertés publiques avancent en parallèle, mais la ligne qui les sépare devient chaque jour plus ténue.
Qui s’oppose aux intelligences artificielles et pourquoi ?
La contestation prend de l’ampleur et se structure. Chercheurs, écrivains, syndicalistes, associations citoyennes : la résistance s’organise, bien loin des fantasmes futuristes. En France, la vigilance à l’égard du pouvoir technologique n’est pas nouvelle ; elle s’inscrit dans une longue tradition de débats sur la protection collective.
Elon Musk fait entendre sa voix parmi les têtes d’affiche de la tech. Ses alertes portent sur la perte de contrôle, l’usage militaire des IA, le risque de manipulation généralisée. Certains y voient un calcul personnel, d’autres apprécient cette lucidité face à l’hégémonie incontestée des géants américains. Outre-Atlantique, Donald Trump adopte une posture différente : refus d’un traitement arbitraire par les algorithmes, défense d’un pouvoir national affaibli.
Le droit d’auteur cristallise aussi de nombreuses inquiétudes. Les créateurs redoutent la disparition de leur empreinte dans les modèles génératifs, sans reconnaissance ni compensation réelle. Les enjeux sont clairs : respect des droits fondamentaux, disparition de certains métiers, lutte contre la reproduction de biais préexistants.
Au fil de cette opposition, trois profils majeurs émergent :
- Chercheurs : réclament des pauses dans le déploiement des IA et exigent davantage de transparence
- Associations : s’engagent pour une régulation solide et défendent les libertés publiques
- Créateurs : se battent pour que leur rémunération et leur propriété intellectuelle soient préservées
À mesure que la mobilisation s’intensifie, une exigence s’impose : que le futur technologique ne soit pas confisqué par quelques géants, mais bénéficie à l’ensemble de la société, ici et au-delà des frontières nationales.
Entre surveillance et manipulation : les risques concrets pour nos libertés
La collecte massive de données personnelles par les grandes plateformes bouleverse les repères liés à la vie privée. Sur Facebook, Meta et l’ensemble des réseaux sociaux, chaque action alimente une gigantesque banque d’informations. L’intelligence artificielle transforme ce flux en profils détaillés, capables d’anticiper ou d’orienter le moindre de nos gestes.
Petit à petit, la manipulation invisible s’installe. Les recommandations personnalisées, les publicités fines, les contenus taillés à nos goûts créent un sentiment de liberté alors même que le libre arbitre recule. Les récentes controverses sur l’utilisation des données chez Meta ou la montée en puissance des Data Centers en disent long : ces centres de données emmagasinent, redistribuent et exploitent nos traces numériques, tout en pesant lourdement sur les ressources, notamment l’eau.
Le RGPD offre un cadre réglementaire à l’échelle européenne pour garantir la protection des données. Pourtant, les géants du numérique disposent de moyens inédits pour tourner les obstacles. ChatGPT, Google et d’autres acteurs mondiaux exploitent nos informations pour affiner leurs outils et consolider leur domination.
Voici de quelle manière s’exerce cette surveillance aujourd’hui :
- Analyse automatisée de toutes les conversations circulant sur les plateformes sociales
- Extraction continue d’informations sur nos habitudes et comportements
- Profilage psychologique réalisé à une échelle industrielle
À force, la barrière entre service rendu et surveillance permanente s’effrite. Le contrôle social s’intensifie, et la menace d’une restriction progressive de la liberté individuelle s’affirme.
Réfléchir et agir face à l’emprise de l’IA sur nos données personnelles
Le contrôle des données personnelles devient un terrain d’affrontement palpable. Les algorithmes rivalisent d’ingéniosité, utilisant la masse de données recueillies au fil de notre activité numérique. Le RGPD fournit un cadre, mais il existe souvent un écart entre la règle et ce qui se fait vraiment. Chaque photo partagée sur Instagram, chaque requête saisie sur Google ou chaque message, nourrit une machine complexe, pilotée au cœur même de puissants centres de données.
Dans ce contexte, la vigilance s’impose comme une nécessité. Les discussions collectives sur les outils numériques prennent de l’ampleur, même si certains réglages proposés restent limités et laissent une large place à l’exploitation commerciale de la vie privée. Les modèles d’intelligence artificielle s’enrichissent de nos traces, fréquemment sans consentement. L’agitation universitaire se fait sentir, mais l’industrie poursuit imperturbablement sa course en avant.
Pour ceux qui cherchent à regagner le contrôle, plusieurs réponses concrètes émergent :
- Demander aux plateformes des comptes clairs sur l’utilisation de leurs données personnelles
- Adapter ses pratiques numériques : partager moins d’informations sensibles, préférer les systèmes de communication sécurisés
- Soutenir les initiatives engagées dans la protection des données et la défense de la vie privée
Au fil des jours, le terrain technologique continue de s’étendre. La question reste entière : jusqu’où sommes-nous prêts à céder du terrain, et comment renverser la tendance pour que la confidentialité ne devienne pas un souvenir du passé ?


