Civic Tech face aux défis de notre démocratie
Introduction
La France connaît aujourd’hui une profonde crise démocratique. Selon un sondage publié en février 2025 par OpinionWay pour le Cevipof (Centre de recherches politiques de Sciences Po), près d'un Français sur deux estime qu' "en démocratie rien n'avance, il vaudrait mieux moins de démocratie mais plus d'efficacité" et 73 % des Français demandent « un vrai chef pour remettre de l’ordre ». La crise qui se manifeste notamment par la montée de l’extrême droite et les taux d’abstention élevées ces dernières années.
Une situation qui semble se dégrader : il y a encore quelques années, 84% des Français pensaient que les citoyens devaient prendre une part plus importante dans le processus de prise de décision politique, d’après une étude menée par l'Ifop pour Décider Ensemble en décembre 2021. La question qu’on pourrait alors se poser est comment redonner confiance dans la démocratie et redynamiser la participation citoyenne ? La question qui semble d’autant plus complexe que le développement à une vitesse inquiétante de l’IA est déjà en train de changer profondément le fonctionnement de nos démocraties.
Nombreuses sont les initiatives - gouvernementales ou pas - pour tenter d’améliorer le processus démocratique : la Convention citoyenne pour le climat, le Grand Débat National, le budget participatif dans des collectivités territoriales, Les États Généraux des Migrations… Une bonne partie de ces initiatives a pu se développer en partie grâce au numérique. On pense, par exemple, à des consultations des citoyens en ligne via des plateformes comme Make.org ou aux budgets participatifs mis en place dans certaines villes pour faire participer les citoyens aux décisions budgétaires de leur collectivité.
En effet, l’espace numérique réunit de nombreux avantages, comme le souligne Patrice Flichy :« Internet, contrairement à la radio ou à la télévision, met en situation d’égalité l’émetteur et récepteur, c’est donc à première vue l’outil idéal pour une démocratie participative où le citoyen pourrait intervenir très régulièrement dans le débat public ». La toile connecte 4,9 milliards de citoyens - et 54,7 millions d’individus en France - et a donc un superpouvoir de dialogue, de discussion, avec une information qui circule instantanément et quasi gratuitement. Internet semble être une vraie opportunité pour connecter les citoyens entre eux et avec leurs dirigeants.
Cependant, cette toile est aussi l’arène des fake news, hackers, complotistes et favorise “ l’effet bulle”. Comme l’explique Eli Pariser dans son ouvrage “The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think”, les algorithmes de recommandation des plateformes tels que Facebook, Instagram, YouTube etc nous exposent moins, voire jamais, aux contre-arguments et nous renferment dans nos croyances. Moins d’exposition à la diversité des opinions conduit à la radicalisation des idées dans certains cas et augmente le risque de désinformation. Et avec le développement fulgurant de l’intelligence artificielle, de nouveaux défis urgents s’imposent à nos démocraties. En vue des dernières évolutions réglementaires (AI Act dans l’UE) et des annonces faites lors du Sommet de l’IA 2025 à Paris, il nous semble important de réfléchir à comment l’IA peut être un danger mais aussi une opportunité au service des Civic Tech pour nos démocraties.
Zoom sur l’IA : menace pour la démocratie ?
Les algorithmes de plus en plus puissants permettent de générer du contenu difficilement différenciable d’une information vraie, accélérant ainsi la prolifération des deepfakes et des fakenews qui influencent l’opinion publique et donc les élections. Il suffit de se rappeler des dernières élections européennes et des législatives en France où l’extrême droite a utilisé l’intelligence artificielle pour faire passer ses messages, d’après un rapport de l’ONG AI Forensics. Et chaque jour c’est 1,9 milliard de fakenews qui sont publiées en 24h, selon ID Crypt Global.
L’utilisation de l’intelligence artificielle à mauvais escient peut également porter atteinte aux droits humains via des systèmes de surveillance et de reconnaissance faciale. Ainsi, l'IA est utilisée pour le contrôle des frontières et les conflits armés, telle "Lavender", une IA qui a ciblé des personnes présumées terroristes, causant la mort de milliers de civils gazaouis. Ou encore un dispositif de détection de mensonges iBorderCtril, testé en Hongrie, en Grèce et en Lettonie : grâce à l’intelligence artificielle les moindres détails des expressions sont détectés et les décisions produites par l’IA peuvent peser lourd sur le destin des milliers de personnes exilées.
Ce sont aussi nos données privées et publiques qui sont en jeu. Le 16 avril 2025 Meta a annoncé que tout le contenu public de ses plateformes, à l’exception de sa messagerie privée WhatsApp, allait être utilisé pour entraîner ses modèles d’IA générative, à moins que les utilisateurs ne s’y soient opposés avant le 27 mai 2025.
L’IA peut malheureusement aussi être un outil de discriminations et de propagation d’idées racistes. On parle même de “l’annihilation symbolique”, un phénomène où des cultures entières deviennent invisibles dans les bases de données de l'IA. Les scandales survenus ces dernières années en sont la preuve : des algorithmes de santé présentant des biais sexistes et racistes, un algorithme des services de l’emploi en Autriche empêchant l’orientation des femmes vers le secteur informatique, ainsi que des cas de discrimination et de contrôle excessif des usagers de la Caisse nationale des allocations familiales en France, au Danemark et aux Pays-Bas. A cela s’ajoute l'accroissement des inégalités entre les pays du Nord et du Sud, les derniers n’ayant pas suffisamment de moyens prennent du retard dans la “course à l’IA” la plus puissante et subissent en plus des conséquences désastreuses sur l’environnement du fait de l’extraction des minerais nécessaires pour la production des batteries et des des serveurs. La question de l’exploitation des travailleurs du Sud se pose également, comme les Kenyans payés moins de 2 $ de l'heure par OpenAI pour labelliser des contenus toxiques. Enfin, en 2025, on estime que 49,3 % du web sera anglophone, marginalisant d'autres langues et cultures.
Enfin, les biais de l'IA face aux défis environnementaux sont alarmants. Une étude de l'Université de Colombie-Britannique sur 1 500 réponses de chatbots a montré que dans 72 % des cas, ces IA ne remettent pas en cause les actions des entreprises et des investisseurs, et évitent de citer des solutions systémiques comme la remise en question du capitalisme ou la désobéissance civile.
Face à ces actualités sombres dans le contexte de la révolution apportée par l’intelligence artificielle, il est essentiel de se poser de bonnes questions pour trouver des moyens de protéger et redynamiser nos démocraties, une mission où les Civic Tech ont un grand rôle à jouer.
Civic Tech : multiples définitions
La notion de Civic Tech est une notion parfois fourre-tout, aux contours flous. La Knight Foundation, l’une des premières instances à en donner une définition, la décrit comme “tout projet à finalité ouvertement citoyenne qui utilise les nouvelles technologies”. Cette définition très large peut prendre en compte des plateformes d’échanges d’information et collaboratives comme Waze ou Wikipedia. Nous nous concentrerons ici sur une définition plus restrictive de la Civic Tech en la réduisant à toutes les technologies qui permettent de renforcer et de protéger la démocratie - nous excluons ainsi les poltech (technologies à visées électorales) et les govtech (plateformes mises en place par les institutions gouvernementales pour améliorer leur fonctionnement). Clément Mabi, maître de conférence à l’UTC de Compiègne en donne une définition similaire en la définissant comme “l’ensemble des initiatives visant à transformer les règles du jeu démocratique en intégrant une culture du numérique”. Nous ne nous concentrerons cependant pas uniquement sur la démocratie gouvernementale, mais aussi sur la démocratie au sein d’une association, d’une entreprise, ou de toute structure ayant un groupe décisionnaire.
Le marché de la Civic Tech regroupe une multitude d’acteurs qui peuvent avoir divers statuts juridiques : des ONG, des associations, des collectifs, des entreprises privées. Les ONG et les associations sont largement majoritaires dans le paysage. Les Civic Tech prennent la forme d’un interlocuteur entre un groupe de collaborateurs (citoyens français, collaborateurs d’une entreprise…) et un groupe décisionnaire. De fait, elle doit autant impliquer le groupe de collaborateurs que les décisionnaires. Gouvernement, collectivités, entreprises et institutions publiques sont ainsi impliqués dans ce marché. Les collaborateurs de la Civic Tech sont donc variés et s’imbriquent, comme des poupées russes : le citoyen, vivant dans une commune, est aussi salarié, et probablement membre d’une association sportive, peut utiliser une Civic Tech dans chacune des strates de sa citoyenneté.
Il y a plusieurs champs d’action et typologie de Civic Tech : plateformes de pétition et lobbying citoyen (Change.org), d’action collective (Ecotizen), de dialogue avec les élus (Fluicity), ainsi que des plateformes de participation et de budget participatif (Cap Collectif). Souvent, on retrouve en filigrane la volonté d’augmenter et de faciliter la participation citoyenne, de promouvoir une plus grande transparence politique, et de désintermédier le dialogue entre les élus et les administrés.
Par exemple, Make.org est une plateforme de mobilisation citoyenne qui vise à transformer la société en permettant à chacun de proposer, voter et agir sur des idées pour l'intérêt général. Depuis sa création, elle a impliqué plus de 5 millions de citoyens et collaboré avec plus de 150 organisations partenaires. Une de ses consultations emblématiques, "Comment agir ensemble pour l’environnement ?", a recueilli plus de 1,8 million de contributions. Cette initiative a permis de mettre en œuvre des projets concrets, tels que des campagnes pour réduire les déchets plastiques et promouvoir les circuits courts !
Toutes les parties prenantes ont des intérêts différents et des enjeux différents sur le marché des Civic Tech, qui s’avère, à bien des égards, nébuleux.
Particularités du marché des Civic Tech
Tout d’abord, se pose la question du financement de telles initiatives. On a vu que les acteurs de la Civic Tech vont des petites organisations locales (Rudi) à des organisations à portée mondiale (Avaaz.org), en passant par de belles startups ambitieuses (Make.org). On a donc des modèles lucratifs, des modèles open source (souvent des associations), ou des modèles portés par des subventions publiques. Ce qui est sûr, c’est qu’une civitech doit trouver des solutions de tiers financement, car faire payer le citoyen pour de la démocratie serait un non-sens total (la démocratie, c’est gratuit !). Dans le même temps, si un acteur de la Civic Tech se rapproche de financeurs, qu’ils soient privés ou publics, on peut rapidement imaginer les conflits d'intérêt qui peuvent en découler. Donc, peu importe la forme de la Civic Tech, l’enjeu de son financement est un point à surveiller de près pour garantir l’indépendance et l’impartialité de la structure.
Concernant plus particulièrement les startups, une Civic Tech qui lève des fonds doit redoubler d’efforts sur le choix de ses actionnaires pour s’assurer qu’ils partagent la même vision. La valorisation est également un sujet sensible : valoriser les données est l'écueil dans lequel il ne faut pas tomber. Selon nous, la valeur d’une Civic Tech réside bien plus dans le nombre de décisions démocratiques qu’elle permet de prendre, dans le nombre de personnes éloignées des sentiers démocratiques qu’elle permet de toucher.
Autre point marquant du marché de la Civic Tech est la concurrence qui pose un certain nombre de questions. La démocratie doit en effet rassembler tous les citoyens. Les coalitions d’acteurs des Civic Techs nous semblent être nécessaires pour maximiser l’efficacité de leurs actions respectives.
Et quid de la régulation ?
Concernant la régulation, plusieurs points sont également très importants : comment s’assurer de l’impartialité des outils de Civic Tech ? Comment protéger les données collectées lors des consultations citoyennes ?
L’acteur de référence en France sur ces questions est la Commission Nationale de l'Informatique et des Libertés (CNIL) qui intervient pour garantir que les données collectées dans le cadre des consultations citoyennes (identité, opinions, etc.) soient traitées de manière conforme au RGPD (principe de minimisation, durée de conservation, etc.).
D’autres outils de garde-fous s’avèrent être nécessaires pour protéger nos données et vérifier des informations diffusées. Par exemple, askvera est un chatbot développé par une ONG LaReponse.Tech qui permet de vérifier si une information est une fake news ou pas. Ou encore Vaultys qui propose des outils d’identification et d’authentification décentralisés pour une sécurité numérique renforcée.
Enfin, l’intelligence artificielle a également un grand potentiel à jouer pour à la fois protéger nos démocraties et prévenir des risques, si utilisée à bon escient. Dans cet article nous n’explorons pas en détail de nombreuses possibilités déjà mises en place qui permettent, par exemple, aux Civic Tech de s’adresser à plus de citoyens ou aux outils de garde-fous de détecter des menaces plus rapidement. Mais il nous semble important de faire focus sur les initiatives qui permettent de mettre l’IA au service de la démocratie, plutôt que de la compromettre.
IA : faire d’une menace une opportunité
Comme annoncé lors du Sommet de l’IA 2025, l’un des objectifs est de rendre “l’IA plus inclusive et durable pour les peuples et la planète”. Et pour cela l’enjeu premier est de “comprendre ce que fait l’IA et d’en informer les citoyens … pour la faire servir pour le bien et l'utiliser contre le pire”, souligne Frédéric Worms, professeur de philosophie et directeur de l'École normale supérieure, dans un entretien accordé à France Inter. C’est un’enjeu sur lequel les citoyens semblent être d’accord.
Dans un rapport de Make.org, réunissant les idées de 12 000 citoyens, plusieurs idées émergent et semblent faire consensus : sensibiliser et informer le public, réglementer l'IA, y compris au niveau mondial, et l'intégrer aux outils existants plutôt que de les remplacer.
Il est essentiel que les discussions se poursuivent au niveau global pour prévenir et contrôler les risques de l’IA sur nos démocraties. Une avancée majeure est l’adoption de l’IA Act par le Parlement Européen dont les premières mesures sont entrées en vigueur en février 2025. Concrètement, seront interdits les logiciels de “notation sociale”, qu’ils soient privés ou publics, à l’image de ceux déployés en Chine, ainsi que les intelligences artificielles de “police prédictive individuelle” cherchant à évaluer la probabilité qu’une personne commette une infraction. S'ajoute à cela la “reconnaissance des émotions” utilisée en milieu professionnel ou scolaire pour analyser le comportement des employés et des élèves et “l’exploitation des vulnérabilités des personnes, la manipulation ou les techniques subliminales”. L’identification des individus par reconnaissance faciale en temps réel dans l’espace public, ainsi que la classification biométrique visant à déduire des informations sensibles telles que l’origine ethnique, les convictions politiques ou religieuses, l’orientation sexuelle ou l’appartenance syndicale sont également bannies, à quelques exceptions pour les forces de l’ordre.
La diversification des sources de données et la reconnaissance de la valeur des créateurs issus de différentes cultures sont également essentielles à intégrer pour réduire les biais et favoriser une IA plus inclusive. Le cœur du problème est, cependant, que l’appareil législatif s’adapte très lentement aux innovations technologiques qui chaque jour deviennent plus performantes et plus difficiles à contrôler : ainsi, les volets principaux de l’IA Act entreront en vigueur qu’en août 2025, notamment des obligations de transparence pour ChatGPT, Gemini ou Le Chat.
Néanmoins, la question de la régulation de l’IA ne peut plus être laissée qu’à la main des gouvernements ou des grandes organisations internationales. En adoptant une approche plus horizontale et collaborative, la société civile a aussi un rôle à jouer pour limiter les risques potentiels de l’IA pour nos démocraties. L’objectif est triple :
Garantir que les citoyens ont le pouvoir de voter en toute conscience, sans manipulation, dans un système pluraliste et maintenir la possibilité d'une alternance politique ;
Exploiter l'IA pour une démocratie participative à grande échelle, en renforçant l'implication de plus de citoyens ;
Renforcer la résilience de la société face aux profonds changements qu'apporte l'IA pour préserver la stabilité démocratique.
Des initiatives émergent pour répondre à ces défis : lancée par Make.org après l’AI World Summit en février 2025, The Worldwide Alliance for AI & Democracy réunit des acteurs clés - société civile, universités, ONG, innovateurs et institutions - qui conduisent tous des initiatives concrètes pour renforcer la résilience démocratique et amplifier l'impact collectif. Ou encore le Dialogue national sur l’intelligence artificielle lancé en juin 2025.
Conclusion
En conclusion, il ne faut pas oublier que la Civic Tech ne résout pas - et n’entend pas résoudre - les problèmes structurels de notre société, notamment parce qu’elle ne remplace pas d’autres formes de participation citoyenne (et elle exclut d’ailleurs 15% de la société française qui est en situation d’illectronisme, selon Insee). L’une des raisons pour lesquelles les Français ont ce malaise démocratique est également le manque de justice sociale ressenti, qui provoque un sentiment d’abandon de l'État et insuffle l’envie de ne plus croire au système démocratique.
Les Civic Tech ont, en revanche, le potentiel de renouer le dialogue entre citoyens et élus, d’injecter plus de transparence dans le fonctionnement des institutions et de réinventer les formes de pouvoir d’agir des habitants. Le développement de l’IA représente à la fois un risque et une opportunité pour nos démocraties, un sujet qui devient central pour tous, y compris les Civic Tech. L’enjeu est de détourner l’usage de l’IA à des fins de manipulation, d’ingérence, de déstabilisation d’un pays et d’en faire un outil qui rendrait la participation citoyenne encore plus massive, renforçant ainsi nos démocraties.
Découvrez notre mapping (non exhaustif !) des acteurs français et européens de la Civic Tech et n’hésitez pas à nous contacter pour le compléter.
Crédit photo (photo de couverture) : NewUnion_org de Pixabay