01 — identité

Qui sommes-nous ?

Un outil citoyen, indépendant et transparent pour décrypter le discours politique.

🎯L'intention

Le discours politique façonne les décisions collectives. Pourtant, les outils pour l'analyser sont réservés aux chercheurs, aux journalistes et aux experts. Le citoyen ordinaire doit se fier à son intuition — ou aux commentaires des autres.

Citizen Analyzer existe pour changer ça. L'objectif : donner à chaque citoyen les mêmes outils d'analyse que ceux dont disposent les professionnels, dans une interface accessible et compréhensible.

Ce n'est pas un outil qui dit "pour qui voter". C'est un outil qui dit "voici ce que contient réellement ce discours, voici les techniques utilisées, voici qui est affecté et comment". L'interprétation et le jugement restent toujours ceux du citoyen.

⚖️Notre positionnement
  • Non-partisan — Les mêmes grilles d'analyse sont appliquées à tous les bords politiques. Aucune pondération idéologique, aucun traitement de faveur.
  • Indépendant — Aucun financement politique, aucun sponsor partisan. Le projet est autofinancé et communautaire.
  • Transparent — Code source ouvert, méthodologie documentée, limites assumées. Tout est vérifiable et critiquable.
  • Respectueux — Aucune donnée personnelle collectée. Pas de publicité, pas de tracking, pas de revente de données.
🔧Le modèle

Citizen Analyzer est un projet associatif open source. L'outil est gratuit et le restera. Le code source est public sur GitHub. Les contributions de la communauté sont bienvenues, que ce soit sous forme de code, de traduction, de contenu éducatif ou d'analyses partagées.

Le projet n'affiche aucune publicité et ne revend aucune donnée. Les coûts d'infrastructure (serveurs, API) sont couverts par les contributions volontaires et l'autofinancement.

📬Contact

Pour toute question, suggestion, signalement de bug ou demande de partenariat, n'hésitez pas à nous contacter. Nous répondons à tous les messages.

02 — intention

Dans quel but ?

Passer de « je me méfie » à « je comprends pourquoi ». Citizen Analyzer ne dit pas quoi penser. Il donne les outils pour lire ce qu'on vous dit — et voir ce qu'on ne vous dit pas.

🎯Ce que l'outil fait concrètement
  • Détecte les domaines politiques touchés (droits, économie, sécurité…)
  • Identifie les mécanismes rhétoriques utilisés (28 types)
  • Évalue qui est affecté et dans quel sens
  • Repère les entités et lobbies mentionnés
  • Mesure la fiabilité globale du document
  • Situe le discours sur l'axe des régimes politiques
🚫Ce que l'outil ne fait pas

Citizen Analyzer ne dit jamais quoi voter, ni quel parti est "bon" ou "mauvais". Il ne produit pas de verdict. Il situe, il explique, il montre les mécanismes.

L'outil analyse un discours, pas une réalité. Il peut se tromper. Ses limites sont affichées dans chaque analyse.

Principe fondamental : un discours autoritaire ne fait pas d'un candidat un dictateur. Une rhétorique de peur ne signifie pas que la menace est fausse. L'outil analyse des mots, pas des intentions.
👥Pour qui ?
  • Citoyen lambda — qui veut comprendre sans avoir un master en science po
  • Journaliste — qui veut un premier regard structuré sur un discours
  • Enseignant — qui veut des exemples concrets d'analyse rhétorique
  • Chercheur — pour un premier regard structuré sur un corpus de documents
  • Collectif citoyen — qui veut alimenter un observatoire partagé
03 — contexte

Pourquoi maintenant ?

Les outils des experts ne sont pas accessibles au grand public. Les méthodes académiques qui permettent de décortiquer un discours restent enfermées dans les universités. Pendant ce temps, la production de contenu politique s'est multipliée par dix.

« L'asymétrie entre ceux qui produisent le discours politique et ceux qui le reçoivent n'a jamais été aussi grande. »
📊Le contexte : ce qui a changé
  • Accélération de la désinformation — le fact-checking réactif ne suffit plus
  • Opacité du lobbying — les registres existent (HATVP, UE) mais personne ne les consulte
  • Discours de plus en plus techniques — conçus pour déstabiliser, pas pour informer
  • IA générative — la production de contenu politique automatisée va exploser
  • Déficit de confiance institutionnel — les citoyens doutent sans avoir d'outils pour étayer leur doute
🏛Ce qui existait avant — et ses limites

Le fact-checking (AFP, Les Décodeurs, FullFact) : excellent mais réactif, centré sur les faits vérifiables, pas sur la structure rhétorique.

Les bases académiques (V-Dem, MARPOR, CAP) : rigoureuses mais réservées aux chercheurs, opèrent sur des corpus larges, pas sur un document isolé.

Les chatbots IA généralistes : produisent des analyses sans méthode explicitée, sans références, sans limites documentées.

La différence Citizen Analyzer : méthodes académiques sourcées + application à un document unique + limites et adaptations documentées dans chaque analyse.
04 — architecture

Comment s'affiche le site ?

Deux flux distincts alimentent le site. D'abord : comment une analyse individuelle est lue et affichée — du JSON jusqu'à chaque élément visible. Ensuite : comment le site se remplit au fil du temps — comment les contributions citoyennes enrichissent la bibliothèque, les tendances, et l'observatoire.

📦Le JSON — tout part de là

Chaque analyse produit un seul fichier JSON (15–40 KB). Ce fichier contient tout : résultats des trois passes d'analyse, scores, régime détecté, lobbies, fiabilité. Le site ne recalcule rien — il lit et affiche.

  • result.level1 → hero, score, résumé citoyen
  • result.level2/3 → onglets N2 et N3
  • trust → 10 blocs de fiabilité
  • regime → thermomètre politique
🌍La bibliothèque — comment elle grandit

Chaque analyse partagée alimente la base PostgreSQL. Les métadonnées sont indexées (domaines, scores, régimes, entités). Les tendances et alertes se recalculent via des requêtes SQL. Pas de machine learning, pas d'algorithme de recommandation. Les tendances sont des comptages bruts — documentés comme tels, avec leurs limites affichées.

05 — transparence

Pourquoi ces choix ?

Chaque méthode a une origine académique documentée. Chaque adaptation est expliquée. Chaque limite est affichée. Aucun score n'est opaque.

📚Les méthodes académiques mobilisées
  • V-Dem (Université de Gothenburg) — mesure de la démocratie, 5 dimensions → score impact démocratique
  • MARPOR / Manifesto Project (WZB Berlin) — analyse programmatique → positionnement idéologique (mode programme)
  • CAP (Comparative Agendas Project) — 21 domaines thématiques → classification des enjeux
  • Walton (1995) — logique informelle et sophismes → 28 mécanismes rhétoriques
  • Entman (1993) — théorie du cadrage → analyse des frames narratifs
  • Fairclough (1995) — analyse critique du discours → 12 leviers d'influence
  • Hallin & Mancini (2004) + MPM UE 2023 → boussole éditoriale (mode média)
  • Linz (1975) · Diamond (1999) · V-Dem → thermomètre politique
✂️Les adaptations — ce qui a été réduit et pourquoi

Ces méthodes opèrent normalement sur de grands corpus avec des équipes de codeurs humains. Citizen Analyzer les applique à un seul document via un LLM. Cela implique des réductions documentées :

  • MARPOR : 56 catégories → résumé thématique en langage citoyen (terminologie RILE jamais visible)
  • Boussole éditoriale : MPM 20 indicateurs → 5 axes simplifiés
  • V-Dem : mesure institutionnelle → transposition discoursive (avertissement systématique)
  • Régimes : classification d'un discours, pas d'un pays — distinction obligatoire dans l'UI
Principe : chaque réduction est documentée dans la page Méthodologie. L'outil ne prétend pas à la rigueur d'une étude académique — il offre une lecture structurée, sourcée et honnête sur ses limites.
Temporalité — pourquoi une analyse vieillit

Il n'existe pas de méthode académique standardisée pour mesurer la dégradation temporelle d'une analyse de discours. Citizen Analyzer applique une règle opérationnelle interne, justifiée par les pratiques de fact-checking (IFCN) et les cycles de révision V-Dem / MARPOR (annuels).

  • ✅ < 3 mois — dans le cycle d'actualité immédiate, aucun avertissement
  • 🟡 3–6 mois — "Le contexte a pu évoluer", vérification recommandée
  • 🟠 6 mois–1 an — "Un cycle électoral peut avoir changé la donne", relance suggérée
  • 🔴 > 1 an — malus pertinence, proposition de relancer affichée automatiquement

Le malus touche la pertinence actuelle — pas la validité de l'analyse au moment où elle a été faite. Cette distinction est affichée explicitement dans l’interface.

🤖Le rôle du LLM — ce qu'il fait, ce qu'il ne fait pas

Le LLM (GPT-4.1 pour les grands documents, GPT-4.1 mini pour les cas courants) analyse le texte et applique une grille normative documentée. Le score final est calculé par le backend Python selon une formule pondérée transparente — mais les critères évalués (rigueur factuelle, pluralité des sources, indépendance éditoriale, etc.) sont appréciés par le modèle à partir de trois bases : l'analyse du texte lui-même, sa connaissance encyclopédique sur les entités identifiées (propriétaires, historiques, controverses documentées), et les référentiels de déontologie journalistique encodés dans les prompts.

Le score est une évaluation argumentée et traçable — chaque verdict est justifié dans les blocs détaillés de l'analyse. Ce n'est pas une mesure externe indépendante. La connaissance encyclopédique du modèle a une date de coupure et n'est pas auditée entité par entité. Les prompts sont publics et critiquables.

🔒Vie privée — ce qui n'est jamais stocké
  • Le texte source analysé n'est jamais envoyé au site
  • Aucune adresse IP n'est stockée (hashée SHA-256 si nécessaire)
  • Aucun compte utilisateur, aucune session
  • Le JSON partagé est entièrement anonyme : métadonnées d'analyse uniquement
  • Pas de cookie, pas de tracking, pas de publicité
06 — fiabilité

Est-ce fiable ?

100%des catégories d'analyse issues de méthodes académiques publiées
16composants cotés sur échelles à seuils fixes — aucun chiffre libre produit par l'IA
0critère inventé — chaque grille a une référence : CAP · Walton · V-Dem · MARPOR…

L'outil est honnête sur ce qu'il ne sait pas. Chaque analyse affiche ses propres limites. Voici ce que vous pouvez lui faire confiance — et ce que vous devez vérifier vous-même.

🟢Ce que l'outil fait de façon fiable

Détecter des structures rhétoriques documentées, appliquer des grilles académiques de façon cohérente, identifier des domaines politiques, signaler des patterns de discours.

Ces opérations sont déterministes — même document, même résultat. Les mécanismes détectés (28 types rhétoriques, 9 domaines CAP, 12 leviers d'influence) sont appliqués de façon identique quel que soit le bord politique du document analysé.

⚠️Ce que l'outil ne peut pas garantir

Il analyse un discours, pas une réalité. Il ne vérifie pas les faits — il détecte si des faits sont invoqués de façon vérifiable. Il ne lit pas les intentions — il repère les mécanismes.

Un score bas ne signifie pas que l'auteur ment. Un score élevé ne signifie pas qu'il dit la vérité. L'outil mesure la structure du discours, pas sa véracité.

🤖Le biais LLM — ce qu'il faut savoir

C'est un modèle de langage qui interprète, pas un expert humain. Il peut se tromper sur le contexte, rater une ironie, sur-interpréter une tournure idiomatique.

C'est précisément pour ça que les méthodes sont documentées et les limites affichées dans chaque analyse — pour que vous puissiez juger par vous-même, pas pour vous demander de faire confiance aveuglément.

La temporalité — une analyse vieillit

L'analyse reste valide pour le document à la date où il a été analysé. Mais la position de l'auteur peut avoir évolué depuis.

  • ✅ < 3 mois — dans le cycle d'actualité immédiate
  • 🟡 3–6 mois — "Le contexte a pu évoluer", vérification recommandée
  • 🟠 6 mois–1 an — "Un cycle électoral peut avoir changé la donne", relance suggérée
  • 🔴 > 1 an — malus pertinence, proposition de relancer affichée

Règle opérationnelle interne — justifiée par les pratiques IFCN et les cycles de révision annuels V-Dem / MARPOR.

🔍Ce que vous devez vérifier vous-même

Chaque bloc de fiabilité (Trust) contient un champ check_next qui liste les sources externes à consulter pour aller plus loin :

  • HATVP.fr — déclarations d'intérêts et de patrimoine
  • Registre de transparence UE — lobbying européen
  • votewatch.eu — historique des votes parlementaires
  • INSEE · Eurostat — données statistiques de référence
  • AFP Factuel · Les Décodeurs · CheckNews — fact-checking professionnel
L'outil vous dit quoi chercher — pas ce que vous trouverez. Le fact-checking final reste humain.
07 — contribution

Comment puis-je aider ?

Plus il y a d'analyses partagées, plus la bibliothèque s'enrichit, plus les tendances sont significatives. Chaque contribution — même petite — compte.

🧩
Partager une analyse
Analysez un document avec l'extension et choisissez de le partager anonymement. C'est la contribution principale.
✍️
Signaler une erreur
Si une analyse vous semble inexacte — entité manquante, domaine mal classé — signalez via la page contributions.
📖
Enrichir la bibliothèque
Proposez des entités manquantes, des liens HATVP ou Registre UE. La bibliothèque grandit grâce aux citoyens.
💬
Donner du feedback
3 axes : cohérence du contenu · nuance de l'analyse · interface. Via le formulaire bêta ou par email.
💛
Faire un don
Via Cotizen (à venir). Pour financer l'infrastructure Railway, les appels API et la création de l'association.
🌍
Rejoindre le projet
L'association se construit. Si vous êtes chercheur, journaliste ou citoyen engagé : contactez-nous.
08 — tutoriel

Comment utiliser l'outil ?

L'extension s'installe en moins d'une minute. Une analyse prend 6 à 12 minutes selon la longueur du document — et est instantanée si le document est déjà en bibliothèque. Aucun compte requis, aucune inscription.

1
Installer l'extension
Disponible sur le Chrome Web Store et Firefox Add-ons (AMO). Cliquez "Installer" — c'est tout.
2
Ouvrir un document à analyser
Une page web, un article, un PDF ouvert dans le navigateur — ou collez directement un texte dans l'extension. 3 modes : discours, programme politique, article de presse.
3
Lancer l'analyse
Cliquez le bouton d'analyse. L'extension vérifie d'abord si le document est déjà en bibliothèque (via son URL) — si oui, résultat instantané. Sinon, le texte est envoyé au backend : 6 à 12 minutes selon la longueur.
4
Lire les résultats
Le panneau latéral s'ouvre avec le résumé citoyen, le score, les onglets N1/N2/N3 et Trust. Tout vient du même JSON — aucun recalcul, aucun appel supplémentaire.
5
(Optionnel) Partager ou exporter
Téléchargez le JSON, exportez un PDF ou partagez un lien direct. Si vous le souhaitez, contribuez à la bibliothèque en partageant anonymement l'analyse.
Les 3 cas — instantané, pipeline, ou redirection
  • URL connue + déjà en bibliothèque — résultat instantané dans le panneau latéral, zéro LLM
  • URL connue mais absente — pipeline 6–12 min, résultat dans l'extension, JSON indexé pour les prochains
  • Pas d'URL (PDF local, texte collé) — pipeline 6–12 min, redirection vers la page d'analyse sur le site

Si une analyse en bibliothèque a plus de 3 mois, l'extension propose de la relancer. Le document original était correct — c'est sa pertinence actuelle qui peut avoir évolué.

📱Quels navigateurs ?
  • Chrome / Chromium / Edge / Brave — supportés
  • Firefox — supporté (AMO)
  • Safari / Mobile — non supportés pour l'instant
📄Quels types de documents ?
  • Page web — l'extension lit le DOM visible
  • PDF dans le navigateur — extraction via PDF.js
  • Texte collé — jusqu'à la limite de tokens du modèle
Limite actuelle : les PDF scannés (images) ne sont pas supportés. L'OCR n'est pas encore implémenté.
💰Est-ce gratuit ?

Oui, totalement gratuit pendant la phase bêta. Le coût réel de chaque analyse est celui des appels API OpenAI (quelques centimes), absorbés par le projet. À terme : un modèle freemium est envisagé avec un quota d'analyses gratuites par mois.

09 — sous le capot

Mais comment ça fonctionne vraiment ?

Trois passes d'analyse s'enchaînent : détecter les structures dans le texte, analyser en profondeur, puis évaluer la fiabilité. Tout ça en un seul JSON, une seule réponse.

P1
Extraction & Détection
Impacts par domaine (CAP), groupes affectés (DIA OCDE), mécanismes rhétoriques (Walton · Entman · Fairclough), leviers d'influence (Cialdini), lobbies et conflits d'intérêts (Freeman · HATVP). 6 sous-analyses structurées, ordre déterministe.
P2
Analyse approfondie
Trois niveaux de restitution (develop / light / identified), vocabulaire contrôlé (25 mots max par phrase, jargon interdit), 16 composants bruts cotés sur échelles documentées. Le LLM produit les données brutes — le backend Python agrège le score final.
P3
Évaluation de la fiabilité
10 blocs de questions sur la fiabilité du document et de son auteur — sourcés sur IFCN, Ward (2004), Schedler (1999), Thurén (2005). Cohérence forcée : si P1 détecte des sophismes, P3 ne peut pas conclure à "fiable".
📐Le score — comment il est calculé

16 composants bruts produits par le LLM, cotés sur des échelles documentées. Trois familles :

  • Scoring textuel (7 critères) — intensité, portée, factuel, logique, transparence, impact global, dérive autoritaire
  • Crédibilité auteur (5 critères) — rôle public, affaires judiciaires, historique fake news, conflits d'intérêts, cohérence
  • Impact démocratique V-Dem (4 critères) — séparation des pouvoirs, pluralisme, droits fondamentaux, transparence
Principe : le LLM ne produit jamais un chiffre libre. Il cote sur une échelle avec seuils fixes. Le backend agrège avec une formule fixe.
🏗Stack technique
  • Extension — JavaScript vanilla, Manifest V3, Chrome + Firefox
  • Backend — Python / FastAPI, déployé sur Railway
  • LLM — OpenAI GPT-4.1 (grands PDF) + GPT-4.1 mini (cas courants)
  • Base de données — PostgreSQL (Railway), JSONB pour le stockage des analyses
  • Domaine — api.citizen-analyzer.org