Un outil citoyen, indépendant et transparent pour décrypter le discours politique.
Le discours politique façonne les décisions collectives. Pourtant, les outils pour l'analyser sont réservés aux chercheurs, aux journalistes et aux experts. Le citoyen ordinaire doit se fier à son intuition — ou aux commentaires des autres.
Citizen Analyzer existe pour changer ça. L'objectif : donner à chaque citoyen les mêmes outils d'analyse que ceux dont disposent les professionnels, dans une interface accessible et compréhensible.
Ce n'est pas un outil qui dit "pour qui voter". C'est un outil qui dit "voici ce que contient réellement ce discours, voici les techniques utilisées, voici qui est affecté et comment". L'interprétation et le jugement restent toujours ceux du citoyen.
Citizen Analyzer est un projet associatif open source. L'outil est gratuit et le restera. Le code source est public sur GitHub. Les contributions de la communauté sont bienvenues, que ce soit sous forme de code, de traduction, de contenu éducatif ou d'analyses partagées.
Le projet n'affiche aucune publicité et ne revend aucune donnée. Les coûts d'infrastructure (serveurs, API) sont couverts par les contributions volontaires et l'autofinancement.
Pour toute question, suggestion, signalement de bug ou demande de partenariat, n'hésitez pas à nous contacter. Nous répondons à tous les messages.
Passer de « je me méfie » à « je comprends pourquoi ». Citizen Analyzer ne dit pas quoi penser. Il donne les outils pour lire ce qu'on vous dit — et voir ce qu'on ne vous dit pas.
Citizen Analyzer ne dit jamais quoi voter, ni quel parti est "bon" ou "mauvais". Il ne produit pas de verdict. Il situe, il explique, il montre les mécanismes.
L'outil analyse un discours, pas une réalité. Il peut se tromper. Ses limites sont affichées dans chaque analyse.
Les outils des experts ne sont pas accessibles au grand public. Les méthodes académiques qui permettent de décortiquer un discours restent enfermées dans les universités. Pendant ce temps, la production de contenu politique s'est multipliée par dix.
Le fact-checking (AFP, Les Décodeurs, FullFact) : excellent mais réactif, centré sur les faits vérifiables, pas sur la structure rhétorique.
Les bases académiques (V-Dem, MARPOR, CAP) : rigoureuses mais réservées aux chercheurs, opèrent sur des corpus larges, pas sur un document isolé.
Les chatbots IA généralistes : produisent des analyses sans méthode explicitée, sans références, sans limites documentées.
Deux flux distincts alimentent le site. D'abord : comment une analyse individuelle est lue et affichée — du JSON jusqu'à chaque élément visible. Ensuite : comment le site se remplit au fil du temps — comment les contributions citoyennes enrichissent la bibliothèque, les tendances, et l'observatoire.
Chaque analyse produit un seul fichier JSON (15–40 KB). Ce fichier contient tout : résultats des trois passes d'analyse, scores, régime détecté, lobbies, fiabilité. Le site ne recalcule rien — il lit et affiche.
result.level1 → hero, score, résumé citoyenresult.level2/3 → onglets N2 et N3trust → 10 blocs de fiabilitéregime → thermomètre politiqueChaque analyse partagée alimente la base PostgreSQL. Les métadonnées sont indexées (domaines, scores, régimes, entités). Les tendances et alertes se recalculent via des requêtes SQL. Pas de machine learning, pas d'algorithme de recommandation. Les tendances sont des comptages bruts — documentés comme tels, avec leurs limites affichées.
Chaque méthode a une origine académique documentée. Chaque adaptation est expliquée. Chaque limite est affichée. Aucun score n'est opaque.
Ces méthodes opèrent normalement sur de grands corpus avec des équipes de codeurs humains. Citizen Analyzer les applique à un seul document via un LLM. Cela implique des réductions documentées :
Il n'existe pas de méthode académique standardisée pour mesurer la dégradation temporelle d'une analyse de discours. Citizen Analyzer applique une règle opérationnelle interne, justifiée par les pratiques de fact-checking (IFCN) et les cycles de révision V-Dem / MARPOR (annuels).
Le malus touche la pertinence actuelle — pas la validité de l'analyse au moment où elle a été faite. Cette distinction est affichée explicitement dans l’interface.
Le LLM (GPT-4.1 pour les grands documents, GPT-4.1 mini pour les cas courants) analyse le texte et applique une grille normative documentée. Le score final est calculé par le backend Python selon une formule pondérée transparente — mais les critères évalués (rigueur factuelle, pluralité des sources, indépendance éditoriale, etc.) sont appréciés par le modèle à partir de trois bases : l'analyse du texte lui-même, sa connaissance encyclopédique sur les entités identifiées (propriétaires, historiques, controverses documentées), et les référentiels de déontologie journalistique encodés dans les prompts.
Le score est une évaluation argumentée et traçable — chaque verdict est justifié dans les blocs détaillés de l'analyse. Ce n'est pas une mesure externe indépendante. La connaissance encyclopédique du modèle a une date de coupure et n'est pas auditée entité par entité. Les prompts sont publics et critiquables.
L'outil est honnête sur ce qu'il ne sait pas. Chaque analyse affiche ses propres limites. Voici ce que vous pouvez lui faire confiance — et ce que vous devez vérifier vous-même.
Détecter des structures rhétoriques documentées, appliquer des grilles académiques de façon cohérente, identifier des domaines politiques, signaler des patterns de discours.
Ces opérations sont déterministes — même document, même résultat. Les mécanismes détectés (28 types rhétoriques, 9 domaines CAP, 12 leviers d'influence) sont appliqués de façon identique quel que soit le bord politique du document analysé.
Il analyse un discours, pas une réalité. Il ne vérifie pas les faits — il détecte si des faits sont invoqués de façon vérifiable. Il ne lit pas les intentions — il repère les mécanismes.
Un score bas ne signifie pas que l'auteur ment. Un score élevé ne signifie pas qu'il dit la vérité. L'outil mesure la structure du discours, pas sa véracité.
C'est un modèle de langage qui interprète, pas un expert humain. Il peut se tromper sur le contexte, rater une ironie, sur-interpréter une tournure idiomatique.
C'est précisément pour ça que les méthodes sont documentées et les limites affichées dans chaque analyse — pour que vous puissiez juger par vous-même, pas pour vous demander de faire confiance aveuglément.
L'analyse reste valide pour le document à la date où il a été analysé. Mais la position de l'auteur peut avoir évolué depuis.
Règle opérationnelle interne — justifiée par les pratiques IFCN et les cycles de révision annuels V-Dem / MARPOR.
Chaque bloc de fiabilité (Trust) contient un champ check_next qui liste les sources externes à consulter pour aller plus loin :
Plus il y a d'analyses partagées, plus la bibliothèque s'enrichit, plus les tendances sont significatives. Chaque contribution — même petite — compte.
L'extension s'installe en moins d'une minute. Une analyse prend 6 à 12 minutes selon la longueur du document — et est instantanée si le document est déjà en bibliothèque. Aucun compte requis, aucune inscription.
Si une analyse en bibliothèque a plus de 3 mois, l'extension propose de la relancer. Le document original était correct — c'est sa pertinence actuelle qui peut avoir évolué.
Oui, totalement gratuit pendant la phase bêta. Le coût réel de chaque analyse est celui des appels API OpenAI (quelques centimes), absorbés par le projet. À terme : un modèle freemium est envisagé avec un quota d'analyses gratuites par mois.
Trois passes d'analyse s'enchaînent : détecter les structures dans le texte, analyser en profondeur, puis évaluer la fiabilité. Tout ça en un seul JSON, une seule réponse.
16 composants bruts produits par le LLM, cotés sur des échelles documentées. Trois familles :