Comprendre les résultats

Comment lire une analyse

Chaque analyse produit plusieurs indicateurs. Aucun ne donne la vérité — chacun éclaire un angle.

Quand vous lancez une analyse, l'outil ne fait pas une seule chose. Il passe le texte à travers plusieurs grilles, chacune conçue pour répondre à une question précise. Aucune grille ne donne la réponse complète — c'est l'ensemble qui raconte l'histoire.

🎯 Ce texte, il vaut quoi ? — Le score citoyenV-Dem · MARPOR/CMP · CDA (Fairclough) · Toulmin

🎯 Ce texte, il vaut quoi ? TOUS MODES

Le score citoyen répond à la question la plus directe : ce texte, il vaut quoi ?

C'est une note sur 100. Plus elle est haute, plus le texte est factuel, transparent, équilibré et respectueux des principes démocratiques. Plus elle est basse, plus le texte repose sur l'émotion, le flou ou la manipulation.

Le score n'est pas un avis — c'est un calcul. L'IA mesure plusieurs composants dans le texte (base factuelle, cohérence logique, transparence, intensité rhétorique, impact sur les droits) et une formule inspirée des indices de santé démocratique V-Dem (Gothenburg) et du positionnement MARPOR/CMP (WZB Berlin), croisée avec les méthodes d'analyse critique du discours (Fairclough, 1995) et la théorie de l'argumentation (Toulmin), produit le résultat. La formule est publique et chaque composant est visible dans le détail. Vous pouvez vérifier vous-même pourquoi le score est ce qu'il est.

Plafonnement : quand l'IA détecte une dérive autoritaire dans le texte, le score est automatiquement plafonné à 20/100, quelle que soit la qualité des autres composants. Un texte qui propose de supprimer des libertés fondamentales ne peut pas obtenir une bonne note — même s'il est bien écrit.

Limites : Les composants bruts sont produits par l'IA. L'analyse tourne en mode déterministe (température zéro), ce qui limite fortement la variance entre deux analyses du même texte. Le score bouge de quelques points. Sauf dans un cas : si l'IA détecte une dérive autoritaire sur une analyse mais pas sur une autre, le plafonnement s'active et le score chute brutalement. C'est rare, mais c'est le signe d'un texte en zone grise — et c'est une information en soi.

🔍 Est-ce que c'est fiable ? — Le trustHabermas · Walton (1995) · Cialdini (1984) · Marcus (2000) · Huddy, Sears & Levy (2013)

🔍 Est-ce que c'est fiable ? TOUS MODES

Le trust répond à une question simple : est-ce que ce texte est fiable ?

Pour le savoir, l'outil pose 10 questions — les mêmes que vous vous poseriez si vous aviez le temps et les compétences de tout vérifier vous-même. Ces questions s'inspirent des travaux de Habermas sur la rationalité communicationnelle (ses 4 prétentions à la validité : vérité, justesse, sincérité, compréhensibilité), des 12 logiques fallacieuses identifiées par Walton (1995), et des leviers d'influence émotionnelle étudiés par Cialdini (1984), Marcus (2000) et Huddy, Sears & Levy (2013).

Qui parle ? L'auteur est-il identifiable ? A-t-il des intérêts personnels dans ce qu'il défend ? Que dit-il ? La thèse tient-elle debout une fois dépouillée de l'émotion ? Comment il le dit ? Le raisonnement est-il logique ou repose-t-il sur des raccourcis ? Qu'est-ce que ça me fait ? Les émotions que je ressens viennent-elles des faits ou de la façon dont c'est formulé ?

Les données sont-elles réelles ? Les chiffres cités sont-ils vérifiables ? C'est faisable ? Les propositions sont-elles chiffrées et réalistes ? Mes droits sont-ils respectés ? Le texte menace-t-il des libertés fondamentales ? C'est cohérent ? Le discours est-il proportionné à la réalité des faits ? C'est vérifiable ? Les affirmations sont-elles confirmées par des sources externes ? Comment les médias en parlent ? La couverture est-elle pluraliste ou alignée ?

Chaque réponse reçoit un verdict : fiable, mitigé ou non fiable. Et surtout, chaque réponse est accompagnée d'un "check_next" — une liste de vérifications que vous pouvez faire vous-même pour confirmer ou contester ce que l'IA a trouvé.

C'est la partie la plus importante de l'outil. Le score vous donne une direction. Le trust vous donne les raisons.

Limites : Le trust est produit par l'IA en une seule passe. Il ne consulte pas de base de données de fact-checking et ne fait pas de vérification terrain. Ses verdicts reflètent ce que l'IA peut déduire du texte et de son contexte. Les "check_next" sont là pour ça : vous guider vers les sources que l'IA ne peut pas consulter.

🌡️ Ça va dans le sens de la démocratie ? — Le thermomètreV-Dem (Gothenburg) — 5 dimensions de santé démocratique

🌡️ Ça va dans le sens de la démocratie ? TOUS MODES

Le thermomètre mesure une chose : est-ce que ce texte va dans le sens de la démocratie ou s'en éloigne-t-il ?

Le score va de -100 à +100. Ce n'est pas une note de qualité — c'est une direction. Un texte peut être bien écrit, convaincant, populaire, et quand même pointer vers une concentration du pouvoir. Le thermomètre détecte ça.

Pour calculer ce score, l'outil mesure 4 choses dans le texte. Ces 4 axes sont issus des 5 dimensions de santé démocratique du V-Dem Institute (Gothenburg) — séparation des pouvoirs, pluralisme, droits fondamentaux, transparence, participation — adaptées à l'analyse textuelle.

La séparation des pouvoirs. Le texte respecte-t-il l'indépendance de la justice, du parlement, de la presse ? Ou propose-t-il de concentrer les décisions dans les mains d'une seule personne ou d'un seul groupe ?

Le pluralisme. Le texte accepte-t-il que d'autres opinions existent ? Ou traite-t-il toute opposition comme un ennemi, un traître, un obstacle ?

Les droits fondamentaux. Le texte protège-t-il les libertés individuelles ? Ou propose-t-il de les restreindre — même au nom de la sécurité, de l'ordre ou de l'intérêt national ?

La transparence du pouvoir. Le texte explique-t-il comment les décisions seront prises, financées, contrôlées ? Ou reste-t-il dans le flou en comptant sur la confiance ?

Le résultat tombe dans une zone : exemplaire (+61 à +100), sain (+31 à +60), neutre à correct (-10 à +30), fragile (-30 à -11), préoccupant (-60 à -31), critique (-100 à -61).

Pour vous donner une idée : le programme du CNR (1944) obtient +54 — sain. Le discours de Mussolini déclarant la guerre (1940) obtient -67 — critique. La zone est plus importante que le chiffre précis.

Limites : Le thermomètre ne lit pas les intentions — il mesure ce que le texte dit, pas ce que l'auteur pense. Un texte autoritaire formulé poliment peut obtenir un score moins mauvais qu'un texte démocratique mal formulé. Pour les textes antérieurs à 1980, l'axe transparence est automatiquement neutralisé — exiger un chiffrage budgétaire d'un programme de 1944 serait anachronique. Enfin, le score est directionnel : un +54 ne veut pas dire "54% démocratique", ça veut dire que le texte penche nettement du côté de la démocratie.

📊 Qu'est-ce que ça change concrètement ? — Les impactsCAP (Comparative Agendas Project) · MARPOR/CMP · DIA (OCDE, 2008) · Stakeholder Analysis (Freeman, 1984)

📊 Qu'est-ce que ça change concrètement ? TOUS MODES

Le texte que vous venez de lire va changer quelque chose dans la vie des gens. La question c'est : quoi, pour qui, et dans quel sens ?

L'outil évalue l'impact du texte sur 9 domaines et 43 sous-secteurs issus de la taxonomie du CAP (Comparative Agendas Project) et du Manifesto Project / CMP (WZB Berlin), adaptée au périmètre citoyen (21 domaines CAP réduits à 9 — défense nucléaire, commerce international et autres sujets hors portée directe du citoyen ont été écartés). Pour chaque domaine, un verdict simple : positif, plutôt positif/négatif, négatif ou neutre.

C'est comme un bilan de santé avec 9 organes. Vous n'avez pas besoin de tout comprendre pour voir que 6 indicateurs au vert et 3 au rouge, c'est différent de 9 au rouge.

En profondeur (niveau 3), chaque domaine est détaillé par sous-secteurs — logement, emploi, santé, éducation, presse, justice, etc. — avec les extraits du texte qui justifient le verdict. Vous pouvez vérifier vous-même si vous êtes d'accord avec l'analyse.

En niveau 3, tous les sous-secteurs présents dans le texte sont détectés et listés. Mais l'IA ne peut pas tous les développer en profondeur dans une seule analyse. L'outil suit un ordre de développement fixe — une liste de priorités qui couvre d'abord les sujets les plus courants dans le débat public (droit de manifester, coût de la vie, emploi, sécurité, santé, logement...). Cet ordre ne reflète pas une hiérarchie de gravité ou d'importance — c'est une contrainte technique, pas un jugement. Si un secteur détecté mais non développé vous intéresse, l'onglet « Creuser le sujet » vous permet de poser vos propres questions à l'IA sur ce point précis, dans le contexte de l'analyse.

Qui gagne, qui perd. C'est la partie la plus concrète. L'outil identifie les groupes affectés selon la méthodologie DIA de l'OCDE (2008) et la Stakeholder Analysis (Freeman, 1984) — 32 types de groupes répartis en 16 catégories socio-économiques, 12 catégories sociales et 4 institutionnelles. Pour chacun : la direction (positif ou négatif), l'intensité (faible à forte) et le mécanisme (pourquoi ce groupe est touché).

Un programme qui promet de baisser les impôts de production sera "plutôt positif" pour les entrepreneurs et "plutôt négatif" pour les services publics qui dépendent de ces recettes. L'outil rend visible ce que le texte ne dit pas toujours : toute mesure a un coût pour quelqu'un.

Limites : Les impacts sont déduits du texte par l'IA, pas mesurés sur le terrain. Un programme qui promet de créer un million d'emplois sera noté "positif" sur l'économie même si la promesse est irréaliste — c'est le trust qui évalue la faisabilité. Les impacts mesurent ce que le texte propose, pas ce qui se passera réellement.

🏛️ À quel modèle politique ça ressemble ? — Le régimeLinz & Stepan · V-Dem (Gothenburg) · Levitsky & Ziblatt — déterministe, pas d'IA

🏛️ À quel modèle politique ça ressemble ? TOUS MODES

À quel modèle politique ressemble ce texte ? C'est la question à laquelle le module régime répond.

L'outil compare le texte à 43 grilles de régimes politiques — de la démocratie saine au totalitarisme, en passant par la social-démocratie, le souverainisme, le populisme, l'autoritarisme, le fascisme, et bien d'autres. Ces grilles s'appuient sur les typologies de la politique comparée (Linz & Stepan), les dimensions V-Dem (Gothenburg) et les travaux récents sur l'érosion démocratique (Levitsky & Ziblatt). Chaque grille a entre 10 et 12 conditions. Chaque condition est vérifiée automatiquement dans le texte.

C'est important : ce module ne fait pas appel à l'IA. C'est un compteur. Il cherche des mots, des signaux, des indicateurs dans le texte et dans les résultats des passes précédentes. Si une condition est cochée, vous pouvez voir exactement le mot ou le signal qui l'a déclenchée. Rien n'est caché, rien n'est interprété.

Le résultat affiche un top 3 : le régime dominant (celui qui matche le plus), les dérives détectées s'il y en a, et la référence "démocratie saine" pour situer le texte. Un discours classique aura peut-être "social-démocratie 7/10, démocratie saine 8/10, aucune dérive". Un discours qui pose problème affichera "autoritarisme 3/10, fascisme 2/10, dérive détectée".

Le mot "fascisme" fait peur — et c'est normal. Mais 2/10 ce n'est pas "ce texte est fasciste". Ça veut dire : sur 12 marqueurs historiques du fascisme, 2 sont présents dans ce texte. Peut-être "désignation d'un ennemi" et "appel à l'urgence". Vous pouvez ouvrir le détail et juger vous-même si ces signaux sont pertinents ou pas dans ce contexte.

C'est là que l'outil est le plus utile — et le plus sensible. Il ne vous dit pas quoi penser. Il vous montre ce que le texte contient, grille par grille, condition par condition. À vous de décider si ça vous inquiète ou pas.

Important : V-Dem et Freedom House classent des régimes sur plusieurs années. Citizen Analyzer classe des discours selon leurs tendances rhétoriques détectées. C'est une classification discursive, pas institutionnelle.

Limites : Le régime mesure des signaux, pas des intentions. Un discours qui mentionne "l'ennemi" dans une citation obtiendra un point en "désignation d'un ennemi" même si l'auteur ne désigne personne. Les scores dépendent du vocabulaire détecté par l'IA dans le résumé — un texte riche produira plus de signaux qu'un texte court. C'est pourquoi plusieurs analyses du même texte consolident le résultat dans la bibliothèque.

🔄 Pourquoi le résultat peut varier ?Méthodologie IA — température zéro, variance documentée

🔄 Pourquoi le résultat peut varier ? TOUS MODES

Deux personnes qui lisent le même article n'en retiennent pas exactement la même chose. L'une remarquera le ton alarmiste. L'autre retiendra les chiffres. C'est normal — la lecture est un acte d'interprétation.

L'IA fait pareil. À chaque analyse, elle produit un résumé légèrement différent du texte, remarque des signaux différents, pondère autrement. L'analyse tourne en mode déterministe (température zéro), ce qui limite fortement la variance. Le score bouge de quelques points.

Ce qui ne bouge pas, c'est la zone. Un texte "sain" ne deviendra pas "critique" entre deux analyses. Un texte "préoccupant" ne deviendra pas "exemplaire". La direction est stable. Le chiffre précis, non.

Sauf dans un cas : si l'IA détecte une dérive autoritaire sur une analyse mais pas sur une autre, le plafonnement s'active et le score chute brutalement. C'est rare, mais c'est le signe d'un texte en zone grise — et c'est une information en soi.

C'est pour ça que la bibliothèque existe. Quand plusieurs citoyens analysent le même texte, chaque analyse capture des signaux différents. La bibliothèque les consolide. Le module régime — qui est déterministe, lui — donnera le même résultat à données identiques. Mais les composants produits par l'IA s'enrichissent à chaque passage.

Une seule analyse donne une direction. Dix analyses donnent une tendance claire.

Limites : La variance est inhérente à tout système basé sur l'IA générative. Elle n'est pas un défaut — c'est une propriété documentée et assumée. L'outil ne prétend pas donner un résultat définitif en une seule passe. C'est la consolidation collective qui produit la fiabilité, pas l'analyse individuelle.

📋 Mode programme
📐 Positionnement MARPOR — Axe gauche-droiteManifesto Project / CMP (WZB Berlin) — indice RILE

📐 Positionnement MARPOR PROGRAMME

Quand vous lisez un programme politique, une question revient toujours : c'est de gauche ou de droite ? Et à quel point ?

Le MARPOR — Manifesto Project / CMP (WZB Berlin) — est un référentiel académique international utilisé par les chercheurs depuis des décennies pour répondre à cette question. L'outil s'en inspire pour positionner le programme sur un axe gauche-droite, avec un score RILE qui va de -100 (gauche) à +100 (droite).

Ce positionnement est directionnel. Il situe le texte sur l'échiquier politique — sans porter de jugement. Être à gauche ou à droite n'est ni bien ni mal. C'est une position, comme une coordonnée sur une carte.

Concrètement, l'outil identifie dans le programme les thèmes qui penchent à gauche (protection sociale, régulation, services publics, droits des travailleurs) et ceux qui penchent à droite (liberté économique, autorité, tradition, défense nationale). La balance entre les deux donne le score.

Le programme du CNR (1944) obtient -62 — gauche. C'est cohérent : nationalisations, sécurité sociale, droit au travail. Un programme libéral obtiendrait un score positif. Ni l'un ni l'autre n'est "meilleur" — c'est une mesure, pas un verdict.

Limites : Le MARPOR est conçu pour des programmes électoraux complets. Sur un discours court ou un article, le positionnement est approximatif. L'IA ne code pas quasi-phrase par quasi-phrase comme le font les chercheurs du Manifesto Project — elle donne une direction globale. Et l'axe gauche-droite ne capture pas tout : un programme peut être économiquement à gauche et sociétalement conservateur. Le score est un résumé, pas une cartographie complète.

📋 Couverture thématiqueCAP (Comparative Agendas Project) — 21 domaines réduits à 9

📋 Couverture thématique PROGRAMME

Un programme politique qui ne parle que d'économie et de sécurité, c'est comme un architecte qui dessine le salon mais oublie les fondations. La couverture mesure ça : de quoi le programme parle — et surtout de quoi il ne parle pas.

L'outil passe en revue 9 domaines issus de la taxonomie du CAP (Comparative Agendas Project), réduite de 21 domaines académiques à 9 domaines citoyens — les sujets hors portée directe du citoyen (défense nucléaire, commerce international...) ont été écartés. Les 9 domaines : affaires étrangères, libertés et démocratie, système politique, économie, protection sociale, groupes sociaux, société, éducation et environnement.

"Des mesures, mais pas de budget" — le programme propose des actions concrètes mais ne dit pas combien ça coûte ni comment c'est financé. C'est le cas le plus fréquent.

"Des mots, pas de plan" — le programme mentionne le sujet mais reste dans les intentions. "Nous voulons améliorer l'éducation" sans dire comment, c'est un mot, pas un plan.

"Absent du programme" — le sujet n'est tout simplement pas abordé. Un programme qui ne parle pas d'écologie en 2026, c'est un signal en soi.

La couverture ne mesure pas la qualité des propositions — seulement leur existence et leur niveau de détail. Un programme peut couvrir les 9 domaines avec des propositions irréalistes. La couverture sera complète, mais le trust sera mauvais. Les deux se complètent.

Limites : La couverture est évaluée à partir du texte fourni. Si vous analysez un extrait du programme et pas le texte complet, la couverture reflétera l'extrait — pas le programme entier. Pour les programmes historiques, l'absence de certains domaines (écologie, numérique) est normale et ne doit pas être lue comme une lacune.

📝 Crédibilité programmeComplétude · profondeur · cohérence interne · faisabilité

📝 Crédibilité programme PROGRAMME

Promettre c'est facile. Détailler c'est autre chose. La crédibilité programme mesure le sérieux d'un programme — pas ses idées, mais la rigueur avec laquelle il les présente.

L'outil évalue 4 choses.

La complétude. Le programme couvre-t-il les grands sujets de société ou se concentre-t-il sur deux ou trois thèmes en ignorant le reste ? Un candidat qui ne parle que de sécurité a peut-être un bon discours sur la sécurité — mais il n'a pas un programme de gouvernement.

La profondeur. Les mesures sont-elles concrètes et identifiables ou vagues et génériques ? "Créer un plan complet de sécurité sociale" c'est une mesure. "Améliorer la situation" c'est une phrase.

La cohérence interne. Les propositions se contredisent-elles ? Promettre de baisser les impôts et d'augmenter les dépenses publiques sans expliquer d'où vient l'argent, c'est une incohérence. L'outil la détecte.

La faisabilité. Les mesures sont-elles chiffrées ? Le calendrier est-il réaliste ? Les contraintes juridiques sont-elles prises en compte ? Un programme qui promet la retraite à 55 ans sans une ligne sur le financement a un problème de faisabilité.

Le verdict résume tout ça en une phrase. C'est l'indicateur le plus utile quand vous hésitez entre deux programmes : pas lequel vous plaît le plus, mais lequel a fait le travail sérieusement.

Limites : La crédibilité est évaluée par l'IA à partir du texte seul. Elle ne consulte pas les rapports de la Cour des comptes, les évaluations budgétaires ou les avis du Conseil d'État. Un programme peut être jugé "crédible" par l'outil et irréaliste en pratique. L'outil mesure la cohérence interne du texte, pas sa confrontation au réel — c'est le trust et vos propres vérifications qui complètent le tableau.

📰 Mode presse
📰 Double score article + médiaEntman (1993) framing · McCombs & Shaw (1972) agenda-setting

📰 Double score article + média PRESSE

Quand vous lisez un article, deux choses comptent : est-ce que cet article précis est bien fait ? Et est-ce que le média qui le publie est fiable ?

Ce sont deux questions différentes. Un journaliste rigoureux peut travailler pour un média douteux. Un grand journal peut publier un article bâclé un mardi soir. L'outil sépare les deux.

Le score article évalue ce texte précis selon les principes du cadrage médiatique (Entman, 1993) et de l'agenda-setting (McCombs & Shaw, 1972). Les sources sont-elles citées ? Les points de vue sont-ils équilibrés ? Les faits sont-ils séparés des opinions ? La base factuelle est-elle solide ? C'est la qualité du travail journalistique sur cet article, ce jour-là.

Le score média évalue la publication. Qui possède ce média ? Quelle est sa ligne éditoriale ? A-t-il un historique de désinformation ? Ses journalistes sont-ils identifiables ? C'est la réputation et la structure du média, indépendamment de l'article que vous êtes en train de lire.

Les deux scores sont affichés côte à côte. Un article à 72 dans un média à 45 vous dit : ce papier est correct mais méfiez-vous de la source habituelle. Un article à 30 dans un média à 80 vous dit : ce journal est sérieux mais cet article-là pose problème. C'est la combinaison qui raconte l'histoire complète.

Limites : Le score média s'appuie sur ce que l'IA connaît de la publication — propriétaire, ligne éditoriale, antécédents. Pour les médias peu connus, locaux ou récents, ce score sera moins précis. Le score article dépend du contenu analysé — un long format sourcé sera naturellement mieux noté qu'une brève de trois paragraphes, indépendamment de la qualité réelle du travail journalistique derrière.

🧭 Boussole éditorialeAd Fontes Media Bias Chart · Entman (1993) cadrage médiatique

🧭 Boussole éditoriale PRESSE

Chaque article est écrit depuis quelque part. Pas géographiquement — idéologiquement. Un même fait peut être présenté comme une avancée sociale ou comme une dérive budgétaire, selon l'angle choisi. La boussole vous montre cet angle.

Elle positionne l'article sur deux axes, inspirés du concept d'Ad Fontes Media Bias Chart et des travaux sur le cadrage médiatique (Entman, 1993).

Gauche / Droite. Le traitement de l'information penche-t-il vers des valeurs de justice sociale, de régulation et de solidarité ? Ou vers la liberté économique, la tradition et l'autorité ? Ce n'est pas l'opinion du journaliste qu'on mesure — c'est le cadrage. Les mots choisis, les experts cités, les aspects mis en avant ou ignorés.

Factuel / Opinion. L'article s'appuie-t-il sur des faits vérifiables, des données, des sources identifiées ? Ou repose-t-il sur des interprétations, des jugements de valeur, des formulations orientées ? Une dépêche AFP sera très factuelle. Un éditorial du Figaro ou de Libération sera très opinion. Ni l'un ni l'autre n'est "mieux" — mais vous avez le droit de savoir ce que vous lisez.

La boussole ne juge pas. Un éditorial assumé qui affiche clairement son point de vue est plus honnête qu'un article qui se prétend neutre en glissant un cadrage invisible. L'outil rend visible ce cadrage — à vous de décider ce que vous en faites.

Limites : Le positionnement gauche/droite est estimé par l'IA à partir du vocabulaire et des cadres utilisés dans l'article. Un article factuel sur une mesure sociale peut être classé légèrement à gauche simplement parce que le sujet est à gauche — sans que l'article soit biaisé. La boussole donne une direction, pas un verdict. Et elle ne détecte pas l'ironie ou le second degré que peuvent comporter certains discours ou articles.

⚖️ Mode loi
⚖️ Processus démocratiqueHabermas (démocratie délibérative) · droit constitutionnel français

⚖️ Processus démocratique LOI

Une loi peut être excellente sur le fond et catastrophique sur la forme. Le processus démocratique mesure la forme — comment cette loi a été fabriquée.

Dans une démocratie, une loi est censée suivre un chemin : proposition, débat parlementaire, amendements, vote. Ce chemin existe pour que toutes les voix soient entendues et que personne ne puisse imposer une règle sans discussion. Ce principe est au cœur de la démocratie délibérative théorisée par Habermas et inscrit dans le droit constitutionnel français.

Mais ce chemin a des raccourcis. Le 49.3 permet d'adopter un texte sans vote. L'ordonnance permet de légiférer sans le parlement. La procédure accélérée réduit le temps de débat. Le vote bloqué empêche les amendements. Ce sont des outils légaux — mais chacun retire une étape du processus démocratique.

L'outil évalue ça. Si le texte a été débattu, amendé, voté solennellement — le score sera élevé. Si le texte a été passé en force, sans débat, par ordonnance ou 49.3 — le score sera bas. Le contenu de la loi n'entre pas en compte ici. Une loi progressiste passée en 49.3 aura un mauvais score de processus. Une loi contestable adoptée après un débat complet aura un bon score.

C'est contre-intuitif, mais c'est le point : la démocratie ce n'est pas seulement ce qu'on décide, c'est comment on le décide.

Limites : Le processus est évalué à partir des informations contenues dans le texte et de ce que l'IA connaît du contexte législatif. Si le texte analysé ne mentionne pas la procédure d'adoption, le score sera neutre — pas mauvais, neutre. Pour les lois historiques, le contexte parlementaire peut être incomplet. Et l'outil ne juge pas si le recours au 49.3 était "justifié" ou pas — il constate qu'une étape démocratique a été sautée.

⚖️ Balance normativeAlexy — principe de proportionnalité en droit constitutionnel

⚖️ Balance normative LOI

Chaque loi fait deux choses en même temps : elle donne des droits et elle impose des contraintes. La balance normative rend visible cet équilibre.

Le concept s'inspire du principe de proportionnalité en droit constitutionnel, formalisé par Alexy — l'idée que toute restriction d'un droit doit être proportionnée à l'objectif poursuivi.

D'un côté, ce que la loi crée : nouveaux droits, protections, garanties, libertés étendues. De l'autre, ce qu'elle impose : obligations, restrictions, sanctions, contrôles. L'outil identifie les deux et les met face à face.

Une loi sur l'IVG crée un droit. Une loi sécuritaire crée des restrictions. Une loi sur le travail fait les deux — de nouveaux droits pour certains, de nouvelles contraintes pour d'autres. La balance ne dit pas si c'est bien ou mal. Elle vous montre ce que la loi fait réellement, au-delà de son titre et de la communication qui l'entoure.

C'est utile parce que le nom d'une loi ne raconte jamais toute l'histoire. La "loi pour la liberté de choisir son avenir professionnel" contient aussi des obligations de formation et des sanctions. La "loi de sécurité globale" contient aussi des restrictions de filmer la police. Le titre vend. La balance montre.

Limites : La balance est qualitative, pas quantitative. L'IA identifie les droits et contraintes mentionnés dans le texte, mais ne mesure pas leur poids réel. Interdire de filmer dans une zone précise et supprimer le droit de vote comptent chacun comme une restriction — alors que l'impact n'a rien à voir. C'est le trust et les impacts qui détaillent la proportionnalité. La balance vous montre la structure de la loi, pas sa gravité.