Note de lecture


Le grand truquage
Lorraine Data (2009)

“La raison d’être des statistiques,
c’est de vous donner raison”. Maxime populaire

Lorraine Data est un pseudonyme (Lorraine comme la région dans laquelle l’INSEE doit être décentralisée ; Data, qui signifie données en anglais). Derrière celui-ci, on trouve un groupe de statisticiens publics qui, dans Le Grand truquage, souhaite attirer l’attention sur les dérives de l’usage des statistiques publiques faites par les différents gouvernements depuis 2002. Inquiets de ce qu’ils appellent “ingérences de plus en plus fréquentes du politique” dans la réalisation et l’usage des statistiques publiques.

Ils veulent montrer que le gouvernement utilise quatre techniques de base pour accomoder à sa sauce les statistiques. La première consiste à “ne retenir que ce qui arrange”. Changer les indicateurs de référence ou modifier en douce les modes de calcul l’illustrent. La deuxième méthode porte sur l’utilisation d’un “indicateur écran”. Il s’agit de retenir un indicateur qui en dit autant sur un phénomène que ce qu’il en cache, dans la mesure où, par exemple, il est une moyenne qui perd son sens dès que la variation de certains paramètres structurels qui le rendaient pertinent changent. La troisième façon de mettre la statistique dans sa poche est de “changer la façon de compter en gardant apparemment le même indicateur”. En modifiant les règles organisationnelles des administrations qui collectent elles-mêmes les données entrant dans le calcul des statistiques, on peut les modifier considérablement, que ce soit en changeant les catégories ou en incitant les fonctionnaires à aller dans un sens favorable aux attentes du pouvoir. Enfin, on peut également, c’est la quatrième méthode de “bricolage”, faire dire aux chiffres ce qu’ils ne disent pas. “Obnubilés par la qualité de leurs prestations médiatiques, nos gouvernants sont de plus en plus souvent amenés à procéder à de véritables détournements de sens des statistiques qu’ils utilisent.”. Au travers de sept chapitres, le collectif montre comment ces quatre techniques sont employées sur des sujets majeurs.

Le premier chapitre porte sur les statistiques du pouvoir d’achat. On peut le résumer en disant que l’indice des prix à la consommation, en tant que moyenne, ne capture pas la dynamique des inégalités, ce qui rend son utilisation nettement moins générale et justifie les différences perçues entre ce qu’il annonce et ce qu’une partie de la population (celle qui a vu ses revenus relatifs varier défavorablement) ressent. Or, les inégalités, au travers des inégalités de patrimoine et de la hausse très conséquente des plus hauts salaires, ont crû, selon les auteurs. Utiliser l’indice des prix moyen permet donc de relativiser une éventuelle baisse de pouvoir d’achat, en compensant les baisses effectives d’une partie de la population par la hausse du reste des individus.

Dans le deuxième chapitre, l’auteur de la contribution explique comment les chiffres du chômage sont bricolés depuis 2005. La contribution démarre par une explication méthodologique sur les difficultés de mesure du chômage à court terme. D’un point de vue méthodologique, pour obtenir une information normalisée au niveau international (au sens du BIT), les chiffres publiés par l’enquête emploi sont les plus pertinents. Ceux de l’ANPE ne sont pas adéquats, à la base. En soi, tant que leur mode de calcul reste identique, ce n’est pas un problème, l’écart entre les deux taux restant sensiblement identique. Les difficultés apparaissent lorsque les catégories sont modifiées. Or, c’est ce à quoi s’est livré le gouvernement à diverses reprises. Il faut ajouter à cela que les règles administratives d’inscription à l’ANPE ont été elles aussi chngées, induisant un nombre de radiations très élevé, sans qu’on puisse pour autant conclure que les chômeurs ainsi radiés étaient des profiteurs du système. Il s’en est suivi une baisse du taux de chômage artificielle, que le gouvernement a utilisé pour vanter les mérites de sa politique, notamment sous l’ère Villepin. Le livre revient sur la polémique concernant la publication des chiffres de la dernière enquête emploi à la veille des présidentielles, montrant en quoi elle n’était qu’une manipulation destinée à ne pas ternir le tableau dressé par la majorité. Ce chapitremontre également comment les données concernant le succès supposé du CNE n’était qu’une nouvelle entourloupe statistique, assez rudimentaire pour un statisticien sans dons exceptionnels (on citera l’anecdote suivante : alors que le CNE n’était pas envigueur depuis un an, des statistiques corrigées des variations saisonnières sont publiées… Or, une désaisonnalisation n’est possible que lorsqu’on dispose de données sur plusieurs années). La légèreté des évaluations, couplée à l’utilisation des chiffres qui arrangent ont permis au gouvernement de se targuer de succès durant de longs mois, avant un retour à la réalité des chiffres (après l’élection présidentielle).

Le troisième chapitre est consacré à la loi TEPA, qui défiscalise notamment les heures supplémentaires. L’enjeu ici est de savoir si cette mesure a conduit à faire “travailler plus pour gagner plus”. L’auteur montre que, là encore, les données initiales utilisées (le nombre d’heures sup avant la loi) étaient pour le moins avantageuses pour le gouvernement, ont changé au coursdu temps et que le bilan annoncé en très peu de temps ne résistent pas au recoupement avec d’autres données. Au final, le nombre d’heures supplémentaires un an après la loi, en tenant compte de la baisse de l’activité, est dans le meilleur des cas identique à ce qu’il était avant ; inférieur en valeurs brutes quoi qu’il en soit. Ce chapitre, comme le précédent d’ailleurs, pointe l’absence d’évaluation sérieuse du dispositif, pourtant prévu dans la loi. En définitive, le gouvernement affiche sa satisfaction début 2009. Pour quoi ? C’est la question.

La chapitre 4 porte sur la pauvreté. Nicolas Sarkozy s’est donné comme objectif de réduire la pauvreté d’un tiers durant son quinquénnat. Il a nommé Martin Hirsch à un poste de Haut commissaire aux solidarités actives pour atteindre cet objectif. Pour réaliser cet ambitieux objectif, celui-ci a décidé de modifier l’indicateur de pauvreté de référence. Usuellement, l’UE et la France utilise comme taux de pauvreté un indicateur relatif : est pauvre celui qui ne dispose pas d’un revenu de 60% de la médiane des revenus. cet indicateur sera remplacé par le taux de pauvreté “ancré dans le temps”. Il consiste à un moment donné à constater quel est le seuil de pauvreté relatif et à conserver cette référence pendant 5 ans pour juger des progrès réalisés (en tenant compte de l’inflation). Cet indicateur baisse assez mécaniquement du fait de la croissance, mais laisse de côté les conditions sociales de la pauvreté. Non pas qu’il soit sans intérêt, mais son utilité n’est pertinente que lorsqu’il est étudié aux côtés d’autres indicateurs. En retenant celui-ci, qui a baissé de 40% pendant que le taux de pauvreté relative restait stable sur la période 1997-2002, le gouvernement ne prenait qu’un seul risque : celui que la réalisation de l’objectif ne soit qu’un trompe l’oeil. Le chapitre s’achève sur une critique du RSA, dont il est dit qu’il comporte des risques de cantonnement dans des emplois à temps partiels et de stagnation des salaires pour les bénéficiaires du dispositif.

Le chapitre 5 est une étude plus qualitative que les autres, surl’évolution de l’information au ministère de l’éducation nationale. Il part du constat que l’appareil statistique du ministère s’est largement étoffé (et même au delà via les indicateurs de l’OCDE). L’éducation nationale est dotée d’une direction de l’évaluation qui produit de nombreuses informations. Pour autant, les discours officiels ne semblent pas en faire l’usage qu’il convient. Outre les déclarations simplement fausses autour de l’état de l’école, on s’arrange pour que les rapports gênants restent dans les cartons définitivement ou un temps suffisant pour ne pas entrer en contradiction avec la communication du ministre. Au total, le texte considère que ces petits arrangements n’ont comme objectif que de conclure à la nécessité de réduire les dépenses, notamment au travers de le non-remplacement partiel des postes d’enseignants partis en retraite.

Dans l’avant dernier chapitre, c’est le traitement des statistiques d’immigration qui est passé au crible. Il montre tout d’abord que la création du ministère de l’immigration, doté d’une direction de la statistique a eu comme effet de faire quasiment disparaître les statistiques officielles sur les entrées d’étrangers en France, dans la mesure où les rapports publiés auparavant par des officines rattachées à d’autres ministères ne le sont plus. Le constat dressé est assez étonnant : hormis l’OFPRA, plus personne ne publie de statistiques officielles sur les entrées d’étrangers en France. Les données subsistant sont administratives et soumises à ce titre à des mesures dépendant des changements de législation ou d’organisation interne des services (par exemple, résorber sur une année le nombre de dossiers en attente, gonflant ainsi certains chiffres). Le dossier le plus intéressant porte sur la réalisation de l’objectif d’une immigraation économique portée à 50% de l’immigration totale, partant de 7% en 2007. Pas simple. Qu’à cela ne tienne. Premier exercice : supprimer de l’immigration totale certaines catégories non économiques (réfugiés, malades, voire étudiants). Deuxième technique : ajouter des migrants économiques (saisonniers, étudiants doté d’un titre de séjour de salarié, visiteursne devant pas travailler mais contribuant à la demande !). 7% devient 26%. Dans le domaine de l’immigration clandestine, l’auteur reproche à Brice Hortefeux des incohérences dans les chiffres avancés sur le nombre de sans-papiers, ainsi que l’utilisation d’indicateurs dont la collecte des données est jugée peu fiable (les données sur le nombre de bénéficiaires de l’aide médicale d’Etat, par exemple, sont biaisées par des omissions ou des doublons visiblement connus). Enfin, sur l’immigration familiale et les naturalisations, le livre pointe le discours laconique du ministère, où des évolutions non chiffrées sont à peine avancées.

Le dernier chapitre du livre porte sur les chiffres de la délinquance. Pour l’auteur, de 2002 à 2009, le gouvernement a réussi à amener les chiffres là où il le voulait, “au prix d’une reprise en main de la production administrative des données (surveillée tout au long de la chaîne hiérarchique) et d’une présentation médiatique (une ‘communication’) de plus en plus partielle et partiale, à l’occasion quasiment mensongère”. Les policiers et gendarmes sont responsables de collecter les données qui in fine permettront leur évaluation, mois après mois. Dès le début de la période, les statistiques de la délinquance montrent une amélioration instantanée et conséquente. Ne pas enregistrer certaines plaintes, ne consigner que des mains courantes, déqualifier des délits en contravention, regrouper des faits dans une même plainte, retarder l’enregistrement au mois suivant sont des techniques simples pour parvenir à un bricolage efficace. Dans le domaine de l’action, se concentrer sur les cas simples permet d’élucider beacoup plus d’affaires. Peu importe leur importance qualitativement parlant. L’ouvrage montre ensuite qu’une partie de la baisse de la délinquance est totalement étrangère à l’action policière. Il en va par exemple ainsi des vols de véhicules, qui peuvent baisser du fait des progrès dans les dispositifs de sécuritédes constructeurs. Peu importe aussi si la baisse avait déjà commencé avant 2002. Peu importe si, globalement, de nombreuses variations liées àa délinquance sont sans rapport direct avec l’activité des forces de l’ordre et du gouvernement.

Le grand truquage est définitivement un ouvrage qui mérite le temps et l’argent qu’on peut lui consacrer. En conclusion, les auteurs se disent inquiets de l’évolution de la statistique publique en France en expliquant pourquoi. On sort de l’ouvrage en se disant qu’ils n’ont pas tort.

Stéphane Ménia
22/10/2009

Lorraine Data, Le grand truquage. Comment le gouvernement manipule les statistiques, La découverte, 2009 (13 €)

Acheter le livre Google en parle Twitter en parle

Share Button