La fin de la théorie?

Un lecteur, via la chatbox, nous indique un récent article de Chris Anderson, auteur de l’excellent “the long tail“, annonçant la fin prochaine de la méthode scientifique telle que nous la connaissons : l’augmentation du nombre de données et de capacités de traitement, permises par les nouvelles technologies, permet de se passer des théories fausses pour se contenter du simple constat, issu des données, de l’existence de corrélations mesurables. Corrélation n’est pas causalité, mais cela n’a plus d’importance dès lors que l’on dispose de tant de données : on peut comprendre le monde de façon bien meilleure grâce à leur analyse plutôt qu’en se référant à des théories forcément incomplètes.

L’article est amusant et met le doigt sur un phénomène peu connu : la montée en puissance de l’analyse des données. En économie, c’est I. Ayres, dans Super Crunchers, qui à l’aide de quelques exemples (les travaux de Levitt, la prévision de la consommation chez Wal Mart, ou l’équation d’Ashenfelter – voir ce podcast consacré au livre) montrait l’importance et la pertinence de l’analyse massive des données dans la science moderne.

C. Anderson pousse la logique encore plus loin : les modèles et les théories scientifiques sont faux, et l’analyse des données est susceptible de remplacer l’analyse scientifique, dont le recours aux théories conduit à des impasses – Anderson cite l’exemple de la physique théorique et de la biologie à ce titre, évoquant pour cette dernière la découverte par Craig Venter de nouvelles espèces sans les avoir jamais vues, grâce à l’analyse systématique de l’ADN. Le raisonnement est le suivant : la méthode scientifique traditionnelle consiste à élaborer des théories, et les tester ensuite sur les données : des données sans théorie pour les relier ne sont que du bruit. Mais dès lors que l’on dispose d’énormément de données, cette méthode est obsolète, parce qu’il est possible grâce à la puissance de calcul de retirer réellement des théories valables à partir des données. Plus besoin, dès lors, de modèles forcément faux. De la même façon que Google ne sait strictement rien de ce qui constitue une information pertinente, mais se contente d’analyser les données pour les fournir plus efficacement que les autres, la science pourrait se passer de théories et se fonder sur des données.

L’argument choquera les puristes, et à juste titre, parce qu’il est faux; l’article a quand même l’intérêt de rappeler que l’analyse des données est très à la mode, et devient une composante majeure de l’analyse scientifique. De là à supplanter la théorie? Pas sûr. Cet article m’a rappelé l’un de nos vieux posts (novembre 2004… comme le temps passe) qui indiquait déjà qu’il y a deux façons de faire de la science : faire des théories d’abord et les confronter aux faits ensuite, ou étudier les faits et en déduire des théories. En sciences, en général, on préfère la première façon, et il y a de bonnes raisons pour cela, qui ne se limitent pas au “c’est plus pratique” sous-entendu par Anderson. Les raisons sont logiques et épistémologiques, pas de commodité.

Pourquoi considérons-nous l’Egypte antique comme une très grande civilisation? L’historien Arnold Toynbee s’était posé la question, et avait apporté une réponse troublante : parce que c’est l’une des rares pour lesquelles nous disposons d’éléments à analyser. Les conditions climatiques particulières de la région (le climat désertique qui permet la conservation des bâtiments et des reliques archéologiques) et des hasards de l’histoire (la proximité de l’Europe, permettant aux archéologues de se déplacer, le rôle de l’empire britannique) ont fait que nous disposons, depuis très longtemps, de beaucoup d’informations sur l’Egypte antique. Du coup, nous lui accordons une grande importance historique, bien plus grande que celle que nous accordons à ces civilisations qui, parce que leurs reliques sont moins accessibles ou ont été détruites par le temps, ne nous ont pas laissé grand-chose à étudier. En somme, pour Toynbee, l’historien est un peu comme cet ivrogne qui a perdu les clés de chez lui, et les cherche sous le lampadaire, non pas parce qu’elles ont plus de chances d’être là plutôt qu’ailleurs, mais parce que c’est le seul endroit éclairé.

Et c’est le problème principal du “number crunching” pour comprendre la réalité : il dépend de données qui sont elles-mêmes sujettes à des biais de disponibilité. On pourrait imaginer que disposer de la totalité des données disponibles permettrait de résoudre ce problème : c’est oublier que les données, elles-mêmes, sont une construction, et ne sont pas la réalité. Anderson répète plusieurs fois que la théorie est par nature fausse, ce qui est exact; mais les données, elles-mêmes, sont fausses. Elles subissent le biais du quantifiable : toutes les informations ne peuvent pas être stockées et analysées de la même façon. Ce qui est mesurable est alors privilégié par rapport à ce qui ne l’est pas, ou ne peut l’être que de façon floue et qualitative.

Il y a là surtout, en filigrane, le célèbre problème épistémologique de l’induction : Nous pouvons disposer de toutes les données que nous voulons, elles ne permettent pas en soi de construire une théorie valide, mais seulement des croyances : parce que cela a toujours été ainsi dans nos données, cela va continuer. Il n’y a aucune raison de penser que c’est le cas. Nous ne pouvons que disposer de théories, tout en sachant que nous ne pourrons jamais démontrer qu’elles sont vraies, mais simplement, que jusqu’à présent, rien n’a permis d’affirmer qu’elles étaient fausses (c’est la réponse apportée par Karl Popper au problème de l’induction).

Sur un intervalle de temps suffisamment long, toute corrélation découverte dans des données peut s’avérer une simple coincidence; et parfois, la simple découverte d’une corrélation suffit à la faire disparaître. Les économistes ont l’habitude, pour leur plus grand désespoir, de ce problème. Supposez par exemple que grâce à l’analyse exhaustive des données financières depuis qu’elles existent, je découvre qu’il existe un type d’entreprises qui a systématiquement été sous-évaluée, et rapporte beaucoup plus que le rendement normal des marchés : que va-t-il se passer? Dès que la nouvelle sera connue, tout le monde achètera ce type d’entreprise, et la rentabilité exceptionnelle disparaîtra rapidement. Ce n’est pas une vue de l’esprit : c’est très exactement ce qui s’est passé pour les entreprises à faible capitalisation boursière. Des analystes ont constaté que celles-ci avaient rapporté beaucoup plus que les autres pendant longtemps, et ont conçu des stratégies de placement se fondant sur cette rentabilité supérieure : celle-ci a rapidement disparu au fur et à mesure que sa connaissance se diffusait.

Cela, un économiste aurait pu le prédire, uniquement sur la base de théories : si les gens sont rationnels, il n’y a aucune chance pour qu’un placement excessivement rentable le reste, si l’information sur cette rentabilité se diffuse. Rien dans les données n’aurait permis de le prévoir, puisque ce type de titre avait toujours été plus rentable que le reste.

On pourra dire que ce problème est spécifique aux sciences humaines, dont le matériau “réagit” à l’analyse; mais toutes les sciences ont besoin de théories pour comprendre ce que veulent dire les données, et surtout, ce que les données ne disent pas. Darwin n’est pas célèbre pour avoir identifié de nombreuses espèces, mais pour avoir compris un mécanisme qui les fait apparaître, disparaître et évoluer, lui permettant ainsi de décrire des mécanismes que jamais personne n’a pu observer.

L’analyse des données est extrêmement utile, mais sa disponibilité croissante risque d’avoir l’effet exactement inverse de celui prédit par Anderson : une floraison de théories. Parce qu’il n’y a pas d’autres façons d’imaginer ce que l’on ne peut pas voir – ce qui constitue le problème principal de la science.

Share Button

Alexandre Delaigue

Pour en savoir plus sur moi, cliquez ici.

34 Commentaires

  1. Intéressant. J’avais également vu l’article et pensé en faire un billet… votre initiative m’épargnera cet effort. Sur le fond, entièrement d’accord. La thèse défendue par l’auteur est logiquement intenable au vue du seul problème de l’induction.

  2. Si je peux me permettre de rajouter ce qui suit à votre propos:
    Il existe aussi des domaines dans lesquels l’expérience est impossible (astrophysique… Le big bang ne peut pas être vérifier de visu)
    Ou dont l’expérience réelle serait une mauvaise chose (nucléaire).

  3. Personnellement, et en tant que théoricien, je suis un peu effrayé par cette tendance de plus en plus grande au number crunching. Pour caricaturer, je ne crois pas qu’on comprenne les choses à coup de régressions linéaires. Le but du jeu, c’est quand même au final de comprendre, pas seulement de décrire. Et pour cela on a besoin d’aller-retours entre théorie et expérience.

    La biologie en particulier est surement à un tournant ces jours-ci, car elle se jette à corps perdu dans l’analyse de bases de données gigantesques, pour tout décrire gène par gène. Mais certains biologistes comme Carl Woese pensent qu’il faut radicalement changer de méthode scientifique si on veut vraiment comprendre la biologie. En particulier, il critique l’approche réductionniste en biologie, qui laisse croire qu’on va comprendre le tout en regardant les parties les plus fines (voir son article "la nouvelle biologie pour le nouveau siècle" que je commente ici : tomroud.com/2008/06/25/la… Il indique que la biologie doit étudier davantage les comportement émergents. D’un point de vue épistémologique, cela a du sens : on n’aurait jamais compris la mécanique des fluides en analysant des millions de particules individuelles. C’est pourtant typiquement ce qu’on cherche à faire avec tout ce number crunching …

  4. 100% OK avec Tom Roud

    Le problème avec l’accumulation des données est que le nombre de corrélations s’accroît dans la même proportion. Or un raisonnement est hypothétique s’il est assis sur une règle d’induction (ou d’abduction) : le premier danger de cette méthode consiste donc à trouver du déterminisme dans le déluge des données, ce que provoque la principale fonction du cerveau humain qui consiste à trouver de l’ordre et des formes reconnaissables au sein du chaos. On risque ainsi de découvrir des règles et des lois qui ne sont pas, le biais pouvant contribuer à la création d’un faux-savoir.

    Seuls les raisonnement déductifs permettent de vérifier la cohérence, maximale ou non, d’une théorie initiale.

  5. Amusant article qui tend à confirmer ce dont nous nous doutons depuis fort longtemps : à savoir que l’économie n’est toujours pas une science! 😀

    Réponse de Alexandre Delaigue
    En quoi retirez-vous cette conclusion de cet article?

  6. Interessant votre post. L’idee qu’on peut se passer de theorie est quand meme confondante de naivete: d’abord il faut construire les donnees (les structurer) ce qui suppose d’avoir au moins une prototheorie… Et ensuite comment on fait une bonne vieille regression sans theorie, c’est-a-dire sans un bon vieux modele econometrique?? On teste tous les facteurs possibles?? Par exemple ma taille a 16 ans et 226 jours si on veut regresser ma productivite a 30 ans??? Evidemment, on va me dire, bah non, les trucs plausibles (par exemple les trucs en relation avec mon education), mais qui determine ce qui est plausible, une theorie, fut-elle implicite…
    Donc ca fait vite une explosion de nombre de variables pas du tout tenable, quelles que soient les capacites de calcul qu’on a a disposition.

  7. "Sur un intervalle de temps suffisamment long, toute corrélation découverte dans des données peut s’avérer une simple coïncidence."

    Vous appliquez ensuite cette possibilité à la science. C’est exactement ce que dit Claude Allègre au sujet du réchauffement climatique.

    On constate d’une part qu’il a réchauffement climatique (augmentation de la température moyenne à la surface de la Terre). On constate d’autre part qu’il y a augmentation de la quantité de CO2 dans l’atmosphère. On constate enfin une augmentation de l’activité humaine (industrielle notamment). Tout cela depuis 1 siècle environ.

    Le problème est que l’on fait ensuite deux corrélations entre ces constations sans prouver ces deux liens de façon scientifique c’est-à-dire en en faisant la démonstration. Tout simplement parce que la climatologie est un science que nous ne maitrisons pas assez pour faire ces démonstrations.

    Malheureusement ce qui est valable dans un domaine ne semble pas valable dans un autre…

    Réponse de Alexandre Delaigue
    Je n’ai pas la prétention d’être expert sur le sujet, et je me méfie des conversations sur le réchauffement climatique, qui dérivent vite. Il me semble toutefois que l’analyse scientifique sur ce sujet (à distinguer de l’hystérie de la presse) relève du modèle scientifique standard, à savoir qu’on dispose d’une théorie, et qu’elle n’est pas contredite par les données. Les conclusions à en retirer en termes d’action politique sont plus complexes que beaucoup de scientifiques “durs” ne pensent, mais c’est un autre sujet. Ensuite, un certain nombre de personnes considèrent qu’il peut exister une théorie alternative expliquant le réchauffement ne faisant pas intervenir les GES; d’autres critiquent les données et la façon dont elles sont interprétées, considérant qu’elles ne valident pas la théorie du réchauffement par GES; d’autres enfin qui s’appuient sur la sociologie des sciences pour dire que la mécanique du consensus conduit à exclure de fait ceux qui voudraient proposer des analyses alternatives. Connaissant un peu le monde scientifique, cette dernière possibilité me semble plausible; les conséquences en termes de politiques de cette plausibilité sont elles aussi plus complexes qu’on ne voudrait le penser.

  8. Il me semble que le point important à noter est que les intellectuels en général et les scientifiques en particulier seront mis en compétition sur leur coeur de métier (l’analyse du réel) par de simples numbers crunchers : de simples programmeurs de machines ne consacrant que fort peu de leur temps à la réflexion ou l’enrichissement personnel pour plutôt le consacrer à l’entretien de leurs machines.

    Car il sera certainement possible de tirer de gigantesques profits des erreurs de prédiction des théoriciens dominants. à moins que ce ne soit déjà le réel coeur de métier de ce qu’on nomme un peu hâtivement la finance internationale ?

    Réponse de Alexandre Delaigue
    Il existe déjà des opportunités de gains fondées sur le number crunching, à condition de l’utiliser intelligemment; quant à tirer des profits de ce que l’opinion dominante est fausse, c’est possible, mais n’oubliez pas que le marché peut rester irrationnel plus longtemps que vous ne pouvez rester solvable. A LTCM, on l’a appris à la dure.

  9. @ Clément : la climatologie, c’est quand même un peu différent dans la mesure où l’effet de serre est physiquement démontré (i.e. on sait que les gaz à effet de serre retiennent le rayonnement infrarouge, c’est un effet connu et démontré expérimentalement). Donc on a une explication physique de la corrélation.
    De plus, on a des données bien avant l’ère industrielle qui montrent aussi ces corrélations.
    Quant à la démonstration, elle consiste justement en la mise au point de modèles prédictifs.

  10. @ Clement: pensez-vous vraiment que la climatologie s’arrête à faire de bêtes corrélations à 2 pauvres paramètres ?

    Je ne pense pas que l’article soit naif, il est dans une certaine posture assez courante (wired, c’est quand meme assez "techno-luddite", non pas que ce soit un reproche, mais il y a quand meme un contexte a avoir en tete je pense). Le fait que la masse de données puisse supplanter les modèles n’est pas nouveau en soit: en IA/machine learning/cie, c’est la tendance depuis facilement 2 generations. Je trouve l’exemple de Google assez peu convainquant: entre autre, le succès du pagerank de Google ne montre pas la suprématie des données sur les modèles, puisque le pagerank n’a fait que remplacé des methodes elles mêmes basées sur des données. Au contraire, d’ailleurs, ca montre qu’avec des meilleurs modèles (prendre en compte la bidirectionalité des liens au lieu de se baser uniquement sur le nombre de liens, entre autre), on s’en sort mieux. Il y a aussi un problème théorique, un peu tarte à la crème en IA, qui est le problème de dimensionalité (the curse of dimensionality): lorsque l’on traite de données dans des espaces aux dimensions assez grandes, des propriétés geometriques assez surprenantes (hyper localisation des densités de probabilité) font qu’on arrive à une explosion du nombre de données nécessaires pour estimer les paramètres d’un modèle.

    J’avoue être assez dubitatif quant a l’exemple de traduction (ce qui me fait croire un peu a une blague quelque part): c’est plutot un exemple des limites du truc pour l’instant, non ? Parce que le moins qu’on puisse dire, c’est que ce n’est pas terrible, la traduction automatique. Il faut aussi noter que P. Norvig, à la tête de la R&D chez Google et cité dans l’article, est lui même assez défenseur de l’approche assez purement statistique de l’IA (je me base essentiellement sur son ouvrage "AI, a modern approach" qui est une des références en IA), qui est loin de faire l’unanimité.

    En fait, le problème de ces outils (qui restent puissants et utiles, évidemment), c’est qu’utilisés uniquement comme boites noires, ca va toujours donner des resultats, et du coup, cela devient plus dur de devier de ces methodes pour faire quelque chose de nouveau.

    Comme vous le faites remarquer, le problème fondamental reste de nature phénoménologique. Si on a une approche très pratique (pas dans le sens simpliste théorie contre application, mais dans le sens la puissance d’une science qui se mesure a son pouvoir prédicatif), alors cette approche basée sur les données a plus de chances de plaire. Si au contraire, on reste dans une approche "science comme explication du monde", alors ce n’est plus si intéressant que ca. René Thom le résume assez joliment dans son petit ouvrage "prédire n’est pas expliquer".

  11. Si l’analyse des donnees peut amener a de fausses conclusions, comment peut-on imaginer que l’analyse de ces meme donnees soit plus credible dans la validation d’une theorie.
    Pour reprendre votre exemple sur les titres de petites cap, si les economistes avaient formule une theorie de l’agent irrationnel, ils en auraient conclu au vu des donnees que leur theorie etait valide. La "deduction" n’aurait pas servi davantage que "l’induction".

    Réponse de Alexandre Delaigue
    L’utilisation des données ne permet pas de valider une théorie, c’est l’erreur du vérificationnisme; les données ne peuvent, éventuellement, que la réfuter. Le fait que sur les marchés de titres, les bonnes affaires connues ne le restent jamais longtemps n’a jamais été réfuté.

  12. En tant que number cruncher de profession, je tiens a dire que l’opinion de Passant est passible de la Halde.

    Si les numbers crunchers avaient eu leur mot a dire, Attali n’aurait pas fait 316 propositions mais 2 (augmenter l’age de la retraite en passant tout le monde a la toise et supprimer les départements). Ils auraient pu ainsi consacrer le reste de leur temps a leur enrichissement personnel (?)et a la réflexion.

  13. Merlin: justement : le problème est qu’ils ne l’ont pas : tel Héphaïstos dans sa caverne, il ne leur est guère permis que de rester dans l’ombre des financiers ou des scientifiques qui les emploient. Ce qui, dans une économie de marché, ne pose pas réellement de problèmes, la quête du profit étant une possible échappatoire pour quiconque estime avoir quelque chose à apporter à la collectivité et estime à tort ou à raison se heurter aux insiders.

  14. C’est la théorie qui décide de ce que nous sommes en mesure d’observer.

    OK, cette citation n’est pas de moi, elle est d’Albert Einstein

  15. Il serait donc possible de réduire de manière non destructive tout l’information du monde qui nous entoure dans un ordinateur contenu dans ce monde ?

  16. l’analyse des données par des méthodes cognitives est une branche de l’intelligence artificielle qui est aussi de la science me semble t il. deux remarques: est ce à dire que la subversion sera plus facile car on peut faire dire à des données ce que l’on veut, et la recherceh consiste à pousser les limites du savoir et non pas seulement faire des combinaisons, ce que l’on peut faire en analysant les données

  17. Oh ! C’est un problème qui dépasse même la science, Nietzsche en a causé dans Par Delà Le Bien Et Le Mal, sur le fait qu’une lecture est déjà une interprétation ; et que le texte du lecteur n’est pas le même que celui de l’auteur.
    Donc, on peut en conclure que :
    les faits n’existent pas, sans une théorie, ou du moins une Weltanschauung, une direction de regard.
    Le fait même de les singulariser en tant que "fait" est un fait en soi.
    Mais c’est effectivement à la mode, et quelque part ça rejoint la vision Wikipediesque du savoir : le vrai est une moyenne des vrais…

  18. Largement d’accord avec ce qui a été dit. Deux choses à rajouter:
    -Pour les sciences économiques et sociales connaitre une corrélation est rarement suffisant pour fonder une politique publique adaptée, ce qui reste néanmoins un des objectifs de ces sciences. Un exemple en sociologie sur lequel je travail : la corrélation mise en évidence par Bourdieu entre capital culturel et réussite scolaire. Au-delà de tous les problèmes de mesure (c’est quoi le capital culturel? de même pour la réussite scolaire?), une fois qu’on a la coorélation, on peut juste constater des inégalités (ce qui n’est déjà pas si mal), mais on ne sait rien de comment le capital culturel affecte la réussite scolaire, et donc comment lutter contre l’inégalité sociale devant l’école.
    -Sans théorie plus de compréhension du monde. La théorie est ce qui rapproche la science de la philosophie au double sens où la théorie cherche à produire du sens, et est en partie spéculative (au moins tant qu’elle n’a pas été testé), or ceci est indispensable pour donner un peu plus de sens à la science qu’un bon moyen de gagner de l’argent sur les marchés financiers. (Je crois que c’était justement l’opposition entre Changeux et Ricoeur sur le cerveau où le premier en "expliquant" le fonctionnement du cerveau ne répondait absolument pas à la question du sens).

  19. "les faits n’existent pas, sans une théorie, ou du moins une Weltanschauung, une direction de regard. "

    L’univers dans lequel nous vivons, nous, les hommes occidentaux du XXIème siècle, qui est ce même monde que celui dans lequel oeuvre les mécanismes de création de valeur, est essentiellement fabriqué : règlementé, régi, aménagé. Nous en connaissons les règles ou du moins nous croyons les connaître car pour l’essentiel nous les écrivons, au point de considérer l’imprévu (catastrophes naturelles, handicap, déviances, crises financières) comme des circonstances contre lesquelles la société doit lutter.

    Alors même s’il est vrai que l’immense horizon au delà du ciel, sous le sol, ou l’infiniment petit ne peut certes être observé qu’au travers d’une théorie (et encore, pour l’infiniment grand ou le lointain ça se discuter… repenser aux débats concernant l’eau sur Mars), en ce qui concerne notre monde, celui dans lequel chacun de nous vit, la théorie est fournie d’office, sous le nom de culture ou de civilisation, et parfois formulée le moins clairement possible, ne serait que pour éviter l’effet selon lequel "les belles affaires disparaissent à peine connues".

  20. Je crains que l’opposition déductif/inductif ne soit pour le moins manichéenne.
    Si l’on part du principe qu’il faut d’abord construire une théorie, ou au moins une protothéorie, celle-ci ne viendra-t-elle pas d’un rapport dialectique entre l’observation et la réflexion ?
    Je crois qu’il existe peu de cas de théories totalement abstraites de la réalité au départ : même si des faits particuliers n’ont pas fondé la théorie elle-même, la confrontation avec la réalité et un "corpus" de faits auront été a minima un socle. (avec les théories et paradigmes précédents bien entendu).
    Il est toutefois certain que cela dépend des domaines scientifiques, certaines sciences étant par essence descriptives et fondant leurs théories sur leurs observations, d’autres étant plus fondamentalement théoriques (mathématiques par exemple, quoiqu’elles s’appuient sur des objets mathématiques existants qui peuvent être un équivalent de la "réalité" observée).

    Vaste débat !!!

    Là où en revanche je vous rejoins tout à fait, c’est sur l’idée que la seule analyse de données ne saurait suffire à construire une théorie, ne serait-ce que par rapport à la question corrélation/causalité. Je travaille dans le domaine du marketing territorial (en tourisme), et les analyses de données statistiques et d’enquêtes montrent régulièrement qu’il ne suffit pas d’observer, comme l’on dit plusieurs posteurs ici, il faut comprendre ce qu’il y a derrière les faits, ce qui est particulièrement vrai en sciences humaines et sociales, les sciences de l’imprécis comme l’a dit Abraham Moles !

  21. Passant :"la théorie est fournie d’office, sous le nom de culture ou de civilisation, et parfois formulée le moins clairement possible, ne serait que pour éviter l’effet selon lequel "les belles affaires disparaissent à peine connues".
    Oui, le tout est juste d’en être conscient, et c’est d’ailleurs peut-être en cela que le "capital culturel" intervient, quelques réticences j’ai à employer ces mots en association : ouverture à l’altérité de pensée ou de culture, réflexions sur ce qu’on est et où on l’est… toutes choses qui permettent de mettre à distance ce bain idéologique.
    Sachant que les réticences à cette sortie de bain sont nombreuses : peur de l’inconnu, crainte de ne plus pouvoir manipuler l’autre, les "belles affaires" ne sont pas qu’économiques.

  22. La nouvelle de la mort de la science telle que nous la connaissons me semble très exagérée… Encore faudrait-il se mettre d’accord sur ce qu’est cette fameuse méthode, et j’ai parfois tendance à être d’accord avec Feyerabend (ce qu’il écrit, pas ce que les vulgarisateurs disent qu’il a dit). Il n’y a pas nécessairement de théorie derrière les événements (prochains) du LHC, et il est quasi-certain que du data mining dans la gigantesque archive du CERN pourra révéler des corrélations fertiles – enfin, je l’espère… – qui amèneront à corriger les théories actuelles. D’ailleurs, voilà encore un mot à envisager : "théorie". On l’a fait depuis longtemps, mais la poussière n’est pas retombée.
    Quant au number crunching (j’en ai fait aussi et je n’en suis ni honteux ni fier), tou ce que je sais c’est que si je pouvais rencontrer le Grand Architecte, les trois questions traditionnelles que je lui poserais seraient (dans l’ordre) : les équations de la mécanique des fluides, si NP/NP complet sont identiques et si Fermat avait vraiment prouvé son théorème….

  23. @ Tom Roud : en effet l’effet de serre est physiquement démontré (j’ai dit : On constate d’une part qu’il a réchauffement climatique). Ce qui ne l’est pas, c’est le lien avec l’activité humaine et même plus précisément avec quel pan de cette activité. De plus, la démonstration scientifique n’est pas selon moi la mise au point de modèles prédictifs. Elle consisterait à montrer les mécanismes aboutissant aux constats que l’on fait par l’expérience mais comme on ne sait même pas précisément (entre autres) comment les nuages se forme (physiquement parlant), cette démonstration est aujourd’hui impossible.

    @David : Non, évidemment que LA climatologie ne se résume pas à cela, les travaux du GIEC si.

  24. Petit ajout :
    Tom Roud : "De plus, on a des données bien avant l’ère industrielle qui montrent aussi ces corrélations."
    Dixit A. Delaigue : "L’utilisation des données ne permet pas de valider une théorie, c’est l’erreur du vérificationnisme."
    C’est pas moi qui l’ai dit !

    @ A. Delaigue :
    Je ne vais pas entrer sur le terrain politique parce que comme vous le dites c’est très glissant. En revanche, je peux vous assurer que d’un point de vue strictement scientifique, il n’existe aucune théorie démontrant l’origine du réchauffement climatique. Seulement (c’est déjà beaucoup !) de nombreuses origines probables mais dont le niveau d’influence reste très imprécis. Un graphique montrait très bien cela (en voulant faire le contraire d’ailleurs) dans un numéro de La recherche.

  25. La difference entre un débat en Économie et un débat en Sociologie, c’est que dans un cas on parle d’induction et dans l’autre d’ontologie (d’ailleurs pas dans le sens d’un morceau d’ontologie qui est la seule tournure que je comprenne).

    Ceci dit ne vous semble t il pas que tous ces débats sémantiques oublient en fait l’objectif, qui est d’aboutir a un modèle opératoire et permettant de maitriser le réel aussi bien que possible (comprendre, controler, agir, etc.).

    Peut importe que cela s’appelle théorie ou corrélation (ce sera toujours faux de toute manière), peut importe que cela repose sur des prémisses simplificateurs voire incorrects, l’essentiel n’est il pas que cela marche?

    Deng Hsaio Ping a du dire quelque chose dans ce sens d’ailleurs.

  26. Un peu plus sur le sujet:

    bactra.org/weblog/581.htm…

    @Merlin: c’est une maniere de voir les choses, mais "l’essentiel n’est-il pas que cela marche" n’est pas une vision partagee par toute la communaute scientifique, bien au contraire. Pour un certain nombre d’entre eux, l’essentiel n’est pas la (comprendre et controler, ce n’est pas vraiment la meme chose). Derriere tout ca, il y a donc bien differentes manieres d’envisager la science qui "s’affrontent".

  27. Intéressant.

    Bizarrement l’analyse critique ne porte que sur la question "on crunche quoi?" sans se poser la question "qui crunche?"

    Ainsi on peut penser que Thomas Piketty crunchant de façon fine, pointue, trouvera que tout prélèvement sur les riches est bénéfique ou au pire neutre, que toute augmentation du salaire minimum augmentera l’emploi ou au pire sera neutre,

    qu’Éric Maurin trouvera que toute extension de l’éducation augmentera les chances des éduqués (faute de pouvoir étudier l’alternative : l’éducation crée les emplois ou l’éducation sert de test pour les emplois existants.)

  28. David, c’était comprendre pour agir/contrôler. Ensuite je ne parlais pas de la fraction de la communauté scientifique qui s’autofinance. Juste de celle qui réclame de l’argent a la collectivité.

    "He who pays the piper calls the tune" comme disent les boutiquiers d’en face, qui ont plus de prix Nobel que nous d’ailleurs.

  29. With enough data, the numbers speak for themselves.

    1. avec ce principe, seul n’existe que ce qui a déjà été observé. Par construction, les données ne sont collectées que sur la trajectoire du système. Que se passe-t-il si (lorsqu’) on sort de ce qui a été déjà vu ?

    2. en faisant tourner beaucoup (énormément) de modèles, on finira toujours par en trouver un « qui marche ». On est proche de la problématique du biais de publication (ou de non-publication) dans les approches de type méta-analyse.

    3. et l’arbitrage entre le biais et la variance ? C’est le pont-aux-ânes de la modélisation. Il est souvent mieux identifié comme étant lié au nombre de degrés de libertés. En résumé, quand on « surajuste » un modèle (trop faible nombre de degrés de libertés), on perd toute vertu prédictive.

    4. on avait les mêmes prétentions il y a 15 ans avec l’arrivée du Data Mining (pas encore Crunching) et du Knowledge Discovery. En caricaturant, ça c’est fini en démontrant que les méthodes de réseaux de neurones se ramenaient à des estimateurs non-paramétriques d’une classe particulière, et en retrouvant des résultats généraux de la stat…

    5. On peut d’ailleurs aussi bien remonter à "Thomas Watson (fondateur d’IBM) qui déclarait en 1947 qu’un seul ordinateur « pourrait résoudre tous les problèmes scientifiques importants du monde impliquant des calculs scientifiques » et qu’il ne prévoyait d’autres usages pour les ordinateurs"
    cité par C.H. Llewellyn Smith, dans une conférence de 1997 au CERN, sous le titre À quoi sert la recherche fondamentale ? public.web.cern.ch/public…
    Pendant qu’on y est quitte à rêver de la « puissance du calcul », on peut aussi remonter jusqu’à Laplace et ses conditions initiales (mais lui, il avait une théorie…)

    6. dans le même ordre d’idées, on retrouve l’approche (àmha, délirante) de type « Echelon ». OK, on collecte tout, et on analyse. Maintenant, quand on va s’en servir en prévision (détection), on a beau « se passer de modèles », on ne pourra pas faire l’économie des erreurs de première espèce (fausse alarme) et de deuxième espèce (non détection). Même en supposant réduites l’une et l’autre à des valeurs « presque infinitésimales » (ce qui veut dire, comme chacun sait, inférieures à 1 %…) essayer d’appliquer les règles « déduites » des données aux passagers transitant par Charles de Gaulle…

    7. pour aller dans le sens d’Alexandre (au 14) et donc d’Einstein, pensons à la parallaxe annuelle. Tant qu’on n’a que le modèle géocentrique et l’image d’une voute céleste, l’idée même de la mesure est quasiment inconcevable.

    8. enfin, les données sont toujours construites (c’est rapidement mentionné dans l’article). Et, par exemple, la plupart des données ne sont pas stockées à des fins de connaissance mais à des fins de pilotage du système ou de contrôle. Pensons par exemple au nombre de chômeurs. Les « statistiques du chômage » sont un sous-produit d’un système destiné avant tout à gérer des droits à allocation. On peut mettre (un peu) de supplément d’âme dans le système on se retrouvera toujours avec des règles et conventions liées à l’ouverture et au maintien des droits (cf. les acrobaties pour reconstituer un « chômeur BIT »).
    9. à l’extrême, n’oublions pas la maxime GIGO (garbage in, garbage out)

  30. "David, c’était comprendre pour agir/contrôler. Ensuite je ne parlais pas de la fraction de la communauté scientifique qui s’autofinance. Juste de celle qui réclame de l’argent a la collectivité."

    Ce n’est pas evident que la maniere la plus efficace d’agir soit de comprendre, selon les domaines. Ce n’est pas pour rien que beaucoup d’entreprises ne font pas de recherche a proprement parler: ca ne leur servirait a rien (en faisant abstraction des avantages fiscaux et autres avantages annexes de R&D). C’est plutot un argument contre la vision utilitarise de la recherche publique: la version utilitariste, le prive peut le faire (souvent de bien meilleure maniere d’ailleurs).

  31. @ Clément :
    "@ Tom Roud : en effet l’effet de serre est physiquement démontré (j’ai dit : On constate d’une part qu’il a réchauffement climatique)."
    précision : D’une part, on est à peu près sûr de l’existence d’un effet de serre. En revanche, on a pas démontré comment il fonctionnait. Par exemple, le rôle des océans dans l’effet de serre est encore mal connu.
    D’autre part,on constate un réchauffement climatique dans l’hémisphère nord sur les 50 dernières années (dès données depuis 150 ans sont-elles vraiment fiables au dixième de degré ?)
    1. 50 ans est une période suffisante ?
    2. on ne sait pas bien comment fonctionne l’effet de serre : comment prouver l’impact de l’activité humaine ?

  32. L’avantage de construire une théorie est que vous pouvez déduire des choses jusqu’à présent non observées…
    C’est les théories d’einstein qui ont permis l’apparition des GPS et des ordinateurs…
    ainsi que de bon nombres de choses pas observables ni observées à son époque…

    certes maintenant on a beaucoup plus de puissance de calcul mais on reste tributaires des "données" collectées (avec quelle fiabilité?) et est-on bien sûr qu’on a suffisamment de données? ou qu’on mesure toutes celles qui sont nécessaires?

    pour le réchauffement climatique, revenez à vos cours de thermodynamique chimique : vous comprendrez que la terre est un système chaotique en évolution permanente mais figez tous les paramètres du système, faites une évolution de CO2, attendez l’équilibre (ce qui peut prendre du temps, voire très longtemps), vous observerez alors une évolution de température corrélée.

    C’est ce qui s’observe en laboratoire dans des enceintes reproduisant l’atmosphère avec des solides et de l’eau… D’ailleurs, l’eau est aussi un gaz à effet de serre.

    Certes c’est un modèle, mais c’est aussi des modèles qui ont permis d’élaborer des médicaments, de faire des ponts…

    tout le monde a des croyances qui filtrent notre perception de ce qu’est la réalité… nos croyances sont plus fortes et ont plus d’importance pour nous que la réalité…

    Valikor

  33. Donc si l’on en croit cet Anglo-saxon (BASP ?) on peut, en observant le monde à travers un calculateur adéquat, lire directement des réponses exactes.
    Admettons !
    Mais quelles sont les questions ?
    Existe t’il aussi une façon de calculer les questions exactes ?
    Tout ça me paraît extrêmement théorique ! ou est ma calculette ?
    Une chose est sûre tout calcul donne un résultat. Ce qui est plutôt rassurant ! Bien plus
    rassurant que des théories toujours incertaines qui ne font que redéfinir les contours de
    notre ignorance.
    Sauf que les chiffres et les calculs, quels que soient le sens qu’on leur donne, c’est du
    virtuel, de l’imaginaire, "la carte n’est pas le territoire".

    Nul ne prédit l’avenir, ou alors selon la bonne vieille théorie du tobbogan qui s’énonce
    comme suit "jusqu’ici ça va !" (ce qui est absolument vrai du premier à l’avant dernier
    instant de l’expérience…sauf écharde… )

    Ce que j’aimerais bien savoir moi c’est comment une idée pareille peut se comprendre en
    terme d’idéologie à partir des pistes suivantes: suprématie du virtuel qui pilote le réel,
    affirmation de la supériorité du calcul intensif sur la réflexion conceptualisée, primauté
    absolue du résultat par rapport à la démarche réduite à un temps machine.
    Les implications idéologique et philosophiques me semblent primordiales, le siècle des
    lumières faisait le lien entre science (philosophie naturelle) et philosophie. C’est de là que vient la méthode scientifique, elle est probablement inséparable d’un certain nombre de
    concepts et d’idéaux.
    Que notre époque voie apparaître des "théories de la non théoricité" ou seul le résultat compte et ou le nombre de vérifications empiriques (expérimentales suppose en laboratoire non ?) tient lieu de preuve n’est pas surprenant non plus. qu’on y pense, que serait un débat scientifique dans ce cas ? Une simple course à la puissance.
    Finalement l’exemple de Google est loin d’être innocent ! Seul un ordinateur, rapide et idiot, peut avoir intérêt à foncer sans réfléchir.
    Pas nous, j’espère !

Commentaires fermés.