
(Retranscription fidèle d’un exposé imaginaire)
Qu’est-ce que la science selon Karl Popper ?
S’il est un nom qui revient inlassablement lorsqu’il s’agit de définir la nature même de la science, c’est bien celui de Karl Popper. Né à Vienne en 1902 et décédé à Londres en 1994, Popper jouit encore aujourd’hui d’une notoriété considérable. Pourtant, cette célébrité contraste de manière frappante avec la connaissance réelle de sa pensée et de son œuvre. Il est difficile de se défaire de l’impression que la plupart de ceux qui invoquent Popper, qu’il s’agisse de journalistes ou même de chercheurs, n’en retiennent guère plus que quelques lieux communs erronés.
Il ne fait aucun doute que Popper représente une étape décisive dans l’histoire de la philosophie des sciences et de l’épistémologie contemporaine. Sa critique du néopositivisme viennois et de la théorie de la confirmation a marqué un tournant important. Toutefois, ses premières formulations du fallibilisme, bien que novatrices à leur époque, étaient déjà considérées comme dépassées de son vivant. Surtout, il est rapidement apparu que la conception poppérienne de la science n’entretenait que peu, voire aucun lien, avec la pratique réelle de la recherche scientifique.
Dans cette optique, il convient de faire une remarque préliminaire. Popper n’a pas élaboré sa théorie de la science à partir d’une analyse empirique de l’activité scientifique concrète. Ses thèses ne reposent ni sur des enquêtes de terrain ni sur des observations de la pratique effective des chercheurs. Il s’agit au contraire de constructions purement philosophiques. En ce sens, son approche épistémologique est fondamentalement normative : Popper s’intéresse moins à ce que fait effectivement la science qu’à ce qu’elle devrait faire. Popper essaye de définir ce que la science, comme pratique, devrait être pour correspondre aux normes philosophiques et logiques de la connaissance.
C’est cette distinction qu’il faut garder à l’esprit lorsque l’on aborde ce que Popper appelle le « problème de la démarcation ». Par ce terme, il entend la définition des critères qui distingueraient la science authentique d’une pseudoscience. Ici encore, le jugement normatif prime : il y aurait, selon Popper, une « bonne » science et une « mauvaise », une science « correcte » et une autre « erronée ». En ce sens, le critère de démarcation relève avant tout d’un jugement proprement moral, permettant de trancher entre le bon et le mauvais, entre ce qui mérite d’être reconnu comme science et ce qui ne le mérite pas. Il est donc possible affirmer que Popper propose tout d’abord une théorie morale de la science.
Toute démarche qui ne se conforme pas à cette exigence est alors disqualifiée — soit comme pseudoscience (la psychanalyse, le marxisme), soit comme entreprise étrangère à la science. Une telle position permet de décider à l’avance, sans aucune analyse de ce que les chercheurs font réellement, de ce qui mérite ou non le statut de savoir scientifique.
Le critère de démarcation selon Popper
Comment Popper définit-il, en fin de compte, ce qu’est la science ?
L’idée première est d’une simplicité désarmante, et elle repose sur un raisonnement purement logique, donc a priori. Pour confirmer de manière certaine une proposition universelle — en termes logiques, un quantificateur universel du type « Pour tout x, P(x) » ou « Tout x possède la propriété P » — il faudrait une infinité d’observations. En revanche, pour invalider une telle proposition, un seul contre-exemple suffit ; une économie d’effort considérable. Ainsi, je ne pourrai jamais affirmer avec certitude que « tous les cygnes sont blancs », mais il me suffit d’apercevoir un cygne noir australien pour réfuter l’affirmation universelle.
C’est précisément ainsi que la science devrait fonctionner selon Popper. Il ne s’agit pas d’accumuler des confirmations pour étayer des hypothèses, mais de formuler des hypothèses susceptibles d’être réfutées selon des règles de mise à l’épreuve empirique.
Telle est la substance du fallibilisme poppérien : ce qui distingue une bonne science d’une mauvaise science, ce ne sont pas ses connaissances ou ses hypothèses confirmées, ce n’est pas son savoir confirmé, mais la nature formelle, la réfutabilité de principe de ses affirmations.
Autrement dit, pour Popper, toute connaissance scientifique est une connaissance provisoirement non réfutée, mais construite pour pouvoir être réfutée.
Cette perspective entraîne plusieurs conséquences aussi originales qu’inattendues :
- Toute connaissance scientifique n’a de validité que temporaire : elle est simplement « non encore falsifiée » et ne saurait, en aucun cas, être tenue pour une vérité durable. Autrement dit, toute connaissance est, par essence, historiquement limitée et donc toujours en sursis d’une future falsification.
- Le « consensus scientifique », si souvent invoqué dans les discours politiques ou médiatiques, n’a aucune valeur épistémique en tant que tel. Prenons l’exemple du consensus sur le réchauffement climatique. Une étude très citée de 2013 établit qu’il existe un large consensus, explicite ou implicite, parmi les climatologues pour affirmer que le climat se réchauffe, et que cette évolution est d’origine anthropique. Mais du point de vue de Popper, peu importe que 10 %, 50 % ou 100 % des scientifiques partagent cet avis. Il suffit qu’un chercheur, même peu connu, publie dans une revue scientifique une étude apportant la preuve empirique que le réchauffement est causé par un autre facteur, pour que le consensus tout entier s’effondre.
L’origine de la morale scientifique de Popper
Pourquoi Popper a‑t-il éprouvé le besoin de développer une théorie aussi normative de la science ?
Pendant ses années d’études, Popper s’intéressait en même temps à la psychanalyse et au marxisme. Il fut membre de la jeunesse socialiste et adhéra en 1918 au Parti communiste d’Autriche. Côté psychanalyse, il suivait les idées d’Alfred Adler, avec lequel il entretenait des relations personnelles. Comme il le rapporte lui-même, il fréquentait Adler « dans le cadre du travail social auprès des enfants et des jeunes des quartiers ouvriers de Vienne […] où Adler avait mis en place des centres de conseil social » (Popper, 2002, p. 45).
Ce qui est particulièrement intéressant, c’est la manière dont Popper décrit la mentalité intellectuelle et scientifique qui régnait dans les milieux psychanalytiques et marxistes :
Je constatai que ceux de mes amis qui admiraient Marx, Freud et Adler étaient impressionnés par plusieurs points communs entre ces théories, notamment leur pouvoir explicatif apparent. Ces doctrines semblaient capables d’expliquer à peu près tout ce qui se passait dans leur domaine respectif. Les étudier produisait un effet de conversion intellectuelle ou de révélation, une sorte d’ouverture des yeux sur une vérité jusque-là cachée. Et une fois cette illumination acquise, on voyait des exemples confirmateurs partout : le monde paraissait regorger de preuves en faveur de la théorie. Quoi qu’il arrivât, tout venait la confirmer. (Popper, 2002, p. 45)
Le problème que Popper met ici en lumière est celui de ce que l’on appelle en philosophie des sciences la théorie de la confirmation. Celle-ci repose sur une idée intuitive, mais fragile : on validerait une hypothèse générale par l’accumulation d’observations particulières allant dans son sens. C’est la conception la plus simple et la plus naïve de ce que serait la science.
Or les limites de cette approche sont évidentes :
- Une confirmation totale est impossible : pour valider une affirmation générale, il faudrait pouvoir recenser tous les cas possibles, ce qui n’est jamais faisable. On n’obtient donc, au mieux, qu’une confirmation partielle — ce qui affaiblit déjà considérablement la portée de la conclusion.
- Mais le plus problématique est ailleurs : dans le fait qu’il est toujours possible de trouver une confirmation pour n’importe quelle hypothèse empirique. Pourquoi ? Parce que :
- Toute observation empirique nécessite une interprétation, et s’avère donc malléable. Un fait peut presque toujours être reconfiguré pour s’accorder avec la théorie.
- Il est toujours possible d’introduire des hypothèses ad hoc – c’est-à-dire inventées sur le moment – pour neutraliser les cas « résistants » et sauver la théorie.
Cela est particulièrement manifeste en psychanalyse, mais aussi, plus largement, en psychologie clinique : avec un peu d’habileté, tout symptôme peut être rattaché à quasiment n’importe quelle théorie.
Ainsi, une phobie peut s’expliquer :
- chez Freud, par un traumatisme précoce ou une angoisse de castration œdipienne ;
- chez Mélanie Klein, par une position schizo-paranoïde mal intégrée ;
- chez Winnicott, par une carence dans le « holding » maternel ou un environnement insuffisamment sécurisé ;
- chez Lacan, comme manque du signifiant paternel, censé protéger du Réel et inscrire le sujet dans l’ordre symbolique ;
- enfin, dans une approche béhavioriste, elle sera simplement comprise comme le résultat d’un conditionnement — et éventuellement traitée comme tel.
Bref, une théorie qui peut tout expliquer explique peut-être trop, et c’est ce que Popper identifie comme le cœur du problème : l’irréfutabilité déguisée en puissance explicative.
La physique comme pseudoscience ?
Deux exemples historiques permettent d’illustrer concrètement en quoi l’approche de Popper entre en contradiction avec la réalité de la pratique scientifique.
Au début du 19e siècle, les lois du mouvement et de la gravitation formulées par Newton étaient abondamment « confirmées » par l’observation. Or, les astronomes constatèrent que la trajectoire d’Uranus ne suivait pas exactement les prévisions établies à partir de ces lois. Selon la morale scientifique poppérienne, un tel constat aurait dû conduire à rejeter la physique newtonienne.
Mais cette idée ne vint à l’esprit d’aucun scientifique. Au lieu de cela, les astronomes formulèrent une hypothèse ad hoc pour sauver le modèle newtonien : ils postulèrent l’existence d’une planète jusqu’alors inconnue, dont la masse et la position expliqueraient les anomalies du mouvement d’Uranus. Cette planète hypothétique fut baptisée Neptune.
Autrement dit, la cohérence du modèle newtonien fut maintenue en « inventant » un corps céleste entier — une démarche qui ferait sans doute bondir tout poppérien conséquent, tant elle incarne ce qu’il identifie comme une stratégie typiquement pseudoscientifique.
Voici, en résumé, la chronologie de cette affaire, que Popper aurait pu juger comme un exemple de « mauvaise science » :
- 1687 : Newton publie les Principia Mathematica, où il énonce les lois du mouvement et la loi universelle de la gravitation.
- 1781 : William Herschel découvre Uranus.
- 1821 : on observe que l’orbite d’Uranus ne correspond pas aux calculs newtoniens.
- 1830 – 1845 : on postule qu’une planète inconnue pourrait expliquer ces écarts. Pour Popper, cela constituerait un experimentum crucis (une expérience cruciale) qui aurait dû réfuter la physique newtonienne.
- 1846 : Neptune est effectivement découvert, conformément aux calculs de Le Verrier.
Ce qui rend cette découverte si fascinante, c’est qu’il s’agit du premier corps céleste prévu théoriquement avant d’être observé. Le Verrier et Adams avaient calculé sa position, et Johann Gottfried Galle l’a effectivement repéré, à un degré près, là où Le Verrier l’avait prédit.
Autrement dit : c’est une transgression du principe de falsification, un acte scientifiquement « immoral » selon Popper, qui a permis un progrès majeur en astronomie. Si les astronomes avaient strictement suivi la logique poppérienne, Neptune n’aurait jamais été découvert.
Le cas du modèle standard : quand la physique devient-elle imaginaire ?
La situation devient encore plus troublante avec la physique des particules contemporaine. Le modèle standard, considéré comme la meilleure description théorique actuelle de la matière, repose sur une multitude de particules hypothétiques, dont certaines n’ont jamais été observées et peut-être ne le seront jamais, tout simplement parce qu’elles n’existent pas.
L’exemple le plus connu est celui du boson d’Higgs, théorisé en 1964, mais observé seulement en 2012, soit près d’un demi-siècle plus tard. Faudrait-il alors, selon Popper, considérer que toute la physique des particules fut une pseudoscience durant 48 ans ?
Et que dire des neutrinos droitiers, des bosons W et Z virtuels, des particules supersymétriques ou encore des monopôles magnétiques ? Aucun de ces objets n’a jamais été observé. Pourtant, ils sont nécessaires au bon fonctionnement du modèle. Ce sont des entités imaginaires, que l’on doit supposer pour que les équations tiennent.
Cela signifie que, selon les critères de Popper, le modèle standard devrait être rejeté — ou bien que toute la physique contemporaine est devenue, par essence, pseudoscientifique, du fait même de ses stratégies de « sauvetage » théorique.
Il en va de même pour la physique quantique et, plus encore, pour la théorie quantique des champs : de nombreuses entités mathématiques y sont indispensables, non pas comme objets réels observables, mais comme constructions formelles, modèles de calcul ou paramètres d’interprétation.
Une science imaginaire ? La critique empirique de Popper
La question centrale est donc la suivante : la théorie de la science de Popper correspond-elle à la pratique réelle de la science ?
La réponse semble déjà acquise au vu des exemples précédents. Mais elle a aussi été testée de manière empirique. En 2006, le philosophe suédois des sciences Sven Ove Hansson a évalué soixante-dix articles publiés dans la revue Nature à l’aune des critères de Popper (Hansson, 2006). Résultat : seuls deux articles respectaient ces critères, et un seul mettait effectivement en œuvre un protocole de falsification conforme à la théorie poppérienne.
Cela signifie que, selon Popper :
- soit l’écrasante majorité des publications dans Nature sont pseudoscientifiques,
- soit ses critères échouent à décrire ce qu’est la science en pratique.
Mais la critique ne s’arrête pas là : les critères poppériens sont à la fois trop restrictifs et trop permissifs.
Pourquoi trop permissifs ? Parce que des doctrines telles que l’astrologie, la graphologie ou la parapsychologie peuvent tout à fait formuler des hypothèses empiriquement testables — ce qu’elles ne se privent d’ailleurs pas de faire. La télépathie, par exemple, peut être examinée dans le cadre d’expériences contrôlées en laboratoire. De même, les effets supposés des alignements planétaires sur le destin humain sont calculables, donc testables.
Or, cela signifie qu’au nom même des critères formels de Popper, ces disciplines pourraient prétendre au statut de science.
Paradoxalement, Popper rendrait donc plus facile la reconnaissance scientifique des pseudosciences, et plus difficile celle des sciences les plus avancées.
De la morale scientifique à l’analyse sociologique
On est alors en droit de se demander si la logique poppérienne n’a pas fini par devenir moins un instrument contre les croyances irrationnelles, qu’un involontaire bouclier en leur faveur.
Dès lors, que serait une approche non a priori, non déductive, de la science ?
Un bon exemple nous est donné par l’œuvre de Ludwig Fleck, médecin, biologiste et immunologiste né à Lemberg en 1896, mort à Nes Ziona (Israël) en 1961. Contrairement à Popper, Fleck a pensé la science depuis sa propre pratique de chercheur.
Ce qui l’intéresse n’est pas ce que les sciences devraient faire pour mériter leur titre, mais comment les scientifiques, en l’occurrence les biologistes et les immunologues, procèdent concrètement pour établir des faits et construire des connaissances. Il adopte une démarche descriptive et sociologique, non normative.
Dans son ouvrage majeur La genèse et le développement d’un fait scientifique (1935), Fleck montre — à partir d’exemples tirés de la biologie et de la médecine — comment la science fonctionne réellement, et non comment elle devrait fonctionner.
Son approche peut se résumer ainsi :
- La science est un processus social. Elle n’est ni une déduction rationnelle isolée, ni une simple confrontation du sujet connaissant à l’objet connu.
- Les faits scientifiques sont historiquement et culturellement situés.
- Ce sont des collectifs de pensée, et non des individus isolés, qui produisent le savoir scientifique. Ce sont des champs sociaux, au sens bourdieusien.
- Ces collectifs sont structurés par des styles de pensée : des manières orientées de percevoir, de traiter et d’interpréter les phénomènes.
- La vérité scientifique est donc relative aux collectifs qui la produisent et aux styles de pensée qui les caractérisent.
D’abord ignoré par la philosophie dominante des sciences, Fleck ne fut redécouvert qu’à partir des années 1960, et surtout des années 1970, dans le sillage de Thomas Kuhn, qui développa sa propre théorie des révolutions scientifiques sans avoir eu connaissance des travaux de Fleck.
À partir des années 1980, Fleck devient une référence majeure pour la nouvelle sociologie des sciences (à ne pas confondre avec la sociologie de la connaissance) et pour les Science and Technology Studies (STS).
Conclusion : science, pseudoscience… ou pluralité des pratiques ?
D’un point de vue normatif, il est tentant de parler de la science et de la pseudoscience comme s’il existait un critère universel et intemporel de scientificité.
Mais une approche empirique et analytique rend ce projet hautement problématique. Elle montre que nous avons affaire non pas à une essence unique de la science, mais à une pluralité historiquement variable, politiquement située et économiquement déterminée de pratiques scientifiques, de méthodes, de styles, de terrains, de dispositifs et de communautés.
Autrement dit : il n’y a pas une seule science, mais une constellation de champs scientifiques, dont les frontières et les critères ne peuvent se penser qu’en situation.
Bibliographie
- Hansson, S. O. 2006. « Falsificationism Falsified. » Foundations of Science, 11(3), p. 275‑286.
- John Cook, Dana Nuccitelli, Sarah A Green, Mark Richardson, Bärbel Winkler. Juni 2013. “Quantifying the consensus on anthropogenic global warming in the scientific literature.” In : Environmental Research Letters. Band 8, Nr. 2, 1., S. 024024
- Popper, K. R. (2002 [1963]). Conjectures and Refutations : The Growth of Scientific Knowledge. Routledge.