La science repose sur des hypothèses, des expérimentations et des perfectionnements, mais l’histoire regorge d’estimations spectaculairement erronées faites par des esprits brillants. Certaines de ces prévisions étaient des projections optimistes qui sous-estimaient la complexité de la découverte, tandis que d’autres étaient des déclarations trop confiantes qui se sont révélées totalement incorrectes.
Que ce soit à cause de données inexactes, de limitations technologiques ou simplement d’un manque de connaissances à l’époque, ces dix estimations scientifiques ont manqué leur cible de loin — et dans certains cas, d’années-lumière.
Sommaire
10 L’estimation terrible de Lord Kelvin sur l’âge de la Terre
À la fin du XIXe siècle, le physicien Lord Kelvin était considéré comme l’un des esprits les plus brillants de son époque, ayant contribué de manière significative à la thermodynamique et à l’ingénierie. Lorsque les scientifiques débattaient de l’âge de la Terre, Kelvin a déclaré avec confiance qu’elle était âgée de 20 à 40 millions d’années, en se basant sur le temps qu’il faudrait à une planète en fusion pour se refroidir à son état actuel.
En utilisant des équations complexes de conduction thermique, il a calculé que la Terre avait commencé comme une masse enflammée et avait lentement rayonné sa chaleur dans l’espace. De nombreux géologues n’étaient pas d’accord, soupçonnant que la planète était beaucoup plus ancienne, mais la stature de Kelvin dans la communauté scientifique a fait de son estimation la théorie dominante. Le problème était que Kelvin manquait une information clé : la découverte de la désintégration radioactive.
En 1896, quelques années après l’estimation de Kelvin, Henri Becquerel a découvert la radioactivité. Au début du XXe siècle, les scientifiques ont réalisé que les éléments radioactifs enfouis profondément dans la Terre généraient constamment de la nouvelle chaleur, ralentissant considérablement le processus de refroidissement. Cela signifiait que le modèle de Kelvin était complètement erroné.
En 1907, des géophysiciens utilisant la datation radiométrique sur des roches anciennes ont déterminé que la Terre était en réalité âgée de 4,5 milliards d’années — plus de 100 fois plus vieille que l’estimation la plus généreuse de Kelvin.
9 IBM pensait que le monde n’aurait besoin que de cinq ordinateurs
En 1943, Thomas Watson, président de l’époque d’IBM, aurait fait l’une des prédictions les plus tristement célèbres de l’histoire technologique : que le monde n’aurait peut-être besoin que de cinq ordinateurs. À l’époque, les ordinateurs étaient des machines massives utilisées exclusivement pour des calculs militaires et des recherches scientifiques, occupant des salles entières avec des tubes à vide et nécessitant des opérateurs spécialisés. L’idée que des entreprises, et encore moins des particuliers, posséderaient un ordinateur semblait complètement absurde.
Ce que Watson a échoué à prédire, c’est la miniaturisation explosive de la technologie informatique. Dix ans plus tard, l’invention du transistor en 1947 a permis aux ordinateurs de se réduire en taille et en coût. Dans les années 1970, des entreprises comme Apple et Microsoft développaient des ordinateurs personnels qui pouvaient tenir sur un bureau.
À la fin des années 1990, les ordinateurs étaient des éléments essentiels des ménages, et aujourd’hui, plus de deux milliards d’ordinateurs personnels existent dans le monde, sans compter les smartphones, les tablettes et les ordinateurs intégrés dans des objets du quotidien.
8 L’erreur de calcul qui a failli amener Einstein à abandonner la relativité
La théorie générale de la relativité d’Albert Einstein, publiée en 1915, a révolutionné la physique en expliquant comment la gravité affecte la fabric du temps et de l’espace. Cependant, lorsque Einstein a d’abord exploré ses équations, il s’est rendu compte d’une chose troublante : elles prédisaient un univers en expansion ou en contraction plutôt qu’un état statique.
À l’époque, presque tous les scientifiques croyaient que l’univers était éternel et immuable. Ainsi, doutant de lui-même, Einstein a ajouté un « facteur de correction » — un terme appelé constante cosmologique (Λ) — pour forcer l’univers dans un état stable et immobile.
En 1929, Edwin Hubble a brisé l’idée d’un univers statique en prouvant que les galaxies s’éloignaient les unes des autres, signifiant que l’univers était en expansion. Einstein a réalisé son erreur et aurait qualifié la constante cosmologique de son « plus grand égard ». Il l’a retirée de ses équations, mais ironiquement, des décennies plus tard, les physiciens ont ressuscité la constante cosmologique pour expliquer l’énergie noire, la force mystérieuse qui stimule l’accélération de l’expansion de l’univers.
L’erreur initiale d’Einstein était en réalité plus correcte qu’il ne l’avait réalisé. Cependant, en raison du consensus scientifique à l’époque, il avait hésité et modifié son travail de manière injustifiée.
7 On pensait que la couche d’ozone mettrait des siècles à cicatriser
Dans les années 1980, des scientifiques ont découvert un trou béant dans la couche d’ozone au-dessus de l’Antarctique causé par des produits chimiques de synthèse appelés chlorofluorocarbones (CFC). La couche d’ozone, qui bloque les radiations UV nocives, était érodée plus rapidement que quiconque ne l’avait prédit. Les premiers modèles environnementaux avertissaient que si l’utilisation des CFC continuait, le trou s’aggraverait considérablement, augmentant les taux de cancer de la peau et provoquant des catastrophes écologiques.
Lorsque le Protocole de Montréal a été signé en 1987 pour éliminer progressivement les CFC, les scientifiques estimaient encore que même avec une coopération mondiale, la couche d’ozone ne cicatriserait pas avant des siècles — si jamais elle le faisait. Cependant, au début des années 2000, des données satellitaires ont montré quelque chose de surprenant : la couche d’ozone se rétablissait beaucoup plus vite que prévu. Le trou dans la couche d’ozone en Antarctique a diminué de manière constante grâce à la rapide diminution des émissions de CFC. D’ici 2024, les scientifiques estimaient qu’elle pourrait revenir à des niveaux d’avant 1980 d’ici les années 2060.
Les modèles initiaux avaient gravement surestimé les dommages à long terme, sous-estimant la résilience de la chimie atmosphérique et la rapidité avec laquelle l’intervention mondiale pouvait fonctionner. L’erreur de calcul, bien qu’initialement alarmante, s’est révélée être l’un des rares cas où une erreur scientifique a donné des nouvelles inattendues.
6 Les premiers modèles de changement climatique ont massivement sous-estimé le réchauffement global
Les climatologues ont commencé à élaborer des modèles informatiques dans les années 1970 et au début des années 1980 pour prédire comment les émissions croissantes de CO₂ affecteraient le climat de la Terre. Nombre de ces premiers modèles suggéraient que le réchauffement climatique se produirait lentement sur des siècles, laissant amplement le temps de s’adapter. Le consensus était que des mécanismes de rétroaction naturels, tels que la formation de nuages et l’absorption de chaleur par les océans, modéreraient les augmentations de température et empêcheraient un réchauffement incontrôlé.
Dans les années 2000, il était clair que ces premières estimations étaient dangereusement erronées. Au lieu de se dérouler lentement, le changement climatique s’est accéléré bien plus rapidement que prévu, avec des vagues de chaleur record, un dégel plus rapide des glaces et des événements climatiques extrêmes survenant des décennies plus tôt que prévu. En 2023 seulement, les températures mondiales ont battu des records précédents, certaines parties du monde enregistrant des indices de chaleur supérieurs à 65°C — des niveaux considérés comme atteints dans les premiers modèles climatiques.
Certains points de basculement, comme l’effondrement de la calotte glaciaire du Groenland, sont désormais peut-être irréversibles. La sous-estimation de la rapidité et de la gravité du changement climatique causé par l’homme a conduit à un retard d’action, rendant beaucoup plus difficile la prévention de conséquences catastrophiques dans un avenir proche.
5 La grande crise de la bouse de cheval qui n’a jamais eu lieu
À la fin du XIXe siècle, les plus grandes villes du monde comptaient sur le transport par chevaux, et cela a engendré un gros problème : des montagnes de fumier s’accumulant dans les rues. Les urbanistes et les experts en santé publique estimaient qu’en 1930, des villes comme New York et Londres seraient ensevelies sous au moins 2,7 mètres de fumier de cheval, rendant la vie urbaine à grande échelle insoutenable.
Des articles de l’époque mettaient en garde contre des conséquences apocalyptiques, affirmant que la maladie, la saleté et une odeur insupportable rendraient les villes invivables. Lors de la première Conférence internationale d’urbanisme en 1898, les responsables avaient du mal à trouver une solution, pensant que le problème était trop vaste pour être résolu. Puis, dans un retournement inattendu, le moteur à combustion interne a complètement effacé le problème. L’invention des voitures et des systèmes de transport public a remplacé les chevaux si rapidement qu’en 1912, les véhicules à cheval étaient déjà en forte baisse.
La crise jadis imminente a disparu du jour au lendemain, rendant toutes les prévisions de catastrophe obsolètes. Au lieu de s’enliser dans le fumier de cheval, les villes devaient désormais se soucier des embouteillages et du smog. C’était l’un des plus grands exemples d’une erreur de calcul scientifique n’ayant pas pris en compte la disruption technologique, prouvant que parfois, l’ingéniosité humaine avance plus vite que les catastrophes anticipées.
4 L’Internet était censé être un outil de niche
En 1995, l’astronome Clifford Stoll a écrit un article désormais célèbre pour Newsweek, déclarant avec assurance que l’Internet était surévalué et ne serait jamais largement utilisé. Il a rejeté les prédictions concernant le shopping en ligne, les livres électroniques et les communautés numériques, affirmant que les gens préfèreraient toujours les journaux, le shopping en personne et les bibliothèques traditionnelles. Il est même allé jusqu’à dire : « Aucune base de données en ligne ne remplacera votre journal quotidien. »
De nombreux experts à l’époque étaient d’accord avec lui, pensant que l’Internet resterait un outil spécialisé pour les agences gouvernementales et les chercheurs, au lieu de devenir une technologie grand public. La prédiction de Stoll s’est révélée être l’une des plus spectaculairement erronées de l’histoire technologique.
Au début des années 2000, Amazon avait redéfini le commerce de détail, Google avait remplacé les bibliothèques physiques, et les médias sociaux prenaient rapidement le pas sur la communication quotidienne. En 2024, plus de cinq milliards de personnes utilisent régulièrement l’Internet, et les journaux traditionnels et les librairies physiques ont du mal à survivre.
3 L’estimation précoce de la surface de la Lune par la NASA était complètement erronée
Avant l’atterrissage sur la Lune d’Apollo 11 en 1969, les scientifiques avaient des idées très différentes sur la surface lunaire. Certains astronomes croyaient que la Lune était recouverte d’une couche profonde de poussière fine, ce qui pourrait rendre impossible un atterrissage sûr pour les astronautes ou les engins spatiaux. Cette peur était basée sur les premières observations télescopiques, qui suggéraient que les cratères lunaires étaient remplis de matériel doux et flottant. Certains théorisaient même que la surface de la Lune pourrait être un piège à poussière sans fond, engloutissant tout ce qui la touchait.
La NASA a pris ce risque au sérieux, concevant les patins d’atterrissage d’Apollo et les bottes des astronautes pour répartir le poids autant que possible. Mais lorsque Neil Armstrong et Buzz Aldrin ont foulé le sol, ils ont trouvé que c’était ferme et stable, recouvert uniquement d’une fine couche de poussière. L’estimation incorrecte était due à un malentendu sur la manière dont les impacts de micrométéorites avaient compacté le sol lunaire au fil des milliards d’années.
Au lieu de s’enfoncer, les astronautes d’Apollo n’ont eu aucun mal à marcher, et la NASA n’a plus jamais eu de souci avec ce problème.
2 L’univers devait être beaucoup plus petit
Avant les découvertes d’Edwin Hubble dans les années 1920, les astronomes croyaient que la Voie lactée était l’univers entier. Beaucoup pensaient que les mystérieuses « nébuleuses spirales » visibles dans les télescopes n’étaient que de petits nuages de gaz au sein de notre propre galaxie plutôt que des galaxies distantes à part entière. En fait, le célèbre astronome Harlow Shapley affirmait publiquement que l’univers n’avait qu’environ 100 000 années-lumière à travers, basé uniquement sur l’hypothèse que la Voie lactée était tout ce qui existait.
Tout a changé lorsque Hubble a utilisé l’observatoire de Mount Wilson pour étudier la nébuleuse d’Andromède, prouvant qu’elle était bien plus éloignée que la Voie lactée, la faisant apparaître comme une galaxie entièrement distincte. Ses découvertes ont montré que l’univers était des millions de fois plus grand que ce que l’on croyait auparavant, avec des milliards de galaxies s’étendant sur des distances inimaginables.
Cela a complètement brisé les estimations précédentes, poussant les scientifiques à réexaminer tout ce qu’ils savaient sur l’espace. Aujourd’hui, nous estimons que l’univers s’étend sur au moins 93 milliards d’années-lumière — une augmentation stupéfiante par rapport à l’estimation originale de Shapley de 100 000 années-lumière.
1 Le génome humain était censé avoir plus de 100 000 gènes
Avant le projet sur le génome humain, les généticiens estimaient que les humains avaient au moins 100 000 gènes codant pour diverses protéines et fonctions corporelles. Cette estimation était basée sur l’hypothèse qu’un organisme plus complexe devait nécessiter beaucoup plus de gènes que les formes de vie plus simples. Puisque les bactéries avaient quelques milliers de gènes, et que les mouches des fruits en avaient environ 14 000, les scientifiques pensaient que les humains — étant beaucoup plus complexes — devaient avoir un nombre de gènes de l’ordre des six chiffres pour expliquer notre intelligence et notre sophistication biologique.
Lorsque le projet sur le génome humain a été achevé en 2003, les chercheurs ont été stupéfaits de découvrir que les humains n’avaient qu’environ 20 000 à 25 000 gènes — bien moins que prévu. Non seulement nous avons moins de gènes que beaucoup ne s’y attendaient, mais nous en avons également moins que certaines formes de vie plus simples, comme certaines plantes et amphibiens.
Cette incroyable erreur de calcul a forcé les scientifiques à repenser ce qui rend réellement les humains uniques, réalisant que la régulation des gènes, l’expression génétique et l’ADN non codant jouent un rôle bien plus important dans la complexité biologique que le simple nombre de gènes.