Stephen Hawking est sans aucun doute un physicien très respecté de son vivant. Il est à l’origine de la découverte du rayonnement de Hawking, et ses travaux sont connus dans le monde entier. Athée non militant, il possédait ses propres théories sur la fin du monde.
Résumé de l’article
Il identifiait quatre risques majeurs : changement climatique, intelligence artificielle incontrôlée, guerre nucléaire et surpopulation couplée à la surconsommation énergétique. Hawking n’a jamais fixé de date précise, mais évoquait des horizons conditionnels : environ 100 ans pour devenir une espèce multi-planétaire, jusqu’à 2600 dans un scénario climatique extrême, ou 1000 ans sans colonisation spatiale. Son message central était clair : ces dangers sont évitables par des décisions collectives rapides. En 2026, ses avertissements restent scientifiquement crédibles, malgré des progrès partiels en IA, climat et exploration spatiale.
Quelles étaient les principales menaces identifiées par Stephen Hawking ?
Stephen Hawking a identifié plusieurs dangers majeurs pour la survie de l’espèce humaine, tous liés à des comportements humains plutôt qu’à des catastrophes naturelles imprévisibles. Voici les plus souvent cités dans ses interventions :
- Le changement climatique et ses conséquences sur l’habitabilité de la planète.
- Le développement incontrôlé de l’intelligence artificielle, capable de surpasser l’humain.
- Les risques de guerre nucléaire dus à l’agressivité humaine.
- La surpopulation combinée à une consommation énergétique croissante, qui pourrait épuiser les ressources.
Hawking insistait sur le fait que ces menaces sont évitables avec des décisions collectives rapides. Il n’a jamais mentionné de vaccins génétiquement modifiés ou d’invasion extraterrestre comme risques principaux, contrairement à certaines interprétations populaires.
Stephen Hawking a-t-il fixé une date précise pour la fin de l’humanité ?
Non, Hawking n’a jamais donné une date unique et définitive. Ses estimations variaient selon le contexte et les risques évoqués.
Les déclarations sur les « 100 ans » pour quitter la Terre
En 2016 et 2017, lors d’interviews BBC et de conférences, Hawking a déclaré que l’humanité doit commencer à coloniser d’autres planètes dans les 100 ans à venir pour éviter l’extinction. Cette échéance concernait surtout la nécessité de devenir une espèce multi-planétaire face aux risques cumulés.
La prédiction de la Terre comme « boule de feu » en 2600
En 2017, Hawking a averti que la surpopulation et la consommation énergétique pourraient transformer la Terre en une « boule de feu » semblable à Vénus d’ici 2600, soit dans environ 600 ans à l’époque. Cette image forte visait à illustrer les effets extrêmes d’un effet de serre incontrôlé.
La vision à plus long terme (1000 ans sans colonisation spatiale)
Dans d’autres déclarations, il estimait que sans migration spatiale, l’humanité pourrait disparaître dans les 1000 ans à venir, laissant une marge plus large mais soulignant toujours l’urgence d’agir.
Pourquoi Stephen Hawking insistait-il sur la colonisation d’autres planètes ?
Hawking voyait la colonisation spatiale comme la seule assurance-vie réaliste pour l’humanité. Rester confinés sur une seule planète expose l’espèce à un risque total d’extinction en cas de catastrophe globale.
Il citait souvent la Lune et Mars comme premières étapes accessibles. Selon lui, devenir une civilisation interplanétaire permettrait de répartir les risques et d’assurer une survie à très long terme. Cette vision pragmatique s’appuyait sur les progrès technologiques déjà en cours à son époque.
Les avertissements de Hawking sur l’intelligence artificielle sont-ils toujours d’actualité en 2026 ?
Oui, les mises en garde de Hawking sur l’IA restent pertinentes. Il craignait qu’une IA superintelligente développe ses propres objectifs, potentiellement incompatibles avec les nôtres. En 2026, les modèles d’IA continuent d’évoluer rapidement, avec des applications dans tous les domaines.

Cependant, des régulations importantes ont été mises en place : l’Union européenne applique pleinement son AI Act depuis 2024, et plusieurs pays collaborent sur des normes de sécurité. Les experts reconnaissent toujours le risque existentiel, mais les efforts pour aligner l’IA sur les valeurs humaines progressent.
Le changement climatique rendra-t-il la Terre inhabitable d’ici 2600, comme Hawking le craignait ?
La projection de Hawking pour 2600 reste spéculative, mais les tendances actuelles montrent que le risque est sérieux si rien ne change.
Ce qu’en disent les rapports scientifiques récents (GIEC, NASA 2025-2026)
Les rapports 2025 du GIEC et de la NASA confirment que 2025 a été l’une des années les plus chaudes enregistrées, avec des températures globales proches des records de 2023 et 2024.
Les projections indiquent un réchauffement continu, avec un risque élevé de dépasser 1,5 °C dans les prochaines années. Aucun rapport officiel ne valide une Terre « boule de feu » en 2600, mais les scénarios extrêmes sans réduction drastique des émissions restent possibles.
Évolution de la consommation énergétique et de la population depuis 2018
La population mondiale approche les 8,2 milliards en 2026, contre 7,6 milliards en 2018. La consommation énergétique globale a augmenté de plus de 2 % par an en moyenne, mais les énergies renouvelables représentent désormais une part croissante.
Les data centers et l’IA poussent la demande électrique à la hausse, compensée en partie par des investissements massifs dans le solaire et l’éolien.
Y a-t-il eu des progrès concrets depuis les alertes de Hawking ?
Oui, plusieurs avancées notables ont eu lieu depuis 2018, montrant que les alertes ont été entendues. Mais cela reste insuffisant face à la montée des puissances militaires mondiales.
Colonisation spatiale (missions Mars, Starship, bases lunaires en 2026)
Le programme Artemis de la NASA progresse vers un retour humain permanent sur la Lune, avec des missions habitées prévues dès 2026-2027. SpaceX a multiplié les tests réussis de Starship, préparant des cargos vers Mars. Des partenariats privés et publics visent une base lunaire durable d’ici la fin de la décennie.
Gestion des autres risques (accords nucléaires, régulation IA)
- Des accords bilatéraux limitent l’usage de l’IA dans les systèmes nucléaires.
- La prolifération nucléaire reste contenue malgré les tensions géopolitiques.
- La régulation internationale de l’IA avance avec des cadres comme l’AI Act européen et des discussions à l’ONU.
Stephen Hawking avait-il raison d’être pessimiste ?
Hawking adoptait un pessimisme constructif : les risques sont réels, mais l’humanité possède les outils pour les surmonter. Hawking expliquait qu’il existe sept technologies déjà existantes capables de transformer les êtres humains en dieux. En 2026, les défis persistent – réchauffement record, IA puissante, tensions géopolitiques – mais les progrès en espace et en technologies propres montrent qu’une trajectoire positive reste possible.

