- Pourquoi le futur n'a pas besoin de nous
-
Pourquoi le futur n’a pas besoin de nous sous-titré : « les technologies les plus puissantes de XXIe siècle : le génie génétique, la robotique et les nanotechnologies menacent d’extinction l’espèce humaine. » est un article de Bill Joy, datant de 2000, publiée notamment dans Wired Magazine.
Joy explique qu'il est convaincu qu'avec les avancées scientifiques et techniques en génétique et en nanotechnologie, les robots intelligents remplaceront l'humanité, au moins sur les plans intellectuel et social, dans un futur relativement proche. Il inclut dans son texte une réflexion sur les positions « neo-Luddite » de Unabomber. En 2004, en partie en réaction à la portée de ce texte, une réunion à Alexandria (Virginie) rassemble pour la première fois des experts de 26 pays qui débattent de la façon de réguler ce type de recherche au niveau planétaire.(source CEA)
Sommaire
Citations
« Je l'ai senti moi-même. Le scintillement des armes nucléaires. Il est irrésistible si vous les approchez comme un scientifique. De sentir que c'est là dans vos mains, de libérer cette énergie qui alimente les étoiles, de la plier à votre volonté. D'exécuter ces miracles, de soulever un million de tonnes de roche dans le ciel. C'est quelque chose qui donne aux gens une illusion de pouvoir illimité et c'est, en quelque sorte, la cause de tous nos ennuis - cela, ce que vous pourriez appeler l'arrogance technique, qui a raison des gens quand ils voient ce qu'ils peuvent faire avec leur esprits" »
— Else, Jon.The Day After Trinity: J. Robert Oppenheimer and The Atomic Bomb.
« Maintenant, comme alors, nous sommes les créateurs de nouvelles techniques et les étoiles d'un avenir imaginé, poussés en avant - cette fois par de grandes récompenses financières et la compétition globale - malgré les dangers bien apparents, évaluant à peine à quoi cela ressemblera d'essayer de vivre dans un monde qui est le résultat probable de ce que nous créons et imaginons. »
Le philosophe John Leslie a étudié cette question et a conclu que le risque de l'extinction humaine est au moins de 30 pour cent[1], tandis que Ray Kurzweil croit que nous avons « plus de chance que jamais de nous en sortir », tout en avertissant qu'il « a toujours été accusé d'être un optimiste ». Non seulement ces évaluations ne sont pas encourageantes, mais elles n'incluent pas la probabilité de beaucoup de résultats horrifiants qui n'impliquent pas l'extinction.
« Cela a cristallisé mon problème avec le rêve de Kurzweil. Une approche technologique de l'Éternité - la quasi-immortalité par la robotique - peut ne pas être l'utopie la plus désirable et sa poursuite apporte des dangers clairs. Peut-être devrions nous repenser nos choix utopiques. »
Le contenu de l'article est une critique de la singularité technologique, et indirectement de la société technologique ainsi que du progrès sans responsabilité.
Voir aussi
Liens internes
Auteur attaqué : Ray Kurzweil, son transhumanisme, et sa vision idyllique du progrès technologique et de la singularité technologique
Concepts liés :
- Principe de précaution
- Le principe responsabilité
- Liberté
- Humanisme
- Après-développement
- Économies libres
- Culture libre
- Liberté de penser
- Auto-organisation
- Ouverture (philosophie)
- Système ouvert (la théorie des systèmes)
- Néo-luddisme
- Luddisme
- Réappropriation
Auteurs liés :
- Georges Bernanos, La France contre les robots,
- Jacques Ellul, La technique, ou L'enjeu du siècle
- Theodore Kaczynski, La Société industrielle et son avenir
- Hannah Arendt, Les Origines du totalitarisme
- Hans Jonas, Le Principe responsabilité
- Ivan Illich, Origine du monde moderne
Concepts attaqués :
Références
- « nous devrions avoir une certaine répugnance à croire que nous sommes très exceptionnellement tôt, par exemple dans les 0,001 premiers pour cent de tous les humains qui auront jamais vécu. Ce serait une certaine raison de penser que l'humanité ne survivra plus pendant beaucoup plus de siècles, sans parler de coloniser la galaxie. L'argument du Jour du Jugement Dernier de Carter ne produit pas d'évaluation de risque par lui même. C'est un argument pour revoir les évaluations que nous produisons quand nous considérons divers dangers possibles ». (Routledge, 1996 : 1, 3, 145.) Cette évaluation se trouve dans le livre de Leslie The End of the World: The Science and Ethics of Human Extinction, où il note que la probabilité d'extinction est sensiblement plus haute si nous acceptons l'Argument du Jour du Jugement Dernier de Brandon Carter, qui est, brièvement, que "
Liens externes
- Pourquoi l'avenir n'a pas besoin de nous
- (en) Why the future doesn't need us, Wired, avril 2000
Autres traductions :
- Pourquoi le futur n’a pas besoin de nous , brochure (infokiosque)
- Pourquoi l'avenir n'a pas besoin de nous, traduction du précédent, texte de Bill Joy.
- Un visionnaire qui prend de la hauteur (Pour mieux comprendre la portée de l'article de Bill Joy dans Wire)
- Article du Monde sur les réactions suite a l'article de Bill Joy sur les dangers du "nanomonde"
- Bill Joy's Hi-Tech Warning
- Bill Joy, techcast.ddj.com
- (en) Hope Is a Lousy Defense., interview avec Spencer Reiss pour Wired, décembre 2003, autre article de joy en rapport.
Catégories :- Essai américain
- Nanotechnologie
- Robotique
- Wired (magazine)
- Essai paru en 2000
Wikimedia Foundation. 2010.