L’humanité sous-estime-t-elle le risque de sa disparition? | SmartPlanet.fr

L’humanité sous-estime-t-elle le risque de sa disparition?

Par Thierry Noisette | 15 mars 2012 | 0 commentaire

Revue de web: Nick Bostrom, philosophe suédois, souligne les risques que le développement des biotechnologies en particulier fait courir, avec la création bientôt facilitée de virus.

Journaliste scientifique et ancien du Monde, où il tient un blog, Passeur de sciences, Pierre Barthélémy publie un billet sur une question vitale pour qui s’intéresse à l’environnement: « L’humanité sous-estime-t-elle le risque de sa propre extinction? »

En introduction, il rapproche « quelques pièces de puzzle » qui « s’emboîtaient plutôt bien »: échec de la réunion de Durban fin 2011, création d’un virus mutant de la grippe aviaire, avancée vers minuit (à 23h55) de l’horloge de la fin du monde du Bulletin of the Atomic Scientists, acidité record des océans…

Citant l’incroyable prolifération éditoriale des bouquins sur les pseudo-prophéties mayas de fin du monde en 2012 (« les hommes jouant à se faire peur en sachant très bien qu’il s’agit de billevesées, on balaie sous le tapis les vraies raisons de s’inquiéter »),  Pierre Barthélémy consacre ensuite l’essentiel de son billet au Suédois Nick Bostrom, qui vient de donner une grande interview à The Atlantic.

Ce philosophe atypique (formation en physique, en neurosciences et en philosophie des sciences) considère que le développement rapide des biotechnologies, notamment, crée des risques nouveaux:

« Nous sommes en train d’acquérir la capacité à créer des agents pathogènes modifiés et les plans de plusieurs organismes pathogènes sont dans le domaine public: vous pouvez télécharger sur Internet la séquence génétique du virus de la variole ou de celui de la grippe espagnole. Jusqu’ici, le citoyen ordinaire n’a que leur représentation graphique sur l’écran de son ordinateur, mais nous développons aussi des machines synthétisant l’ADN de plus en plus performantes, qui peuvent prendre un de ces plans numériques et fabriquer de véritables brins d’ARN ou d’ADN. Bientôt, ces machines seront suffisamment puissantes pour recréer ces virus. »

Loin d’être technophobe (il est transhumaniste), Nick Bostrom estime aussi que le développement de l’intelligence artificielle « nous fera entrer dans  une zone de risque majeur », et s’inquiète aussi de futurs contrôles des populations, « des choses comme la surveillance et la manipulation psychologique à l’aide de médicaments ».

SourceL’humanité sous-estime-t-elle le risque de sa propre extinction? – LeMonde.fr

Photo: US Department of Energy / Wikipédia, dans le domaine public

À lire aussi

Les OGM résistants aux herbicides, dépassés et controversés – 30 janvier 2012

La Nasa illustre le réchauffement climatique de 1880 à 2011 – 25 janvier 2012

Record: un robot résout un Rubik’s Cube en cinq secondes – 25 octobre 2011

La question du film « Contagion »: sommes-nous vraiment préparés pour une pandémie? – 5 octobre 2011

Le cloud computing peut-il rendre les robots plus intelligents? – 1er juin 2011

Survivre à une apocalypse zombie: les conseils du CDC – 25 mai 2011

Mots-clefs :, ,

 

Les commentaires sont fermés pour cet article

Les balises suivantes sont supportées :
<b> <i> <u> <pre>
publicite
publicite