El Apocalipsis según Stephen Hawking

Desde principios de siglo, el reconocido científico hizo advertencias sobre la decadencia de la raza humana y el Planeta Tierra, y aventuró predicciones sobre la muerte del universo.

Redacción VIVIR
14 de marzo de 2018 - 05:57 p. m.
En 2017, declaró que la tierra podría convertirse en una bola de fuego en 2600 gracias a la creciente demanda energética y alimentaria. / Infowars
En 2017, declaró que la tierra podría convertirse en una bola de fuego en 2600 gracias a la creciente demanda energética y alimentaria. / Infowars

La noticia está en todas partes: el renombrado científico británico, Stephen Hawking, murió a los 76 años. Durante casi 60 años de vida científica y pública, el astrofísico se dedicó a la entender las leyes básicas que gobiernan el universo. Su objetivo principal en el campo de la física fue “una teoría unifica” que pudiera resolver las contradicciones entre la Teoría General de la Relatividad de Einstein y la Teoría de la Mecánica Cuántica, y durante sus últimos 20 años de vida, advirtió frecuentemente sobre las múltiples maneras en que el universo, el planeta Tierra y la raza humana podrían extinguirse si los humanos no buscan nuevos planetas para vivir y se unen contra el cambio climático, las guerras nucleares y el determinismo tecnológico.  

“La tierra morirá en el año 2600”

El aumento exponencial de la población mundial sumado a la creciente demanda de energía harían colapsar la vida en el planeta Tierra en unos 600 años. Este fue el estimado de Hawking durante la cumbre Tencent WE en Beijing, China, el año pasado. La sonada predicción de que “la Tierra se convertirá en una bola de fuego ardiente” le ha dado la vuelta al mundo. Sin embargo, aún no se explica bien de qué se trata esta predicción, y si es realmente posible. De acuerdo con Tech Insider, el planeta puede convertirse en una bola de fuego solo si es “consumida” por el sol. “El sol, y nuestra posición relativa a él, es quizás la pieza más importante de nuestra tenue existencia. Pero el sol sigue siendo una estrella y todas las estrellas mueren. En este momento, el sol está en la mitad de la vida, convirtiendo constantemente hidrógeno en helio a través de la fusión, pero dentro de miles de millones de años, el sol se quedará sin hidrógeno y comenzará a fusionar el helio. Es una reacción más enérgica e impulsará las capas del sol hacia afuera, y posiblemente comience a tirar de la Tierra hacia el sol. Nos incinerarían y luego se vaporizarían. Esa o la expansión del sol empujaría a la Tierra fuera de su órbita”. En ese sentido, es más probable que el planeta se convierta en una bola de hielo, en un planeta sin ataduras a ninguna estrella. Esta predicción le dio pie para hacer otra advertencia:

“La raza humana no tiene futuro si no va al espacio”.

Durante la cumbre en China, Hawking advirtió (vía videoconferencia) que para el año 2600, la humanidad debería haber colonizado otro planeta para que la humanidad pueda sobrevivir. Los humanos deben "ir audazmente a donde nadie ha ido antes". Esta afirmación fue apoyada por los científicos de la NASA presentes en la cumbre.

El científico propuso dirigir la mirada hacia Alfa Centauri, el sistema estelar más cercana al Sol, ubicado a unos 4,37 años luz o 41,3 billones de kilómetros del planeta azul. A partir de esto, Hawking pidió financiar el proyecto Breakthrough Starshot, del que hace parte, que consiste en elaborar una sonda en la que viaje una nave casi alcanzando la velocidad de la luz.

Este sistema "podría hacer un viaje entre la Tierra y Marte en menos de una hora y llegar a Alfa Centauri en un poco más de 20 años", manifestó Hawking. Si todo sale como lo esperado, para la mitad de este siglo ya podrían existir muestras del planeta que alcanzó en dicho sistema estelar. Esta iniciativa está respaldada por Mark Zuckenberg, CEO de Facebook. 

“Debemos estar más asustados del capitalismo que de los robots”

En un cuestionario en vivo y online que Reddit suele hacer (y que llama “Ask Me Anything”), el astrofísico respondió las preguntas que los usuarios le enviaron por ese medio, en agosto de 2015. “Las máquinas no provocarán el apocalipsis, pero los humanos codiciosos lo harán", escribió. En esa sesión de preguntas, Hawking, se declaró más asustado con los efectos del capitalismo que con los de la robótica.

“Si las máquinas producen todo lo que necesitamos, el resultado dependerá de cómo se distribuyan las cosas. Todos pueden disfrutar de una vida lujosa si se comparte la riqueza producida por la máquina, o la mayoría de la gente puede terminar miserablemente pobre si los dueños de la máquina cabildean exitosamente contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología impulsando una desigualdad cada vez mayor”, dijo a uno de los usuarios.

De acuerdo con su versión de apocalipsis económico/robótico, los propietarios de máquinas se convertirán en la burguesía de una nueva era, en la cual las corporaciones que poseen no proporcionarán empleos a los trabajadores humanos reales, haciendo más violenta una guerra de clases. El economista Thomas Picketty prouso otro escenario a Business Insider: el abismo entre los “súper ricos” (el famoso 1%) y el resto está creciendo. Para empezar, el capital, como acciones o propiedades (o robots de inteligencia artificial en este caso), acumula valor a un ritmo mucho más rápido que la economía real, lo que haría a la tecnología un valor determinante de riqueza y pobreza en el futuro. 

“La Inteligencia Artificial podría reemplazar a los humanos”

"Somos seres limitados por nuestra lenta evolución biológica, no podremos competir con las máquinas, y seremos superados por ellas", advirtió en 2017, a la revista Wired, sobre las posibilidades (casi inexploradas) que abre la Inteligencia Artificial.

En 2015 expresó el poderoso miedo (y la muy real posibilidad) de que la Inteligencia Artificial crezca tan poderosamente que termine asesinado a los humanos inintencionalmente, y que por la misma razón debe desarrollarse una tecnología paralela para identificar las amenazas potenciales. Pero en noviembre de 2017, en la Conferencia sobre Internet, en Lisboa (Web Summit), hizo su declaración pública más alarmanete sobre sus temores sobre la Inteligencia Artificial: puede ser el más grande o el peor evento en la historia de nuestra civilización.

"Desde que comenzó la civilización, la agresión ha sido útil en la medida en que tiene ventajas definidas de supervivencia. Está conectado a nuestros genes por la evolución darwiniana. Sin embargo, la tecnología ha avanzado a un ritmo tal que esta agresión puede destruirnos a todos mediante una guerra nuclear o biológica. Necesitamos controlar este instinto heredado por nuestra lógica y razón ", le dijo al Times. De acuerdo con su declaración, el verdadero riesgo de la Inteligencia Artificial no es que los robots se vuelvan malos, sino que se vuelvan competitivos, puede que no por recursos naturales (digamos, comida o agua potable) pero sí por trabajos o posiciones sociales. "Probablemente no eres un malvado enemigo de las hormigas que pisa las hormigas por maldad, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se inunda, demasiado malo para las hormigas. No coloquemos a la humanidad en la posición de esas hormigas ", dijo el astrofísico a The Independent.

Por Redacción VIVIR

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar