Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

“La IA puede alterar la evolución de todos los seres vivos”: Yuval Noah Harari

Fragmento de “Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA”, el nuevo libro del historiador reconocido en todo el mundo por “Sapiens” y “Homo Deus”. En Colombia con el sello editorial Debate.

Yuval Noah Harari * / Especial para El Espectador

18 de septiembre de 2024 - 02:00 p. m.
Yuval Noah Harari (1976) es profesor de Historia en la Universidad Hebrea de Jerusalén. En “Nexus” (sello Debate), analiza cómo las redes de información han hecho y deshecho nuestro mundo.
Foto: Cortesía de Penguin
PUBLICIDAD

En épocas recientes, la humanidad ha experimentado un aumento sin precedentes en la cantidad y la velocidad de la producción de información. Cualquier teléfono inteligente contiene más información que la antigua Biblioteca de Alejandría y permite a su propietario entrar en contacto instantáneo con miles de millones de personas de todo el mundo. Pero, con tanta información circulando a velocidades impresionantes, la humanidad se halla más cerca que nunca de la aniquilación.

Gánale la carrera a la desinformación NO TE QUEDES CON LAS GANAS DE LEER ESTE ARTÍCULO

¿Ya tienes una cuenta? Inicia sesión para continuar

A pesar de —o quizá debido a— la acumulación de datos, seguimos arrojando a la atmósfera gases de efecto invernadero, contaminamos ríos y mares, talamos bosques, destruimos hábitats enteros, condenamos a innumerables especies a la extinción y ponemos en peligro los cimientos ecológicos de nuestra especie. También producimos armas de destrucción masiva cada vez más poderosas, desde bombas termonucleares hasta virus que pueden suponer la total aniquilación de la humanidad. Nuestros líderes no carecen de información acerca de estos peligros, pero, en lugar de colaborar en la búsqueda de soluciones, se acercan cada vez más a una guerra global.

Disponer cada vez de más información ¿hará que las cosas mejoren? ¿O hará que empeoren? Pronto lo descubriremos. Numerosas empresas y gobiernos se hallan inmersos en una carrera por desarrollar la tecnología de la información más poderosa de la historia, la inteligencia artificial (IA). Empresarios destacados como el inversor estadounidense Marc Andreessen creen que la IA acabará por resolver todos los problemas de la humanidad. El 6 de junio de 2023, Andreessen publicó un ensayo titulado «Por qué la IA salvará el mundo» que salpicó de afirmaciones tan atrevidas como: «Estoy aquí para dar a conocer una buena noticia: la IA no destruirá el mundo, y de hecho puede salvarlo», o «la IA puede mejorar todo aquello que nos importa». Y concluía: «El desarrollo y la proliferación de la IA, lejos de un riesgo que deberíamos temer, es una obligación moral que asumimos para con nosotros mismos, nuestros hijos y nuestro futuro».

Read more!

En esta línea, Ray Kurzweil afirma en The Singularity Is Nearer que «la IA es una tecnología esencial que nos permitirá hacer frente a los retos apremiantes que tenemos por delante, entre los que se incluyen la enfermedad, la pobreza, la degradación ambiental y todas nuestras debilidades humanas. Tenemos el imperativo moral de hacer realidad la promesa de las nuevas tecnologías». Kurzweil es profundamente consciente de los posibles peligros de la tecnología y los analiza con detalle, pero cree que pueden mitigarse con éxito.

Otros son más escépticos. No solo filósofos y científicos sociales, sino también conocidos expertos en IA y empresarios como Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk y Mustafa Suleyman han advertido al público sobre cómo la IA puede destruir nuestra civilización.

Un artículo firmado por Bengio, Hinton y un buen número expertos señalaba que «el avance sin restricciones de la IA podría culminar en una reducción de la vida y de la biosfera a gran escala, así como en la marginación e incluso en la extinción de la humanidad».

En una encuesta de 2023 en la que participaron 2.778 investigadores de IA, más de un tercio estimó en al menos un 10 por ciento la probabilidad de que la IA avanzada conduzca a resultados tan negativos como la extinción humana. En 2023, cerca de treinta gobiernos —entre ellos los de China, Estados Unidos y Reino Unido— firmaron la Declaración de Bletchley sobre la IA, en la que se reconocía que «cabe la posibilidad de un daño grave, incluso catastrófico, ya sea deliberado o no intencionado, que surge de las capacidades más relevantes de estos modelos de IA».

Read more!

Al emplear términos tan apocalípticos, los expertos y los gobiernos no pretenden conjurar una escena hollywoodiense de robots rebeldes que corren por las calles y disparan contra la población. Este es un supuesto poco probable, y no hace más que desviar el foco de los peligros reales. Los expertos, en cambio, alertan sobre otras dos posibilidades.

En primer lugar, el poder de la IA podría sobrecargar los conflictos humanos ya existentes y dividir a la humanidad en una lucha contra sí misma. Así como en el siglo XX el Telón de Acero dividió a las potencias rivales durante la Guerra Fría, en el siglo XXI el Telón de Silicio —constituido por chips de silicio y códigos informáticos en lugar de por alambre de espino— podría llegar a dividir a las potencias rivales en un nuevo conflicto global. Debido a que la carrera armamentística de la IA producirá armas cada vez más destructivas, incluso una pequeña chispa podría causar un incendio cataclísmico.

En segundo lugar, el Telón de Silicio podría no generar una división entre dos grupos de humanos, sino más bien entre los humanos y sus nuevos jefes supremos de IA. Con independencia de dónde vivamos, podríamos vernos envueltos por una red de algoritmos incomprensibles cuya función sería gestionar nuestras vidas, remodelar nuestras políticas y nuestras culturas, e incluso rediseñar nuestro cuerpo y nuestra mente; al mismo tiempo, nos resultaría imposible entender las fuerzas que nos controlan, no hablemos ya de detenerlas.

No ad for you

Si una red totalitaria del siglo XXI consigue conquistar el mundo, puede que no se encuentre gobernada por un dictador de carne y hueso, sino por una inteligencia no humana. Aquellos que señalan a China, a Rusia o a unos Estados Unidos posdemocráticos como fuente principal de pesadillas totalitarias malinterpretan el peligro. De hecho, chinos, rusos, estadounidenses y el resto del mundo nos hallamos amenazados conjuntamente por el potencial totalitario de la inteligencia no humana.

Dada la magnitud del peligro, la IA debería ser un tema de interés para todos los seres humanos. Aunque no todos podemos ser expertos en IA, sí hemos de tener presente que es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma. Todo invento humano previo ha servido para conferir poder a los humanos, porque, con independencia del alcance que tuviera la nueva herramienta, las decisiones acerca de su uso se han mantenido en nuestras manos. Los cuchillos y las bombas no deciden por sí mismos a quien matar. Son instrumentos sin criterio que carecen de la inteligencia necesaria para procesar información y tomar decisiones independientes. En cambio, la IA puede procesar información por sí sola y, por lo tanto, sustituir a los humanos en la toma de decisiones. La IA no es una herramienta, es un agente.

No ad for you

Asimismo, el control de la información permite a la IA generar nuevas ideas de manera independiente, en campos que van desde la música hasta la medicina. Los gramófonos reproducían nuestra música y los microscopios revelaban los secretos de nuestras células, pero los gramófonos no podían componer nuevas sinfonías ni los microscopios sintetizar nuevas medicinas. La IA ya es capaz de producir arte y de efectuar descubrimientos científicos por su cuenta. Es probable que en las próximas décadas adquiera incluso la capacidad de crear nuevas formas de vida, ya sea a través de la escritura de código genético o de la invención de un código inorgánico que anime entes inor­gánicos.

Incluso en el momento actual, en la fase embrionaria de la revolución de la IA, los ordenadores toman decisiones por nosotros: la concesión de una hipoteca, un contrato de trabajo o la imposición de una pena de cárcel. Esta tendencia no hará más que aumentar y acelerarse, lo que nos dificultará la comprensión de nuestra propia vida. ¿Podemos confiar en los algoritmos informáticos para tomar decisiones sensatas y construir un mundo mejor? Este es un juego mucho más serio que confiar en que una escoba encantada achique agua. Y estamos poniendo en riesgo más que vidas humanas. La IA puede alterar el curso no solo de la historia de nuestra especie, sino de la evolución de todos los seres vivos.

No ad for you

CONVERTIR LA INFORMACIÓN EN UN ARMA

En 2016 publiqué Homo Deus, un libro que incidía en algunos de los peligros que las nuevas tecnologías de la información plantean a la humanidad. El ensayo sostenía que el verdadero héroe de la historia siempre ha sido la información, en lugar de Homo sapiens, y que los científicos entienden cada vez más no solo la historia, sino también la biología, la política y la economía en términos de flujos de información.

Los animales, los estados y los mercados son redes de información que absorben datos del entorno que los rodea, toman decisiones y, a su vez, facilitan datos. El libro avisa de que, mientras esperamos que una mejor tecnología de la información nos proporcione salud, felicidad y poder, en realidad podría quitarnos ese poder y destruir nuestra salud tanto física como mental. Homo Deus desarrollaba la hipótesis de que, si no somos cuidadosos, los humanos podríamos disolvernos en el torrente de información como un terrón en un río caudaloso y de que en el gran orden de las cosas la humanidad pasaría a no ser más que una pequeña onda dentro del flujo de datos cósmico.

No ad for you

En los años posteriores a la publicación de Homo Deus, el ritmo del cambio se ha acelerado, y ya es una realidad que el poder se ha transferido de los humanos a los algoritmos. Muchos de los supuestos que en 2016 sonaban a ciencia ficción —como algoritmos capaces de crear arte haciéndose pasar por seres humanos, de tomar decisiones cruciales para nuestra vida y de saber más cosas sobre nosotros que nosotros mismos— son realidades con las que convivimos en 2024.

* Se publica con autorización de Penguin Random House Grupo Editorial. Yuval Noah Harari se especializó en Historia Medieval e Historia Militar, aunque sus investigaciones actuales se centran en los procesos macrohistóricos y en las relaciones entre historia y biología. Su libro Sapiens. De animales a dioses ha sido un éxito internacional que ha vendido más de 21 millones de ejemplares en 65 idiomas. Recomendado por personalidades como Barack Obama, Natalie Portman o Bill Gates, alcanzó la lista de best sellers del New York Times. La continuación de su obra, Homo Deus. Breve historia del mañana, ha vendido más de 7,5 millones de ejemplares y se ha traducido a 50 idiomas. En 2018 publicó 21 lecciones para el siglo XXI, que en su primer año vendió 4 millones de ejemplares y fue traducido a 40 idiomas. En 2019 Yuval Noah Harari e Itzik Yahav fundaron Sapienship, una organización cuya misión es alentar la conversación global, señalar los desafíos más importantes y apoyar la búsqueda de soluciones colectivas.

No ad for you

Por Yuval Noah Harari * / Especial para El Espectador

Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.