Publicidad

La inteligencia artificial, peligrosa y sin regulación

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
21 de abril de 2026 - 05:00 a. m.
Sam Altman, mientras públicamente promovía una regulación de la IA en el Congreso estadounidense, tenía funcionarios haciendo un agresivo lobby en contra de la misma.
Sam Altman, mientras públicamente promovía una regulación de la IA en el Congreso estadounidense, tenía funcionarios haciendo un agresivo lobby en contra de la misma.
Foto: EFE - FRANCK ROBICHON
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

En 2015, cuando comenzó OpenAI –empresa estadounidense de inteligencia artificial, creadora de ChatGPT–, sus fundadores –entre quienes estaban Elon Musk y Sam Altman– advirtieron que el desarrollo de esa tecnología podría impactar a la humanidad entera y, por eso, se debía priorizar la seguridad antes que los intereses corporativos. La expectativa inicial era la de una revolución tecnológica capaz de traer prosperidad a todas las personas. Un acceso mayor a información precisa, la cura de enfermedades, formulación de tratados de paz y políticas públicas contra la hambruna eran solo algunas de las promesas. Este poder no debía prestarse para la guerra; por ello, OpenAI desarrolló, inicialmente, una carta de compromisos éticos. Si es que estos compromisos en algún momento fueron reales, al parecer ya han sido abandonados en el contexto de una carrera tecnológica con China.

Hoy, el gobierno de Estados Unidos utiliza la IA para la guerra. En enero, recurrió al modelo de lenguaje avanzado Claude, desarrollado por la empresa Anthropic –empresa de IA fundada por exfuncionarios de OpenAI tras diferencias éticas con la dirección de esa compañía–, para realizar el operativo de abducción de Nicolás Maduro en Venezuela. Los directivos de Anthropic protestaron por ese uso de la IA, que contradecía sus políticas contra el uso de su tecnología para la violencia, el desarrollo de armas o la vigilancia. El presidente Donald Trump, entonces, los calificó como unos empresarios de “izquierda radical”, la incluyó en una lista de proveedores restringidos vinculados a adversarios extranjeros, dijo que cortaría todo contrato con esa empresa y prohibiría el uso de Claude en el gobierno. Tras esa ruptura, Sam Altman anunció que había llegado a un acuerdo con el Pentágono para el uso en su red clasificada de las herramientas de la compañía, que incluyen ChatGPT. El 28 de febrero de este año, el gobierno de Estados Unidos mató a más de 150 niñas en una escuela al sur de Irán en un bombardeo. Según una investigación de The New York Times, el sistema del Departamento de Guerra escogió ese objetivo con información desactualizada y no hubo suficiente verificación humana.

Una reciente investigación del periodista Ronan Farrow reveló que Sam Altman, mientras públicamente promovía una regulación de la IA en el Congreso estadounidense, tenía funcionarios haciendo un agresivo lobby en contra de la misma. Altman promovía la cautela ética con el gobierno Biden. Pero, tras recibir costosos regalos de jeques de los Emiratos Árabes (donde se han construido sedes de infraestructura avanzada de IA), pasó a calificar el enfoque desregulador de la administración Trump como un “cambio refrescante”. Según cita la misma investigación, las preocupaciones sobre la seguridad, antes prioritarias, son ahora ridiculizadas en Silicon Valley y en Washington. El vicepresidente J.D. Vance lo dejó claro en la Cumbre de Acción de IA: “El futuro de la IA no se ganará preocupándose por la seguridad”. En el mismo sentido, David Sacks, el zar de IA de la Casa Blanca, ha tildado las salvaguardas éticas como una “herida autoinfligida” que podría hacer que Estados Unidos pierda la carrera tecnológica frente a sus adversarios.

El afán de los Estados Unidos por la desregulación –que va desde permitir el uso en la guerra hasta relajar controles que potencialmente prevengan impactos negativos en la salud mental de sus usuarios– puede entenderse en el marco de una carrera con China por alcanzar una IA capaz de superar a la inteligencia humana. El periodista experto en IA Sebastian Mallaby advirtió esta semana, tras observar el desarrollo chino, que Estados Unidos no tendría cómo ganar esa carrera, y la dependencia de los Emiratos Árabes de hardware chino y los antecedentes de filtraciones tecnológicas hacia Beijing sugieren que China lleva ventaja. Mallaby considera que China y Estados Unidos deberían concertar un acuerdo de reglamentación de la IA. Sin embargo, la promesa de lucro y de poder tras la carrera de la IA parece disuadir a los involucrados de ir en esa dirección.

¿Está en desacuerdo con este editorial? Envíe su antieditorial de 500 palabras a elespectadoropinion@gmail.com

Nota del director. Necesitamos lectores como usted para seguir haciendo un periodismo independiente y de calidad. Considere adquirir una suscripción digital y apostémosle al poder de la palabra.

Conoce más

 

micorriza(d243q)Hace 10 minutos
terrorismo indiscriminado?prevaricato a favor uribe? Entrampamientos? Lawfare? desinformación? bloqueo a reformas?¿fake news? desfinanciamiento? sabotaje proceso de paz?¿terrorismo mediático?¿tasas de interés altas? fraude electoral con Grupo ASD y Thomas Greg & Sons? compra de votos? cortes e ias cooptadas? robo de elecciones vía CNE y registradurías regionales? banco de la republica y consejo de estado cooptados? noboa el duque ecuatoriano? Falsas amenazas? plan jupiter?
El Espectador usa cookies necesarias para el funcionamiento del sitio. Al hacer clic en "Aceptar" autoriza el uso de cookies no esenciales de medición y publicidad. Ver políticas de cookies y de datos.