Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.

Karen Hao: “Que la IA sea cada vez más poderosa no necesariamente es algo bueno”

La autora del libro “El imperio de la IA” habló para El Espectador sobre las inquietantes conclusiones que su investigación arrojó sobre el desarrollo de esta industria y los problemas que podría traerle a Colombia.

Santiago Gómez Cubillos

01 de febrero de 2026 - 07:00 p. m.
Karen Hao es ingeniera mecánica y periodista. Ha escrito para medios como "The Wall Street Journal" y "The Atlantic" y fue, en 2019, la primera periodista en hacer una reseña sobre OpenAI.
Foto: Comfama
PUBLICIDAD

¿Por qué quiso que Sam Altman fuera el foco de esta investigación?

Uno de mis objetivos con este libro era hacerle entender a la gente que la tecnología no es neutral y que, en realidad, es producto de sus creadores. En ese sentido, tenía que resaltar quién era el creador de ChatGPT y de OpenAI, porque esa es la única manera en que podemos entender cómo una sola persona, sus valores y su forma de ver el mundo, puede moldear las herramientas que usamos todos los días. En el caso de Sam Altman, me llamó la atención que es una persona que piensa mucho en cómo acumular poder. Eso creo que es clave para entender por qué ChatGPT es como es, porque es producto de la ideología de Altman y de los otros ejecutivos de la compañía.

Pensamos que la inteligencia artificial es una herramienta inofensiva. ¿Cuáles son los peligros que las personas no ven de ella?

Lo primero tiene que ver con los datos que usan estos modelos, que en muchos casos son datos privados de personas que los dejaron en internet sin darse cuenta de que podían terminar siendo utilizados para esto. Hablamos, por ejemplo, de fotos de niños que se publican en redes sociales y que acaban dentro de estos modelos. En ese conjunto de datos también está incluida la propiedad intelectual de artistas, escritores y creadores. Muchas de estas personas hoy están perdiendo oportunidades económicas porque los ejecutivos prefieren comprar un modelo de inteligencia artificial en lugar de pagarle a un creativo para hacer exactamente el mismo trabajo.

El segundo peligro es la explotación laboral que existe detrás del desarrollo de estos sistemas. Gran parte del trabajo lo hacen cientos de miles de contratistas en todo el mundo, muchas veces en comunidades pobres, quienes tienen que entrenar a estos modelos. Aunque su labor es esencial —porque nada de esto existiría sin ese trabajo—, apenas reciben pago y, en algunos casos, no reciben nada. Las plataformas que conectan a estos trabajadores con las empresas de inteligencia artificial a veces no les pagan debido a errores logísticos, administrativos o técnicos, y nunca hacen seguimiento para garantizar su bienestar.

Read more!

El tercer aspecto, que muchas personas no ven, es el costo ambiental y en salud pública de estas tecnologías. Los modelos de inteligencia artificial como ChatGPT requieren grandes extensiones de tierra y una enorme cantidad de centros de datos. Desde el auge de la inteligencia artificial generativa, la demanda energética ha aumentado e incluso un regulador estadounidense advirtió el año pasado que los centros de datos están poniendo en riesgo la estabilidad de todo el sistema por la rapidez de su expansión y la cantidad de energía que exigen. Esto también ocurre en Europa, que alberga muchos de estos centros.

¿De cuánta energía estamos hablando, más o menos?

Sam Altman dijo recientemente que quiere construir 250 gigavatios en centros de datos para 2033, algo que, según él, costaría 10 billones de dólares. Pero más allá del dinero, que ya hace que todo esto suene absurdo, 250 gigavatios equivalen a una vez y media la energía que consume el Reino Unido en un año. De eso estamos hablando: de acumular cantidades enormes de energía solo para una empresa y solo para desarrollar la siguiente generación de ChatGPT. Ese es el tipo de costo que puede tener el desarrollo y uso de esta tecnología cuando compañías como OpenAI deciden avanzar de la manera en que lo están haciendo.

ConTexto: Karen Hao habla sobre el futuro de la IA | El Espectador

¿Por qué cree que los colombianos deberíamos informarnos más sobre este tema?

Hay muchas razones, pero la principal es el impacto ambiental. Por ejemplo, estamos ahora mismo en Jericó, un lugar donde una compañía minera de Sudáfrica está buscando construir lo que sería la mina más grande de Colombia para extraer cobre, plata y oro, tres minerales esenciales para el desarrollo de centros de datos y, por lo tanto, para el desarrollo de la inteligencia artificial.

Read more!

Por otro lado, los centros de datos requieren enormes cantidades de agua dulce para enfriar las instalaciones y también para generar la energía necesaria para operarlas. Entre más centros de datos haya en el mundo, menos recursos de agua dulce habrá en la región y más comunidades empezarán a enfrentar escasez de agua.

Por ahora, Colombia no ha sido tan abierta a la instalación de centros de datos de grandes empresas estadounidenses. Sin embargo, la industria tecnológica ha estado haciendo lobby en Colombia, al igual que en otros países de América Latina, para abrir el territorio a este tipo de desarrollos.

¿Qué cree que esta investigación sobre cómo se ha desarrollado la industria de la inteligencia artificial nos dice sobre cómo hemos concebido la idea de progreso?

Creo que, como sociedad, hemos caído en la falacia de definir el progreso únicamente como avance tecnológico y hemos perdido de vista su significado original, que es el avance humano. Hubo un momento en el que quizás existía una mayor correlación entre el desarrollo de la tecnología y el desarrollo de las personas, pero hoy estamos en una era en la que eso muy probablemente ya no es así. La tecnología puede avanzar muchísimo sin generar beneficios sociales amplios. Puede beneficiar a un pequeño grupo de personas poderosas, pero eso ya no se traduce necesariamente en bienestar colectivo.

Pienso que es necesario separar la idea de progreso tecnológico del progreso que realmente queremos, que es el progreso social. La gente debe reconocer que el hecho de que la inteligencia artificial se vuelva cada vez más poderosa no necesariamente es algo bueno, al mismo tiempo que hay que dejar de lado la idea de que frenar el avance de la IA implica bloquear nuestro propio progreso. En realidad, a veces sucede lo contrario: necesitamos cambiar la forma en la que se ha ido desarrollando una tecnología para poder alcanzar verdaderos beneficios sociales.

No ad for you

¿Cree aún que la IA puede ser beneficiosa para la humanidad? Y, si es así, ¿qué tendría que cambiar en la forma en la que se está desarrollando para que eso suceda?

Soy muy optimista frente a la idea de que la inteligencia artificial puede ser una fuerza para el bien. Lo que no me genera optimismo es el estado actual de la industria y la manera en que hoy se está desarrollando. En el epílogo de mi libro hablo de la historia de un grupo llamado Te Hiku Media. Es una organización sin ánimo de lucro con sede en Nueva Zelanda que produce contenidos en te reo maorí, el idioma del pueblo maorí, una comunidad indígena que fue profundamente afectada por la colonización y que estuvo a punto de perder su lengua debido a políticas que los obligaban a dejar de hablarla y a usar únicamente el inglés.

Esta compañía desarrolló un modelo de IA que hiciera reconocimiento de voz y transcribiera esas grabaciones. Pero lo hicieron de una manera completamente distinta a como suele hacerlo Silicon Valley. Primero acudieron a la comunidad y preguntaron si querían que esa tecnología se desarrollara. Una vez obtuvieron su consentimiento, pasaron al siguiente paso: educar a la comunidad. Explicaron que necesitaban datos de calidad de personas que hablaran te reo maorí y también las transcripciones de lo que decían. Tras ese proceso de educación pública, hubo un gran respaldo comunitario y, en cuestión de días, obtuvieron las donaciones de datos necesarias para entrenar el modelo.

No ad for you

La diferencia clave en este caso fue que el desarrollo de la IA se centró en el consentimiento, la soberanía y el respeto por la cultura, la historia y la lengua de las personas. Intentaron usar la inteligencia artificial para revertir desigualdades de poder que se habían producido históricamente.

¿Qué le diría entonces a las empresas o comunidades que quieran desarrollar proyectos similares?

Que piensen qué tipo de sociedad quieren ser, qué futuro desean, qué valores los definen y qué esperan para ellos, sus hijos y las generaciones futuras. A partir de ahí, deben preguntarse qué tipos de tecnologías de inteligencia artificial podrían ayudar a resolver esos problemas concretos. En muchos casos, la respuesta será que la IA no es la solución, o que no existe una solución tecnológica, sino que se trata de un problema social y político que requiere respuestas sociales y políticas.

Pero cuando sí se identifiquen situaciones en las que la inteligencia artificial puede ayudar, el camino debería ser similar al de Te Hiku Media: pedir consentimiento, educar al público, recopilar datos solo con autorización plena y a través de personas comprometidas con un proyecto colectivo de progreso, y mantener una consulta constante con la comunidad durante todo el proceso. Así se puede asegurar que cada paso respete lo que la gente quiere y necesita, y que realmente genere beneficios, en lugar de causar daños difíciles de entender o corregir.

No ad for you
Para escribir "El imperio de la IA: Sam Altman y su carrera por dominar el mundo", Karen Hao realizó más de 300 entrevistas a 260 personas de esta industria.
Foto: Península

¿Cuál diría que es el problema filosófico de la IA?

La filosofía que hoy rodea a la industria de la inteligencia artificial es la de un imperio; por eso decidí llamar mi libro “El imperio de la IA”. Es una forma de pensar que sostiene que un pequeño grupo de personas debería tener el control sobre el resto de nosotros. Es una filosofía basada en la jerarquía, en la idea de que todo el mundo debería usar el mismo modelo de inteligencia artificial, alimentado por una única fuente de información curada por esas personas que están en la cima.

Esa fue una filosofía que organizó el mundo hace un par de siglos, pero es una forma de pensar que hemos ido dejando atrás a medida que hemos evolucionado como sociedad. Hemos entendido que los imperios no funcionan: se basan en la extracción, en la explotación y en la falta de respeto por los derechos humanos. En lugar de eso, deberíamos avanzar hacia formas de gobierno más inclusivas, como la democracia, donde todas las personas tienen los mismos derechos, pueden opinar y participar en la construcción colectiva de cómo queremos organizarnos.

No ad for you

Para saber más sobre este libro, puede consultar el siguiente enlace.

Por Santiago Gómez Cubillos

Periodista apasionado por los libros y la música. En El Magazín Cultural se especializa en el manejo de temas sobre literatura.@SantiagoGomez98sgomez@elespectador.com
Conoce más

Temas recomendados:

Ver todas las noticias
Read more!
Read more!
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.