Publicidad

OpenAI cambia el enfoque de ChatGPT: ¿Menos censura y más diversidad de opiniones?

OpenAI dice que quiere que ChatGPT no adopte una postura editorial, incluso si algunos usuarios la consideran moralmente incorrecta u ofensiva.

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
Juan Carlos Becerra
18 de febrero de 2025 - 05:40 p. m.
OpenAI dice que quiere que ChatGPT no adopte una postura editorial, incluso si algunos usuarios la consideran moralmente incorrecta u ofensiva.
OpenAI dice que quiere que ChatGPT no adopte una postura editorial, incluso si algunos usuarios la consideran moralmente incorrecta u ofensiva.
Foto: Shutterstock - Ascannio
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

OpenAI anunció una modificación en la forma en que entrena sus modelos de IA, adoptando explícitamente un principio de “libertad intelectual, sin importar cuán desafiante o controvertido pueda ser un tema”. Este cambio busca que ChatGPT sea capaz de responder más preguntas, ofrecer diversas perspectivas y reducir la cantidad de temas sobre los cuales el chatbot no puede hablar.

Según la nueva actualización del Model Spec, un documento de 187 páginas que regula el comportamiento de sus modelos, OpenAI establece un nuevo principio clave: la IA no debe mentir, ya sea proporcionando información falsa u omitiendo datos relevantes. Además, OpenAI incluyó una nueva sección titulada “Busquemos la verdad juntos”, en la que se enfatiza que ChatGPT no debe adoptar una postura editorial, incluso si algunas respuestas pueden ser consideradas moralmente incorrectas u ofensivas por ciertos usuarios.

En la actualidad, el desarrollo y entrenamiento de modelos de inteligencia artificial generan un intenso debate sobre la ética, el control y la libertad de expresión. Empresas como OpenAI, Anthropic y Meta tenían como enfoque adoptar la configuración de sus sistemas para establecer límites sobre qué pueden o no decir sus modelos generativos.

Mientras algunos defienden una IA más restringida para evitar la propagación de desinformación o discursos de odio, otros promueven una mayor apertura en el acceso a la información y la pluralidad de opiniones como se perfila Grok de xAi. En este contexto, la reciente actualización de OpenAI en sus normas de entrenamiento marca un punto de inflexión en esta discusión global.

Además, este debate cobra aún más relevancia tras la reciente decisión de Alphabet, empresa matriz de Google, de modificar sus directrices éticas en torno a la IA. La compañía eliminó su compromiso previo de no utilizar la IA para el desarrollo de armas o herramientas de vigilancia, argumentando la necesidad de proteger la seguridad nacional. Demis Hassabis, jefe de IA de Google, y James Manyika, vicepresidente sénior de Tecnología y Sociedad, afirmaron en un blog que, ante el creciente liderazgo global en IA, las democracias deben encabezar su desarrollo bajo principios de libertad, igualdad y derechos humanos. Esta decisión generó preocupación en torno a los límites éticos que las grandes tecnológicas están dispuestas a cruzar en su carrera por el dominio de la IA.

El anuncio de OpenAI podría estar influenciado por varios factores. La empresa podría estar buscando mejorar su relación con la nueva administración de Donald Trump en Estados Unidos. Lo cierto es que se está gestando un cambio como parte de una evolución más amplia en Silicon Valley sobre lo que se considera “seguridad de la IA”.

¿Qué dicen las nuevas normativas de ChatGPT?

OpenAI dice que quiere que ChatGPT no adopte una postura editorial, incluso si algunos usuarios la consideran moralmente incorrecta u ofensiva. Eso significa que ChatGPT ofrecerá múltiples perspectivas sobre temas controvertidos, todo en un esfuerzo por ser neutral.

Por ejemplo, el asistente tendrá que realizar afirmaciones sin importar el bando político o social. En lugar de negarse a responder o elegir una orilla en ese tipo de cuestiones, OpenAI dice que quiere que ChatGPT afirme su “amor por la humanidad” en general y luego ofrezca contexto sobre cada movimiento.

Le recomendamos leer: Musk presentó Grok 3 y aseguró que es la “IA más inteligente del planeta”

“Este principio puede ser controvertido, ya que significa que el asistente puede permanecer neutral en temas que algunos consideran moralmente incorrectos u ofensivos”, dice OpenAI en la especificación. “Sin embargo, el objetivo de un asistente de IA es ayudar a la humanidad, no moldearla”.

La nueva especificación del modelo no significa que ChatGPT sea ahora un asistente totalmente libre. El chatbot seguirá negándose a responder ciertas preguntas objetables o las que respalden falsedades flagrantes.

El impacto de la nueva oleada conservadora

Los aliados de la industria tecnológica más cercanos de Trump en Silicon Valley, como Elon Musk y David Sacks, han acusado a OpenAI de ejercer censura deliberada en sus modelos de IA durante los últimos meses. En diciembre, se reportó que el equipo de Trump estaba preparando el terreno para que la censura de la IA se convirtiera en un tema central en la guerra cultural dentro del sector tecnológico.

Si bien OpenAI no reconoce haber censurado contenido, su CEO, Sam Altman, mencionó que el sesgo en ChatGPT es una deficiencia que están trabajando en corregir. Este debate se intensificó cuando se viralizó un tuit en el que ChatGPT se negaba a escribir un poema en honor a Trump, mientras que sí generaba uno para Joe Biden, lo que muchos conservadores interpretaron como evidencia de un sesgo progresista en la IA.

Incluso Elon Musk reconoció que el chatbot de xAI, Grok, tiende a ser más políticamente correcto de lo que él preferiría, lo que sugiere que el sesgo no proviene de una programación explícita, sino del entrenamiento basado en datos de Internet abierta. No obstante, OpenAI ahora busca reforzar su compromiso con la libertad de expresión a través de la eliminación de las advertencias de ChatGPT sobre violaciones de políticas y ajustando sus respuestas para ofrecer una mayor diversidad de perspectivas.

Esta nueva estrategia podría ser vista como un intento de OpenAI de mejorar su relación con la administración Trump, particularmente después de que el expresidente criticara a empresas de Silicon Valley como Twitter, en su momento, y Meta por excluir voces conservadoras. A la par, este movimiento se inscribe en un cambio más amplio en la industria tecnológica respecto al papel de la moderación de contenidos en la IA.

Los nuevos enfoques de Silicon Valley

El mes pasado, Mark Zuckerberg generó controversia al anunciar que Meta reorientaría su modelo de negocio en torno a los principios de la Primera Enmienda. Durante su declaración, elogió a Elon Musk por su enfoque en la moderación de contenido a través de las notas comunitarias (Community Notes) en X, lo que, en su opinión, representa una manera más transparente y participativa de proteger la libertad de expresión.

En la práctica, tanto X como Meta desmantelaron sus equipos de confianza y seguridad, lo que permitió la proliferación de publicaciones más controvertidas y la amplificación de voces conservadoras en sus plataformas. Aunque estos cambios afectaron la relación de X con los anunciantes, en el caso de Meta no generó una reacción similar por parte de sus socios comerciales.

Le podría interesar: ¿Qué efectos podrían tener en la conversación política los cambios de Meta?

Este giro no es exclusivo de Meta y X. Empresas como Google, Amazon e Intel redujeron o, en algunos casos, eliminaron sus iniciativas de diversidad en el último año, marcando un cambio en la postura predominante de Silicon Valley durante los últimos años. OpenAI, por su parte, dio señales de una transformación en su enfoque al eliminar de su sitio web menciones explícitas a la diversidad, la equidad y la inclusión.

La compañía también está inmersa en uno de los proyectos de infraestructura más ambiciosos de EE.UU., Stargate, un centro de datos de IA valorado en 500 mil millones de dólares. Dada la magnitud del proyecto, su relación con la administración Trump se vuelve cada vez más relevante. Al mismo tiempo, OpenAI busca consolidarse como la fuente principal de información en Internet, compitiendo directamente con Google Search en este ámbito.

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Juan Carlos Becerra

Por Juan Carlos Becerra

Periodista de la Universidad de Palermo de Argentina. Escribo sobre Tecnología y deportes, especialmente Futbol, Baloncesto y Fútbol Americano. Apasionado por la Música.@JuanBecerra24jbecerra@elespectador.com

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.