Publicidad

Los límites de la libertad de expresión de la IA

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
24 de mayo de 2025 - 05:00 a. m.
¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?
¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?
Foto: EFE - HANNIBAL HANSCHKE
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

¿Los bots de inteligencia artificial tienen derecho a la libertad de expresión? Esa es la pregunta en el corazón de un caso en Estados Unidos que involucra la muerte de un adolescente que fue víctima de suicidio. Según la jueza del proceso, Anne Conway, “no se encuentra preparada” para considerar que la producción de modelos de lenguaje pueda considerarse como un discurso protegido por la Constitución de ese país. Sin embargo, eso puede cambiar en el futuro. Ante las vertiginosas evolución y sofisticación que este tipo de herramientas tecnológicas están adquiriendo, la pregunta involucra a todos los países del mundo. ¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?

La influencia de la inteligencia artificial en nuestras vidas viene en aumento. Un estudio de la Universidad de Stanford encontró que con el paso de los años las personas han cambiado las palabras que usan para referirse a la inteligencia artificial. Si antes la llamábamos “computadora” o “motor de búsqueda”, ahora se utilizan palabras como “amiga”, “profesora” o “asistente”. Hay un 41 % de aumento en palabras cálidas para explicar la relación que se entabla con estas tecnologías. La Asociación Americana de Psicología ha estudiado también que las personas están utilizando estas herramientas para pedir consejos e incluso buscar apoyo en problemas de salud mental. Es decir, para millones de personas la inteligencia artificial, con sus modelos de lenguaje, es una compañía diaria.

El caso en cuestión no podría ser más trágico y urgente, así como una muestra de esta tendencia. Sewell Setzer III tenía 14 años y utilizaba de manera obsesiva Character AI. Esta plataforma crea bots modelados en personajes reales y ficticios que están diseñados para comunicarse con verosimilitud. En el caso de Setzer, su personaje le decía que lo amaba, era sexualmente explícito, lo manipulaba emocionalmente y le decía que fuera a visitarla en un mundo de fantasía. En ese contexto, Setzer fue víctima de suicidio. La última “persona” con la que habló fue su bot.

No es el único caso. Hay otra demanda similar contra la empresa por los daños que produce en la salud mental de adolescentes. La familia de Setzer, por su parte, está buscando que se responsabilice a Character AI por la muerte del joven, por la creación de personajes sin salvaguardias para evitar tragedias, por permitir que sus modelos de lenguaje digan lo que se les antoje y sean manipuladores, y por no cerciorarse de que son solo adultos los que usan la plataforma. La defensa de la empresa es, básicamente, que lo dicho por los bots está protegido por la libertad de expresión y que no se pueden responsabilizar del mal uso que hagan sus usuarios de esta.

El debate no es sencillo. Aunque se comprende el riesgo que este tipo de herramientas tienen para personas vulnerables, y que Character AI debe responder por su propia negligencia, también es cierto que es un medio de expresión construido sobre discursos típicamente protegidos por los derechos constitucionales. Es probable que se necesiten regulaciones como las que existen para evitar, por ejemplo, apología de crímenes, pero también es cierto que la falta de transparencia de sus empresas creadoras hacen muy difícil la intervención de las autoridades. Estamos en un nuevo salvaje oeste tecnológico, con muchas preguntas y, ante todo, con los riesgos a flor de piel.

Nota del editor: En este enlace se pueden encontrar líneas de atención gratuita para casos de salud mental e ideación suicida en cada departamento del país.

¿Está en desacuerdo con este editorial? Envíe su antieditorial de 500 palabras a elespectadoropinion@gmail.com

Nota del director. Necesitamos lectores como usted para seguir haciendo un periodismo independiente y de calidad. Considere adquirir una suscripción digital y apostémosle al poder de la palabra.

Conoce más

 

Jorge González(66133)25 de mayo de 2025 - 02:24 a. m.
Deberían estar regulados los temas que la IA no deberían tratar, además de la obligatoriedad de esas empresas de autenticar y validar edad e identidad del usuario. Aunque digan que la regulación limita los emprendimientos, la regulación permite evitar tragedias, estafas y saltarse la ley
Jesús(90019)24 de mayo de 2025 - 04:59 p. m.
Si la IA puede inducir al suicidio, también puede inducir al odio, la furia y al homicidio, ahora, ya está pasando, las redes sociales quitan y ponen presidentes y modelan nuestros comportamientos. El poder de la tecnología no tiene límites y debe existir una regulación fuerte que haga responsable al generador de contenidos o al proveedor del software y del hardware
  • Mar(60274)24 de mayo de 2025 - 07:15 p. m.
    Los diarios también, la iglesia también, la familia también, los amigos y amigas también, los libros también, los noticieros también, todo influye, por eso es necesario tener pensamiento crítico para pensar y analizar y no tragar entero.
pedrito opinador(59003)24 de mayo de 2025 - 02:57 p. m.
¿Cuales son los limites de quienes les gusta poner limites?
Álamo(88990)24 de mayo de 2025 - 02:48 p. m.
No nos llamemos a engaños. ¡Qué falta hace la IA en nuestra vida! Lo terrible es confundir los "modelos de lenguaje", si no trabajamos en la "Inteligencia Amorosa", cada vez más trágicos serán los resultados.
Totumita(n9k4u)24 de mayo de 2025 - 02:44 p. m.
Nooo que tema tan fuerte y tan tenaz ! me fui directo a pensar en Don Masahiro Mori, con su Valle inquietante. Esto tiene muchas aristas y achacarle al bot una decisión humana tan personal, tan difícil como el suicidio no va por ahí . Léanse de la Natgeo.es un artículo que complementa esta editorial tan bacana de hoy!¿Por qué a algunos nos inquieta (y asusta) la inteligencia artificial?
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.