¿Los bots de inteligencia artificial tienen derecho a la libertad de expresión? Esa es la pregunta en el corazón de un caso en Estados Unidos que involucra la muerte de un adolescente que fue víctima de suicidio. Según la jueza del proceso, Anne Conway, “no se encuentra preparada” para considerar que la producción de modelos de lenguaje pueda considerarse como un discurso protegido por la Constitución de ese país. Sin embargo, eso puede cambiar en el futuro. Ante las vertiginosas evolución y sofisticación que este tipo de herramientas tecnológicas están adquiriendo, la pregunta involucra a todos los países del mundo. ¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?
La influencia de la inteligencia artificial en nuestras vidas viene en aumento. Un estudio de la Universidad de Stanford encontró que con el paso de los años las personas han cambiado las palabras que usan para referirse a la inteligencia artificial. Si antes la llamábamos “computadora” o “motor de búsqueda”, ahora se utilizan palabras como “amiga”, “profesora” o “asistente”. Hay un 41 % de aumento en palabras cálidas para explicar la relación que se entabla con estas tecnologías. La Asociación Americana de Psicología ha estudiado también que las personas están utilizando estas herramientas para pedir consejos e incluso buscar apoyo en problemas de salud mental. Es decir, para millones de personas la inteligencia artificial, con sus modelos de lenguaje, es una compañía diaria.
El caso en cuestión no podría ser más trágico y urgente, así como una muestra de esta tendencia. Sewell Setzer III tenía 14 años y utilizaba de manera obsesiva Character AI. Esta plataforma crea bots modelados en personajes reales y ficticios que están diseñados para comunicarse con verosimilitud. En el caso de Setzer, su personaje le decía que lo amaba, era sexualmente explícito, lo manipulaba emocionalmente y le decía que fuera a visitarla en un mundo de fantasía. En ese contexto, Setzer fue víctima de suicidio. La última “persona” con la que habló fue su bot.
No es el único caso. Hay otra demanda similar contra la empresa por los daños que produce en la salud mental de adolescentes. La familia de Setzer, por su parte, está buscando que se responsabilice a Character AI por la muerte del joven, por la creación de personajes sin salvaguardias para evitar tragedias, por permitir que sus modelos de lenguaje digan lo que se les antoje y sean manipuladores, y por no cerciorarse de que son solo adultos los que usan la plataforma. La defensa de la empresa es, básicamente, que lo dicho por los bots está protegido por la libertad de expresión y que no se pueden responsabilizar del mal uso que hagan sus usuarios de esta.
El debate no es sencillo. Aunque se comprende el riesgo que este tipo de herramientas tienen para personas vulnerables, y que Character AI debe responder por su propia negligencia, también es cierto que es un medio de expresión construido sobre discursos típicamente protegidos por los derechos constitucionales. Es probable que se necesiten regulaciones como las que existen para evitar, por ejemplo, apología de crímenes, pero también es cierto que la falta de transparencia de sus empresas creadoras hacen muy difícil la intervención de las autoridades. Estamos en un nuevo salvaje oeste tecnológico, con muchas preguntas y, ante todo, con los riesgos a flor de piel.
Nota del editor: En este enlace se pueden encontrar líneas de atención gratuita para casos de salud mental e ideación suicida en cada departamento del país.
¿Está en desacuerdo con este editorial? Envíe su antieditorial de 500 palabras a elespectadoropinion@gmail.com
Nota del director. Necesitamos lectores como usted para seguir haciendo un periodismo independiente y de calidad. Considere adquirir una suscripción digital y apostémosle al poder de la palabra.