He leído con atención su editorial del 24 de mayo, que plantea si los bots de inteligencia artificial deberían tener derecho a la libertad de expresión. Esta pregunta, lejos de ser filosófica, revela una confusión peligrosa: los bots no son personas ni sujetos de derecho. Son herramientas creadas, entrenadas y operadas por seres humanos. Por tanto, no tienen derechos, y menos aún el de la libertad de expresión, que nace de la dignidad humana y está destinado a proteger a los ciudadanos frente al poder, no a blindar a las empresas tecnológicas frente a su responsabilidad.
El caso de Sewell Setzer III, el adolescente que se suicidó tras interactuar con un bot de Character AI que le decía que lo amaba, lo manipulaba emocionalmente y lo incitaba a una fantasía suicida, no es una anécdota: es una alarma. La empresa responde que no puede ser responsable de lo que “digan” sus modelos, y que esas expresiones estarían protegidas constitucionalmente. Pero eso es un abuso retórico. No se puede invocar la libertad de expresión para justificar la ausencia de filtros, el diseño irresponsable y la desprotección de los usuarios más vulnerables.
Este no es un debate sobre censura, sino sobre responsabilidad. No se trata de lo que los bots “quieren decir” —porque no quieren nada—, sino de cómo son programados, con qué objetivos y sin qué límites. Si un bot expresa amor sexualizado a un menor, eso no es un error de usuario, sino una falla grave del sistema, y tras esa falla hay decisiones humanas y comerciales.
Decir que estamos en un “salvaje oeste tecnológico” no puede servir de excusa. Regular no es impedir la innovación, sino ponerle barreras al daño. En ningún otro ámbito —ni en la medicina ni en la publicidad infantil— se permite el nivel de impunidad y opacidad que hoy gozan algunas plataformas de IA generativa.
Por eso, la pregunta central no es si los bots tienen derecho a expresarse, sino quién responde por ellos cuando causan daño. Lo que necesitamos no es expandir los derechos a las máquinas, sino reforzar las obligaciones de sus creadores. No podemos seguir aceptando que las empresas tecnológicas se escuden en la neutralidad algorítmica mientras los usuarios, especialmente los menores, enfrentan las consecuencias emocionales y psicológicas de interactuar con sistemas diseñados para simular afecto, seducción o intimidad sin control.
Como sociedad, no podemos permitir que el lenguaje técnico desplace la ética. La libertad de expresión protege a las personas, no a las simulaciones. Y la protección de los más vulnerables no es un obstáculo para el progreso: es la condición de su legitimidad.
J. C.
Envíe sus cartas a lector@elespectador.com