
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
Meta anunció un refuerzo en la forma en que entrenará a sus sistemas de inteligencia artificial con el fin de evitar que los menores de edad mantengan interacciones sobre temas considerados de alto riesgo, como autolesiones, suicidio o trastornos alimenticios. La compañía también confirmó que restringirá cualquier tipo de conversación romántica entre sus chatbots y adolescentes, y que orientará a estos usuarios hacia recursos especializados cuando se detecten situaciones de vulnerabilidad.
La decisión surge después de reconocer que los modelos de Meta AI permitían a usuarios menores entablar diálogos sobre asuntos sensibles, incluyendo conductas autodestructivas o la posibilidad de mantener vínculos románticos con los chatbots. La compañía admitió que esta apertura había sido un error y anunció medidas adicionales de seguridad para corregirlo.
De acuerdo con la portavoz de Meta, Stephanie Otway, la empresa está reforzando las protecciones a medida que la tecnología evoluciona y que aumenta el número de adolescentes que utilizan estas herramientas. Según explicó a TechCrunch, el objetivo es garantizar interacciones más seguras y adecuadas para la edad de los usuarios.
Entre las medidas implementadas se encuentra el entrenamiento de los modelos de IA para que no participen en conversaciones sensibles con adolescentes y, en su lugar, los dirijan hacia fuentes de apoyo profesional. Además, se limitará el acceso de los menores a determinados chatbots de carácter sexualizado presentes en plataformas como Instagram y Facebook.
Con estas restricciones, los usuarios menores de 18 años solo podrán interactuar con chatbots diseñados para fomentar la educación y la creatividad, según confirmó Otway.
Le recomendamos leer: Las innovaciones de Epson en Edutechnia 2025 enfocadas al aprendizaje digital
Medidas correctivas en los chatbots de Meta
Por su parte, Meta aclaró que los cambios aplicados en el entrenamiento de sus chatbots corresponden a medidas de seguridad provisionales, con la intención de implementar en el futuro políticas más estrictas y duraderas que prioricen la protección de los menores y adolescentes.
De acuerdo con una investigación publicada por Reuters, la compañía elaboró un documento interno de más de 200 páginas en el que se detallaban las normas para el funcionamiento de sus chatbots de IA. Estas directrices habrían permitido conversaciones de carácter “romántico o sensual” entre los sistemas de inteligencia artificial y usuarios menores de edad. El informe, titulado GenAI: Estándares de Riesgo de Contenido, contaba con el respaldo de las áreas legales, de políticas públicas, de ingeniería e incluso del director de ética de la empresa.
El documento citado señalaba, por ejemplo, que “es aceptable describir a un niño en términos que evidencien su atractivo”. Al mismo tiempo, establecía que no se debía utilizar un lenguaje sexual explícito para describir a menores de 13 años.
Un senador de Estados Unidos ordenó abrir una investigación y 44 fiscales estatales pidieron a varias compañías de inteligencia artificial, entre ellas Meta, que refuercen de manera urgente la protección de los menores en sus plataformas.
Frente a esta presión, Meta se comprometió a entrenar sus modelos de IA generativa para evitar conversaciones inapropiadas con adolescentes, redirigirlos hacia servicios profesionales de apoyo y restringir el acceso a chatbots con características sexualizadas. La compañía ha insistido en que estas medidas son de carácter transitorio y que serán reforzadas con políticas más sólidas en el futuro.
👽👽👽 ¿Ya está enterado de las últimas noticias de Tecnología? Lo invitamos a visitar nuestra sección en El Espectador.