Sam Altman, director ejecutivo de OpenAI, dueña de ChatGPT, anunció este martes una serie de restricciones para proteger a los usuarios menores de 18 años.
El director aseguró que uno de sus enfoques se centrará en la protección de los adolescentes. “Priorizamos la seguridad sobre la privacidad y la libertad de los adolescentes; se trata de una tecnología nueva y potente, y creemos que los menores necesitan una protección significativa”.
Vale la pena mencionar que ChatGPT está diseñada para mayores de 13 años. Sin embargo, están desarrollando un sistema de predicción de edad.
“En caso de duda, optaremos por lo seguro y usaremos la experiencia para menores de 18 años. En algunos casos o países, también podríamos solicitar una identificación; sabemos que esto compromete la privacidad de los adultos, pero creemos que es una compensación que vale la pena”, dijo Altman en el blog oficial de la plataforma.
Además, aplicarán diferentes normas a los adolescentes que utilicen la plataforma, especialmente en conversaciones sobre temas sexuales o autolesiones. ChatGPT no participaría en dichas interacciones.
Por ejemplo, “si un usuario menor de 18 años tiene ideas suicidas, intentaremos contactar a sus padres y, si no es posible, contactaremos a las autoridades en caso de daño inminente”.
Para ello, contará con un sistema de predicción de edad y nuevos controles parentales. “Somos conscientes de que estos principios entran en conflicto y no todos estarán de acuerdo con nuestra forma de resolverlo. Son decisiones difíciles, pero tras consultar con expertos, creemos que es lo mejor y queremos ser transparentes en nuestras intenciones”, agregó.
En la publicación, el director también aseguró que es fundamental para la plataforma y para la sociedad que se proteja el derecho a la privacidad en el uso de la IA. “Las personas hablan con la IA sobre temas cada vez más personales; es diferente a las generaciones anteriores de tecnología, y creemos que podrían ser uno de los relatos más sensibles que jamás tendrá”, dijo Altman.
Así las cosas, el director aseguró que dichas conversaciones con la IA requieren de protección. “Estamos desarrollando funciones de seguridad avanzadas para garantizar la privacidad de sus datos, incluso la de los empleados de OpenAI”.
Sin embargo, se tendrán ciertas excepciones. “Por ejemplo, los sistemas automatizados supervisarán posibles usos indebidos graves, y los riesgos más críticos (amenazas a la vida de alguien, planes para dañar a otros o daños a escala social, como un posible incidente masivo de ciberseguridad)”.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.