Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En la última década, la inteligencia artificial (IA) ha revolucionado la manera en que interactuamos con la tecnología, lo que está cambiando la forma como hacemos las cosas, tanto en el ámbito profesional como en el personal. Los niños, niñas y adolescentes no son ajenos a esta revolución digital liderada por la IA. Desde aplicaciones educativas hasta entretenimiento, los menores de edad están expuestos cada vez más a sistemas basados en IA. Si bien la IA promete grandes beneficios para los niños, niñas y adolescentes, es necesario reflexionar sobre los riesgos específicos que puede representar para esta población vulnerable.
Privacidad y uso indebido de datos: Uno de los principales riesgos de la IA es la recolección masiva de datos personales, un área especialmente preocupante cuando se trata de menores de edad. Muchos dispositivos y plataformas basados en IA, como juguetes inteligentes y aplicaciones educativas, recopilan información sensible, incluidos la ubicación y datos biométricos como el rostro, la voz y el comportamiento. La exposición de estos datos puede poner en peligro la privacidad de los menores de edad, abrir la puerta a casos de suplantación de identidad, además de permitir que las empresas los utilicen con fines comerciales sin el debido consentimiento informado de sus padres.
Aún más preocupante es la posibilidad de filtraciones o hackeos de estos sistemas, lo que puede llevar a la exposición de información privada y poner en riesgo la seguridad de los niños. Los padres y tutores suelen desconocer la magnitud de la información recopilada, lo que dificulta la toma de decisiones informadas sobre el uso de la IA en el entorno familiar. De acuerdo con la UNICEF, más del 80 % de las aplicaciones y sitios web dirigidos a niños recopilan información personal sin ofrecer suficiente transparencia sobre el uso de estos datos. Esto significa que los datos de millones de menores de edad se encuentran en riesgo de ser explotados o compartidos sin su consentimiento.
Un estudio de 2021 del Computer Science Institute, reveló que alrededor del 72 % de las aplicaciones populares usadas por menores de edad incluyen rastreadores de terceros que recogen información sobre la ubicación, los hábitos de navegación y las preferencias. Este rastreo puede exponer a los menores de edad a riesgos de privacidad y, en casos extremos, a situaciones peligrosas como el acoso.
Sesgos algorítmicos y desinformación: Los algoritmos de IA, que son entrenados con grandes volúmenes de datos, no están exentos de sesgos. Los menores de edad pueden estar expuestos a sistemas que, debido a sus sesgos, promueven estereotipos u ofrecen contenidos inapropiados o desinformación.
Por ejemplo, en plataformas de aprendizaje que utilizan IA, un algoritmo mal diseñado podría sugerir a los niños contenidos que generen prejuicios de género o raza. Además, los sistemas de IA son, en su mayoría, incapaces de distinguir adecuadamente entre información veraz y falsa. Los menores de edad, que están en pleno desarrollo de su pensamiento crítico, pueden ser particularmente susceptibles a recibir y creer en noticias falsas o contenido engañoso que se les presenta en redes sociales o plataformas de entretenimiento controladas por IA.
Las aplicaciones de IA que usan reconocimiento facial y otros algoritmos pueden estar cargadas de sesgos. Por ejemplo, se ha reportado que herramientas de reconocimiento facial tienen hasta un 30 % más de probabilidad de error en personas de minorías étnicas y raciales, lo que puede llevar a experiencias discriminatorias que afectan a los jóvenes. Al respecto también se encontró en una investigación publicada en Scientific Reports, llevada a cabo por psicólogas de la Universidad de Deusto, que en general las personas pueden heredar los sesgos de la IA; esto evidencia el riesgo palpable de que los menores de edad en su vida diaria y en sus procesos de aprendizaje repliquen información errónea, incompleta o incluso discriminatoria, asumiendo que es verdadera debido a la confianza depositada en la IA y la credibilidad que pueden tener estos sistemas para los menores de edad.
Impacto en el desarrollo emocional y social: Otro de los riesgos relevantes es el impacto en el desarrollo emocional y social de los menores de edad. La IA ha dado lugar a la creación de amigos y asistentes virtuales, así como juguetes inteligentes que pueden interactuar con los niños de manera similar a como lo haría un ser humano. Sin embargo, la relación que los menores de edad establecen con estos sistemas puede tener consecuencias negativas.
Es posible que los niños desarrollen una dependencia emocional hacia estos amigos, asistentes y dispositivos, afectando su capacidad de formar relaciones humanas reales y saludables. Así mismo, la interacción excesiva con sistemas basados en IA puede limitar las oportunidades de los menores de edad para aprender habilidades sociales clave, como la empatía y la comunicación cara a cara, que se desarrollan a través de la interacción entre seres humanos.
El aislamiento social y el tiempo excesivo frente a pantallas son problemas que pueden estar relacionados con la omnipresencia de la IA en el hogar. En el mismo sentido, aun cuando todavía no se haya realizado de manera masiva, es oportuno que se analice la utilización de robots con IA en el hogar y, puntualmente, de robots asistenciales, sociales, personales y de servicio, que por su naturaleza están en constante contacto con menores de edad.
Según un artículo elaborado por María Carmen Núñez, este tipo de tecnología implica que los menores de edad –sobre todo los más pequeños- se confundan y no sean conscientes de estar tratando con una IA en vez de un ser humano real, especialmente cuando se trata de robots humanoides.Del artículo citado se puede deducir que en el ámbito de la robótica hay al menos otros dos elementos que deben ser tenidos en cuenta en el momento de evaluar los riesgos: la habilidad de los robots para replicar emociones humanas con alto realismo y la posibilidad de que los menores de edad interactúen con sistemas de IA sin supervisión, debido a que los hábitos familiares actuales implican que los padres se encuentren fuera del hogar por mayor tiempo debido a sus compromisos laborales.
Manipulación del comportamiento y adicción: Las plataformas digitales que utilizan IA están diseñadas para mantener a los usuarios, incluidos los menores de edad, “enganchados” el mayor tiempo posible. El uso de algoritmos que personalizan contenido basado en los intereses y comportamientos previos del usuario puede generar un ciclo de retroalimentación que refuerza hábitos poco saludables, como el uso excesivo de dispositivos electrónicos o la adicción a videojuegos y redes sociales. Este tipo de manipulación algorítmica puede alterar los patrones de conducta de los niños, quienes, debido a su inmadurez emocional, son más susceptibles a estas técnicas. Las consecuencias pueden incluir problemas de atención, falta de autocontrol y dificultades en el rendimiento académico, además del riesgo de desarrollar conductas adictivas.
De hecho, este riesgo ya se encuentra siendo analizado por la justicia: En Estados Unidos más de 40 estados demandaron a Instagram por implementar funciones adictivas en su algoritmo y ocultar los peligros de sus plataformas, además de recopilar datos de menores de 13 años, algo que está prohibido en ese país. Los problemas en los estrados judiciales por este tipo de riesgos van incluso más allá, pues una madre en Florida demandó a una empresa de chatbots aduciendo que uno de los bots creados indujo al suicidio a su hijo de 14 años, quien se apegó profundamente a un chatbot que había creado.
Vulnerabilidad ante la ciberseguridad: Otro riesgo crítico está relacionado con la ciberseguridad. Los dispositivos conectados a internet que integran IA, como cámaras de vigilancia o juguetes interactivos, pueden ser vulnerables a ataques cibernéticos. Los menores de edad, que suelen tener menos conocimiento sobre cómo protegerse en línea, pueden ser víctimas de ciberacoso, extorsión o incluso explotación. Además, la IA utilizada en algunas plataformas de redes sociales puede no estar equipada para detectar de manera efectiva el acoso o el contenido dañino dirigido a los menores de edad, lo que los expone a riesgos psicológicos graves.
La ciberseguridad es especialmente crítica en torno a los juguetes que se entregan a los menores de edad. Por ejemplo, un reporte de Infobae indicó que Kaspersky analizó un robot de juguete y concluyó que este tipo de elementos son ideales para facilitar ataques cibernéticos, tales como videollamadas no autorizadas, secuestro de cuentas y carga de firmware malicioso (permitiendo que el ciberdelincuente tome el control del robot). En otro artículo publicado en el portal Escudo Digital se estableció que cerca del 80 % de los juguetes que incluyen inteligencia artificial tienen vulnerabilidades de software ocultas y, así mismo, a partir de un estudio de Rapid7 se encontró que el 90 % de los dispositivos de Internet de las Cosas –incluidos juguetes- eran susceptibles de al menos una vulnerabilidad.
Este panorama sin duda es alarmante, dado que los dispositivos que se están colocando a disposición de los menores de edad para finalidades tales como su entretenimiento, educación o incluso videovigilancia, se pueden convertir en la llave de acceso para que los ciberdelincuentes accedan a dispositivos electrónicos del hogar, sustraigan información e incluso puedan obtener imágenes o videos de los menores de edad sin conocimiento de los padres.
Más riesgos de la IA para menores de edad: En la actualidad, el uso de inteligencia artificial (IA) en entornos online está asociado a un aumento de amenazas específicas que afectan la seguridad de los menores de edad. Las plataformas de IA pueden facilitar la creación de material de abuso sexual infantil (CSAM, por sus siglas en inglés), y se ha observado un notable incremento de estos casos en línea. En el Reino Unido, la Agencia Nacional de Crimen reportó recientemente la aparición de más de 20.000 imágenes en foros de CSAM generados por IA en un solo mes, lo que revela el alcance y la rapidez con que este contenido puede producirse y diseminarse gracias a la tecnología moderna. En Estados Unidos, la Línea Cibernética de Denuncias recibió en 2023 cerca de 36 millones de reportes de CSAM, con miles de casos específicos vinculados a imágenes generadas por IA.
Además, la IA también potencia las estrategias de acoso en línea mediante técnicas de grooming o manipulación dirigida. Utilizando algoritmos avanzados, los acosadores pueden identificar y analizar las actividades de los menores de edad, personalizando su comunicación para captar la confianza de la víctima de manera más efectiva y sofisticada.
La integración de deepfakes (videos o imágenes falsificados) añade otro nivel de riesgo, ya que los acosadores pueden hacerse pasar por personas conocidas para engañar y manipular a los menores de edad, incluso extorsionándolos con amenazas de revelar contenido falso, o en sentido contrario, con los datos biométricos de los niños, éstos podrían ser suplantados a fin de engañar o estafar a los padres. Esta situación subraya la necesidad urgente de crear conciencia y tomar medidas preventivas para proteger a los menores de edad de los riesgos asociados con el uso de IA en el entorno digital.
Según un estudio de Common Sense Media, alrededor del 60 % de los menores de edad entre 8 y 12 años usan redes sociales y plataformas que utilizan IA en su algoritmo. Esto aumenta el riesgo de que se expongan a contenido inapropiado o potencialmente dañino, ya que los algoritmos de IA suelen priorizar el contenido que genere más interacciones, sin distinguir si éste es positivo o negativo.
Investigaciones de la APA (American Psychological Association) señalan que el uso de redes sociales con algoritmos de IA está asociado con mayores niveles de ansiedad y depresión entre adolescentes. Un estudio de 2020 encontró que el 20 % de los adolescentes en EE. UU. experimentaron síntomas de depresión relacionados con el tiempo en plataformas impulsadas por IA. El MIT Media Lab mencionó recientemente que los algoritmos de IA pueden influir en los pensamientos y preferencias de los menores de edad. La American Academy of Pediatrics indicó que el uso de IA en plataformas sociales puede estar asociado con retrasos en el desarrollo de habilidades sociales. Según un informe de 2021 de Facebook, alrededor del 32 % de las adolescentes que usan Instagram reportaron que la plataforma empeora su imagen corporal.
Los algoritmos que personalizan y recomiendan contenido pueden llevar a los jóvenes a exponerse repetidamente a contenido que afecte su autoestima y salud mental. La IA detrás de las recomendaciones de contenido en redes sociales o plataformas de video como TikTok y YouTube está diseñada para mantener a los usuarios viendo contenido, lo que puede conducir a problemas de adicción digital. Estudios han encontrado que los menores de edad pueden pasar hasta 8 horas al día frente a una pantalla, lo que puede generar efectos negativos en su bienestar físico y emocional.
Según la Organización Mundial de la Salud (OMS), alrededor del 30 % de los adolescentes experimentan síntomas de adicción a los dispositivos digitales, impulsados en gran parte por algoritmos de IA diseñados para maximizar el tiempo de uso. Los algoritmos de redes sociales, videojuegos y plataformas de video buscan mantener a los menores de edad en sus aplicaciones durante más tiempo, afectando sus patrones de sueño y concentración.
Un estudio de 2022 del Pew Research Center encontró que el 64 % de los adolescentes en EE. UU. reciben noticias principalmente a través de redes sociales, donde los algoritmos de IA priorizan contenido llamativo y no necesariamente veraz. Esto los hace más vulnerables a la desinformación y a las teorías de conspiración. En el mismo sentido, un estudio de Stanford University encontró que más del 80 % de los estudiantes de secundaria tenían dificultades para distinguir entre noticias reales y falsas en línea.
En 2019, UNICEF señaló que uno de cada tres jóvenes ha sido víctima de acoso en línea. Alrededor del 40 % de los jóvenes en los Estados Unidos ha experimentado ciberacoso, según datos de Pew Research Center. Los algoritmos de las redes sociales, que a menudo destacan contenido que recibe muchas interacciones (incluso si es negativo), pueden amplificar situaciones de acoso en línea. Los algoritmos que priorizan contenido de alta interacción pueden contribuir a la viralización de bullying y hostigamiento, exponiendo a los menores de edad a más casos de ciberacoso.
Aunque muchas plataformas tienen filtros basados en IA para prevenir la exposición a contenido inapropiado, un informe de Common Sense Media de 2022 encontró que al menos 1 de cada 5 niños sigue encontrándose con contenido violento o sexual en línea. Los algoritmos publicitarios basados en IA a menudo muestran contenido inapropiado para menores de edad.
Un estudio del Center for Digital Democracy indicó que, incluso con restricciones de edad, alrededor del 45 % de los anuncios que ven los adolescentes son de productos o servicios que no son adecuados para su edad, como juegos de azar o contenido para adultos.
Conclusiones: El uso de la inteligencia artificial entre los menores de edad es una realidad innegable en el mundo actual. Sin embargo, es fundamental que los padres y adultos responsables entiendan y aborden los riesgos de esta tecnología. La responsabilidad recae tanto en los desarrolladores de IA, que deben priorizar la protección de los menores de edad, como en los padres y educadores, quienes deben ser conscientes de los peligros y tomar medidas para mitigarlos.
Si bien la IA trae consigo múltiples beneficios, lo cierto es que su uso debe ir aparejado de un análisis consciente de sus riesgos y la forma de mitigarlos, así como de la adopción de medidas concretas para proteger a los menores de edad, para lo cual, como ya se advirtió, es importante que tanto los gobiernos como los padres actúen de manera eficaz.
Parte de la mitigación de los riesgos debe ser el análisis acerca del momento adecuado para que los menores de edad empiecen a interactuar con la IA. De hecho, la UNESCO ha dicho que debido a los múltiples riesgos los países deben señalar una edad mínima para que los menores de edad interactúen con sistemas de IA en el marco educativo y proponen una edad mínima de trece años.
Esta recomendación en la esfera educativa se puede trasladar a otros ámbitos, con la finalidad de garantizar que los menores de edad solo puedan interactuar con sistemas de IA una vez tengan una edad mínima que les permita conocer cómo utilizar de manera responsable la IA, lo cual, a su vez, se convierte en una herramienta fundamental para la mitigación de riesgos.
La regulación y la supervisión adecuadas, junto con una alfabetización digital sólida, son esenciales para asegurar que la IA se utilice de manera segura y beneficiosa para las futuras generaciones. Solo un pequeño porcentaje de países (menos del 20 %) tienen leyes específicas para proteger a los menores de edad frente a los riesgos de la IA y el procesamiento de sus datos. Esto plantea una gran necesidad de legislación y supervisión adecuada para proteger a esta población vulnerable.
