Publicidad

Desafíos éticos y sociales, la frontera de la inteligencia artificial

La IA tiene el potencial de transformar aspectos fundamentales de nuestras vidas y puede traernos beneficios inmensos. Pero si su diseño no es cuidadoso, esta herramienta poderosa podría perpetuar y amplificar los aspectos más problemáticos de la sociedad.

Diana Acosta Navas* / Especial para El Espectador
23 de diciembre de 2023 - 10:00 p. m.
Tenemos que diseñar estas tecnologías de manera que mitigue los mayores riesgos.
Tenemos que diseñar estas tecnologías de manera que mitigue los mayores riesgos.
Foto: El Espectador

La semana pasada participé en NeurIPS, un congreso de inteligencia artificial que se celebró en New Orleans, Estados Unidos. El programa de las noches incluía demostraciones de los más avanzados sistemas creativos: espacios de arte, música y juegos generados por IA. Si me deslumbraron sus capacidades creativas, yo, por mi parte, preferí pasar más tiempo escuchando los tradicionales conciertos de jazz en Frenchmen Street. Quiero creer que mi elección no estuvo motivada solamente por mi gusto por el jazz. También por la convicción de que es necesario conservar esas actividades humanas que compaginan improvisación, diálogo y creatividad, incluso frente al inmenso mundo de posibilidades que se abren con las tecnologías de frontera, aun cuando reconozco y admiro los inmensos beneficios que le ofrecen a la humanidad. (Lea Inteligencia artificial: transformando la práctica médica)

La IA se viene desarrollando desde hace varias décadas y hoy es omnipresente en nuestras vidas (desde los algoritmos que moderan los contenidos en las redes sociales hasta en los sistemas de análisis crediticio). Sin embargo, el desarrollo de los llamados “modelos fundacionales” y el lanzamiento de sus aplicaciones comerciales, como ChatGPT, han logrado cautivar la imaginación del público y han forzado a las empresas, los gobiernos y la sociedad civil a plantearse difíciles preguntas acerca de los impactos que puede traer esta tecnología. Con la aparición de estos modelos hemos visto surgir visiones utópicas por parte de figuras destacadas en la industria.

Estos encuentran en la IA la promesa de una era de “posescasez” o “postrabajo”, donde la expansión de las capacidades humanas conducirá a la abundancia de recursos, permitiendo que las personas dediquen su tiempo a tareas creativas y placenteras. También grandes promesas de avances en la medicina y la educación. Estas visiones contrastan con las de otros, como el papa Francisco, que esta semana habló sobre los enormes riesgos de una tecnología que carece de los valores humanos de compasión, misericordia, moralidad y perdón. ¿Por qué este nuevo desarrollo de la tecnología ha generado tanto revuelo en la comunidad científica y en la sociedad civil? (Lea ¿Cómo regular los sistemas de inteligencia artificial?)

Parte del alboroto se debe a lo que algunos consideran como riesgos de gran escala, incluyendo escenarios catastróficos. Si bien esta discusión sobre “riesgos existenciales” suena como un cuento de ciencia ficción, es una visión que comparten varios expertos y que tiene algún sustento en las características de la tecnología. El temor es que una IA poderosa, aunque programada con objetivos humanos, podría desarrollar metas secundarias que sean perjudiciales para nosotros. En un famoso caso hipotético, una IA diseñada para maximizar la producción de clips (sí, clips, como de oficina) podría, en teoría, concluir que usar cuerpos humanos como materia prima es eficiente para su objetivo, llevándola así a tomar acciones contra la humanidad. Como buen experimento mental, este escenario está muy alejado de la realidad. Sin embargo, deja ver un desafío inherente a la creación de agentes artificiales: asegurar que estos actúen en consonancia con los intereses y valores humanos.

Este problema se ha manifestado en los algoritmos de las redes sociales. Al estar programados para maximizar el tiempo que los usuarios están conectados, estos han tendido a amplificar contenidos polarizantes, que capturan la atención de usuarios, pero han tenido efectos nocivos sobre la democracia y han promovido campañas violentas como la que ocurrió en Myanmar, en el sudeste asiático. Así que, incluso, si no somos literalmente sacrificados para fabricar clips, ya estamos viendo (y es muy probable que siga sucediendo) que ciertos aspectos valiosos y fundamentales de nuestras vidas sean sacrificados en pro de la función objetivo de un algoritmo. En la medida en que la tecnología adquiere más capacidades, esta discusión cobra importancia dados los crecientes riesgos.

Para abordar este problema es necesario considerar, entre otras cosas, la definición de la función objetivo, los valores que se codifican en los modelos y la capacidad para prevenir externalidades. Esto crea difíciles preguntas: ¿cuáles externalidades debe absorber la sociedad y cuáles debemos intentar prevenir a través de regulación estatal?, ¿cómo asegurarnos de que estos modelos estén alineados con nuestros intereses y valores? Es igualmente importante asegurar el control humano sobre agentes artificiales que realizan acciones altamente riesgosas, incluyendo las armas y los vehículos autónomos. Esta última consideración ha cobrado importancia, dado el creciente uso de inteligencia artificial para la selección de objetivos militares por parte del gobierno de Israel. Se ha señalado la posibilidad de que los algoritmos sean imprecisos, sesgados, y hagan muy difícil la asignación de responsabilidad por el uso de la fuerza.

Ahora, si bien la discusión sobre riesgos existenciales ha dominado el debate público, ni la visión utópica ni la distópica están enfocadas en el lugar correcto. Tenemos otros riesgos más inmediatos de qué ocuparnos.

***

Entre ellos, quiero destacar el problema de la desinformación. Recientemente El Espectador reportó una práctica de extorsión que utiliza IA para simular secuestros, presionando a las víctimas a pagar rescates. Este es solo un ejemplo de posibles abusos de una tecnología que (por el momento) es agnóstica frente a la verdad y puede generar contenidos de forma muy eficiente, según lo soliciten sus usuarios.

Uno de los desarrolladores de Stable Diffusion, un destacado modelo generativo de imágenes, habló en NeurIPS sobre el riesgo de desinformación asociado con su herramienta. Durante su discurso argumentó que la raíz de este problema va más allá de la tecnología, situándose en problemas sociales más profundos. Sugirió, entonces, que la responsabilidad del impacto negativo de la tecnología no recae en sus creadores, sino en el contexto social en el que se utiliza.

Este es un argumento común entre los creadores de tecnologías fronterizas, casi tan común como falaz. Es cierto que las herramientas tecnológicas por sí solas no pueden causar daños sociales y que requieren además un entorno social y político que posibilite dichos efectos. Pero de allí no se sigue que podamos absolver a sus creadores de toda responsabilidad. Como otras tecnologías, la IA actúa como un amplificador, o un multiplicador de impacto. En el caso de la desinformación, la tecnología permite la masificación de campañas altamente persuasivas, creando mayor presión sobre las ya afectadas instituciones democráticas. Organizaciones como Code for Africa han alertado sobre el uso de IA en campañas de desinformación coordinadas y a gran escala, destinadas a desestabilizar gobiernos a nivel global.

Con diseños tecnológicos ingeniosos y responsables, sin embargo, puede empezar a combatirse el problema.

Este poder para diseñar tecnologías de manera que mitigue los mayores riesgos impone sobre sus creadores la responsabilidad de implementar acciones preventivas. Esto no implica que descarguemos sobre ellos toda la responsabilidad de resolver problemas sociales. Esto llevaría a una enorme concentración de poder en unas cuantas empresas privadas, lo cual también estaría en tensión con la democracia. Pero sí es importante reconocer que una aproximación responsable al problema debe involucrar a todo el ecosistema de actores sociales: empresas, gobiernos, academia y sociedad civil.

Este argumento no solo se aplica a la desinformación, sino también a otros desafíos éticos como el de los sesgos, la privacidad, el desplazamiento laboral, la transparencia y la explicabilidad. Una herramienta tan poderosa que opere en una realidad social imperfecta puede perpetuar y amplificar los aspectos más problemáticos de la sociedad si su diseño no es cuidadoso. Con tecnologías como la IA, que amplifican masivamente los valores y las suposiciones sobre los que están construidas, la responsabilidad es enorme. Pero si estos retos se enfrentan de manera apropiada, los beneficios para la humanidad pueden ser inmensos.

En los últimos años, tanto las empresas de tecnología como los gobiernos han empezado a asumir esta responsabilidad. Sus acciones están lejos de ser suficientes, pero es claro que las decisiones que tomen hoy tendrán un impacto histórico para la humanidad. Por el momento, es importante mantener una mirada sobria sobre el tema, entendiendo que tenemos en nuestras manos una herramienta muy poderosa, pero una herramienta a fin de cuentas, con limitaciones y problemas.

La IA aún depende del trabajo informal y mal remunerado de muchas personas, utiliza el trabajo creativo de otras sin consentimiento o compensación y puede aseverar falsedades como si fueran verdad. A pesar de estas limitaciones (y en algunos casos por ellas), la IA tiene el potencial de transformar aspectos fundamentales de nuestras vidas. Cómo se dé esta transformación, y si logramos obtener los enormes beneficios que le puede traer a la humanidad, dependerá de nuestra capacidad para coordinar los intereses de muchas partes y abordar los riesgos de forma responsable.

“Con mejor tecnología podremos demostrar nuestra total incompetencia,” decía mi padre jocosamente con alguna frecuencia -aunque por ratos parecía creerlo-. Con toda sinceridad, espero que estuviera equivocado.

* Ph.D. en Filosofía, Harvard University. / Profesora asistente en ética de negocios, Quinlan School of Business, Loyola University Chicago, EE. UU.

Por Diana Acosta Navas* / Especial para El Espectador

Temas recomendados:

 

edosanchez(uhrzf)24 de diciembre de 2023 - 12:51 p. m.
Gracias por este buen artículo.
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar