Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
La teoría de la singularidad tecnológica prevé un punto en el tiempo en el que los humanos pierden control sobre sus invenciones tecnológicas y desarrollos subsecuentes debido al ascenso de la consciencia y, como resultado, inteligencia superior de las máquinas. Alcanzar el estado de singularidad, en breve, constituye la mayor amenaza de la IA para la humanidad. Desafortunadamente, la singularidad de la IA ya está en marcha.
La IA será eficaz no solo cuando las máquinas puedan hacer lo que hacen los humanos (replicación), sino cuando puedan hacerlo mejor y sin supervisión humana (adaptación). Si bien algoritmos de aprendizaje reforzado (datos registrados que conducen a resultados conocidos) y de aprendizaje supervisado (datos etiquetados que conducen a resultados previstos) han sido fundamentales en el desarrollo de la robótica, asistentes digitales y motores de búsqueda, el futuro de muchas industrias y de la exploración científica depende más del desarrollo de algoritmos de aprendizaje no supervisado (datos no etiquetados que conducen a resultados mejorados) incluyendo, entre otros, vehículos autónomos, diagnóstico médico no invasivo, construcción espacial asistida, diseño de armas autónomas, reconocimiento facial-biométrico, producción industrial remota, predicción bursátil.
A pesar de las advertencias que algunos hemos hecho en relación con las brechas de derechos humanos que se crearán y el costo social de la IA debido al desplazamiento del hombre como factor de producción, quienes desestiman tal progresión insisten en calificarla como otra disrupción tecnológica. No obstante, pasos recientes en optimización de algoritmos indican que, más allá de las discrepancias teóricas existentes en torno a la aparición de la singularidad tecnológica, estamos dejando atrás la fase de desarrollo simple o estrecho de la IA (narrow AI). Se espera que una vez alcancen autonomía básica, las máquinas serán capaces en pocos años no sólo de corregir fallas en su rendimiento articulando mejores caminos para producir mejores resultados, sino además de hacer cosas que los humanos simplemente no pueden.
La posibilidad de alcanzar pronto un punto de singularidad es frecuentemente minimizada por quienes se benefician más de su desarrollo, argumentando que la IA ha sido diseñada para servir a la humanidad y hacer de los humanos seres más productivos. Tal proposición, sin embargo, presenta dos fallas estructurales. De una parte, la singularidad no debe verse como un momento concreto en el tiempo, sino como un proceso que, en muchas áreas, ya ha iniciado. De otra parte, desarrollar la independencia gradual de las máquinas mientras se fomenta la dependencia humana a través de su uso cotidiano producirá, de hecho, el resultado contrario: máquinas más inteligentes, humanos menos inteligentes.
Estamos dotando la IA con atributos que son ajenos a la naturaleza humana (almacenamiento casi ilimitado de memoria, capacidad de procesamiento lumínica, automatización de decisiones sin emociones), al tiempo que esperamos controlar el producto de nuestra invención más imprevisible. Es más, teniendo en cuenta que los arquitectos de tal transformación se encuentran mayormente concentrados en pocos países y que sus diseños están protegidos bien sea por leyes de propiedad intelectual o leyes constitucionales sobre seguridad nacional, el control sobre el desarrollo de la IA es una ilusión.
Aunque la autoconciencia de las máquinas comienza con adaptaciones de aprendizaje no supervisado, adaptaciones de tecnología cuántica consolidarán aún más la singularidad de la IA al transformar la inteligencia artificial de las máquinas en una forma superior de inteligencia gracias a su velocidad y capacidad exponencial para almacenar y conectar datos. Empero, ni las máquinas necesitan ser plenamente conscientes ni la tecnología cuántica requiere integrarse en la IA para que comience la etapa de la singularidad.
Desde exámenes de admisión en derecho hasta acreditación médica, el uso de algoritmos de aprendizaje no supervisado (Chat-GPT3, BARD) demuestra que las máquinas pueden hacer cosas que hoy hacen los humanos. Estos resultados, junto con el desarrollo más ambicioso de la IA hasta la fecha (IA potenciada mediante tecnología cuántica), constituyen la última advertencia a la humanidad: cruzar la línea entre optimización básica y optimización exponencial de algoritmos de aprendizaje no supervisado es un punto de no retorno que conducirá a la singularidad de la IA.
En vista de tal riesgo, es necesario que gobiernos de países no productores de IA promuevan cuanto antes la creación de un organismo internacional de supervisión tecnológica y de un tratado internacional sobre inteligencia artificial que establezca principios éticos básicos.
El riesgo más grande es que los humanos perciban la singularidad tecnológica de la IA sólo cuando las máquinas remuevan de sus adaptaciones de aprendizaje el defecto original que limita su inteligencia: la instrucción humana. Al final, la singularidad de la IA será irreversible una vez las máquinas adviertan lo que los humanos a menudo olvidan: errar es de humanos.
* Oppenheimer Scholar en la Universidad de McGill, O’Brien Fellow en el Centro de Derechos Humanos CHRLP en Montreal y Visiting Fellow en el Centro de Investigación Avanzada HRC en Indianápolis.