Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
El concepto de inteligencia artificial abarca aquellas tecnologías que replican procesos cognitivos propios de los seres humanos, como aprender información y habilidades nuevas, reconocer patrones, comprender lenguaje o tomar decisiones. De esta forma, la IA puede automatizar tareas complejas y resolver a mayor escala problemas que serían demasiado costosos o lentos si los realizara un ser humano. En pocas décadas, ha pasado de ser una idea conceptual a convertirse en la tecnología que sostiene múltiples aplicaciones de la vida diaria.
Los inicios de la IA se remontan a mediados de los años 50. Tras algunas ideas teóricas, que no llegaron a hacerse realidad por las limitaciones tecnológicas de la época, en 1955 Allen Newell, Herbert Simon y Cliff Shaw desarrollaron el que está considerado como el primer programa de razonamiento automatizado, Logic Theorist, con el que demostraron 38 de los 52 teoremas de los ‘Principia Mathematica’ de Bertrand Russell y Alfred North Whitehead. Al año siguiente, en 1956, la Universidad de Dartmouth acuñó el término de ‘inteligencia artificial’, lo que se considera el inicio de esta área de estudio, durante una conferencia que reunió a algunos de los principales expertos del momento para “participar de la conjetura de que cualquier aspecto del aprendizaje u otras características de la inteligencia pueden, en principio, ser descritas con tanta precisión que una máquina pueda simularlas”.
Apenas cuatro décadas después, en 1997, la máquina Deep Blue de IBM logró vencer al campeón mundial de ajedrez Garry Kasparov. Y poco más de 20 años después de este hito, en 2021, la IA AlphaFold, desarrollada por la empresa DeepMind de Alphabet, fue capaz predecir con gran precisión el plegamiento de las proteínas, un conocimiento trascendental para mejorar los tratamientos de las enfermedades genéticas como el cáncer.
Que haya pasado menos de un siglo entre la conferencia inaugural de un concepto tecnológico y uno de sus logros que mayor impacto puede tener en el bienestar humano, ilustra el potencial de la IA para responder a los grandes retos de la humanidad. Su rápida trayectoria, impulsada por las mejoras constantes en la capacidad de cálculo del ‘hardware’, el refinamiento de los modelos de ‘software’ y la disponibilidad de datos, nos permite anticipar avances aún más transformadores que vayan de la mano de un desarrollo responsable con la sociedad.
¿Cómo funciona la inteligencia artificial?
Los algoritmos y los datos constituyen el núcleo de la inteligencia artificial. Los algoritmos pueden definirse como secuencias de instrucciones, de forma similar a una receta que indica qué ingredientes usar, en qué cantidades, cómo combinarlos y durante cuánto tiempo cocinarlos para obtener un plato. En este paralelismo, los datos son los ingredientes, el material imprescindible que alimenta a los algoritmos para que puedan ‘cocinar’ soluciones: detectar patrones, realizar predicciones o tomar decisiones basadas en probabilidades. Cuantos más y de mayor calidad sean los datos, más fiables y precisos serán los resultados.
La IA simbólica se basa en “si ocurre X, hacer Y”. El ‘machine learning’, en cambio, aprende a identificar patrones por sí mismo.
Los algoritmos tradicionales están diseñados para ofrecer un conjunto de respuestas predefinidas; algo que, aunque es útil en tareas como el filtrado de ‘spam’ en el correo electrónico o los sistemas de control del tráfico aéreo, no aprovecha todo el potencial de la tecnología. Una de las primeras aproximaciones a la inteligencia artificial para superar esas limitaciones fue la llamada IA simbólica. Basada en reglas explícitas diseñadas por expertos, buscaba representar el conocimiento en forma de “si ocurre X, entonces hacer Y”. Con este enfoque nacieron los primeros sistemas expertos, capaces de tomar decisiones automáticas en ámbitos muy concretos, como el diagnóstico médico o la resolución de problemas lógicos.
Aunque resultaba eficaz en contextos bien definidos, pronto se reveló insuficiente para afrontar la complejidad y la ambigüedad del mundo real. En este sentido, la creación del aprendizaje automático o ‘machine learning’ supuso un gran salto cualitativo. En lugar de programar cada respuesta posible, se entrena al sistema con ejemplos para que ‘aprenda’ a identificar patrones generales por sí mismo. Es el mismo principio que sigue el ser humano cuando, de pequeño, aprende a distinguir por ejemplo a un perro de un gato: tras exponerse a suficientes ejemplares de los dos animales, aprende a reconocerlos incluso cuando se encuentra ante una raza que no había visto antes. De manera similar, un algoritmo de ‘machine learning’ mejora con la experiencia, afinando su capacidad para clasificar, predecir o recomendar.
Recomendada: David Vélez, Nu, y la estrategia para prestarle plata a quien nadie le presta
Un paso más allá, dentro del aprendizaje automático, se encuentra elaprendizaje profundo o ‘deep learning’, basado enredes neuronales artificiales inspiradas en el cerebro humano. Estas redes son conjuntos de capas de ‘software’ interconectadas que procesan la información a diferentes niveles. En sus primeras capas, por ejemplo, una red neuronal puede detectar rasgos básicos de una imagen como bordes o colores; en capas más profundas, combina esa información para reconocer objetos completos, rostros o interpretar el contexto de una escena.
De esta evolución surge la inteligencia artificial generativa, que utiliza el aprendizaje profundo para crear contenido nuevo (texto, imágenes, música o incluso modelos moleculares) a partir de los patrones aprendidos en grandes volúmenes de datos. Dentro de ella, destacan los grandes modelos de lenguaje (‘large language models’, o LLM), entrenados específicamente con texto para comprender y generar lenguaje natural con una fluidez cada vez más cercana a la humana.
De los cálculos masivos a la vida cotidiana
En líneas generales, el funcionamiento de la inteligencia artificial se sustenta en cálculos masivos, procesamiento de información a gran escala y estadística. Lo que cambia son las técnicas empleadas y la amplitud de los problemas que pueden abordarse.
La IA está transformando numerosos sectores y actividades de la vida cotidiana. Se utiliza en tareas de clasificación, como reconocer imágenes o segmentar grandes volúmenes de información, y en la detección de anomalías, clave para identificar fraudes en operaciones financieras. También apoya a los médicos en la interpretación de imágenes clínicas, contribuye a descubrir nuevos fármacos e impulsa aplicaciones empresariales cada vez más adaptadas a las necesidades de los clientes.
En ámbitos sensibles como la seguridad y la defensa, se emplea para analizar información y anticipar riesgos. En el transporte, optimiza rutas y da pasos hacia la conducción autónoma, mientras que en la educación ofrece experiencias de aprendizaje más personalizadas. Además, se ha convertido en parte inseparable de la vida cotidiana, ya que sugiere qué canción escuchar, qué película ver o cómo organizar un trayecto en coche más rápido.
De una IA débil a una superIA
La mayor parte de la inteligencia artificial que hoy se utiliza de forma generalizada se considera ‘débil’ o estrecha, ya que da lugar a herramientas muy eficaces pero especializadas en una única función, como los filtros de ‘spam’ en el correo electrónico o los sistemas de control del tráfico aéreo. Sin embargo, los LLM muestran indicios de una capacidad más amplia que los acerca al debate sobre la llamada IA general (AGI), entendida como aquella capaz de aprender, razonar y adaptarse a diferentes contextos y tareas con la flexibilidad de un ser humano. Algunos investigadores han descrito estos avances como ‘chispas de AGI’.
Cada vez más organizaciones incluyen entre sus objetivos la apuesta por la AGI, como OpenAI en su carta fundacional o DeepMind en su plan de investigación hacia una AGI responsable. También algunos gobiernos han impulsado iniciativas en esta dirección, como el de China con el Beijing Institute for General Artificial Intelligence (BIGAI).
Además, se debate si esta evolución podría culminar en una IA superinteligente, con máquinas que excederían ampliamente las capacidades humanas más complejas. Los estudios que abordan este escenario exploran los dilemas éticos y existenciales de este posible salto tecnológico. Aunque sigue siendo especulativo, este horizonte genera debates sobre cómo garantizar un desarrollo seguro y beneficioso para la humanidad.
Oportunidades y retos de la IA
Como todo avance tecnológico, la inteligencia artificial ofrece grandes oportunidades para impulsar el bienestar humano, pero también desafíos que es necesario tener en cuenta para que su desarrollo se produzca de manera responsable.
El valor real de la IA se medirá por la habilidad humana de integrarla en la sociedad de forma responsable.
Entre las principales ventajas de la IA destacan la eficiencia y velocidad con la que resuelve tareas repetitivas, la precisión en contextos críticos como la medicina o la ingeniería y la escalabilidad que le permite procesar cantidades masivas de información sin perder consistencia. Además, abre la puerta a una creatividad asistida en la que las máquinas no sustituyen al ingenio humano, sino que lo amplifican y lo acompañan, liberando tiempo y recursos para la innovación.
Al mismo tiempo, la IA enfrenta desafíos de carácter tanto técnico como social. Los sesgos presentes en los datos pueden traducirse en decisiones injustas o discriminatorias; ante la capacidad que tiene la tecnología de utilizar información personal de manera masiva, la privacidad debe delimitarse con claridad; y la necesidad de una ética y regulación adecuadas se hace cada vez más urgente para asegurar que la tecnología se desarrolle de manera justa, segura y responsable.
Recomendada: La startup que está cambiando la forma en la que se certifican títulos académicos
Otro de los grandes retos se encuentra en el ámbito laboral. La inteligencia artificial está llamada a redefinir muchos empleos, al reducir tareas rutinarias que hoy requieren intervención humana. Ante este cambio de paradigma, es esencial gestionar la transición de forma que la IA no sustituya el talento humano, sino que lo potencie y le libere tiempo para responsabilidades de mayor creatividad y valor estratégico.
Frente a sus oportunidades y retos, el valor real de la inteligencia artificial se medirá por una habilidad humana: la de integrar esta potente tecnología en la sociedad de forma responsable.
1936
La máquina de Turing
El inglés Alan Turing, considerado el padre de la ciencia computacional y célebre por haber descifrado el aparato de comunicaciones Enigma de la Alemania nazi, propuso en 1936 un sistema teórico que aplicaba una serie de reglas a una cinta codificada para ejecutar cualquier algoritmo, lo que equivalía a una máquina de computación general.
1946
La neurona artificial
En 1943 Walter Pitts y Warren McCulloch publicaban un influyente estudio en el que describían la neurona artificial, la primera formulación teórica de lo que después se llamaría red neuronal. Sobre este modelo matemático, en 1951 Marvin Minsky y Dean Edmonds diseñarían SNARC, la primera máquina basada en una red neuronal.
1950
El test de Turing
En 1950 Turing publicaba su famoso artículo “Computing Machinery and Intelligence”, en el que definía el “juego de imitación” como una prueba para comprobar la capacidad de una máquina de hacer creer a su interlocutor humano que ella también lo es. El llamado test de Turing ha permanecido desde entonces como una medida de la capacidad de pensar de una IA.
1955
El primer programa de IA
El honor del primer programa de IA corresponde a Logic Theorist, escrito en 1955 por Allen Newell, Herbert A. Simon y Cliff Shaw. Con su razonamiento automatizado, resolvió 38 de 52 teoremas de la obraPrincipia Mathematicade Russell y Whitehead. Simon atribuyó a su programa la facultad de dar una mente a una máquina, lo que luego se llamaría IA Fuerte o General. Logic Theorist se presentó en 1956 en el simposio fundacional de Dartmouth.
1956
Nace la Inteligencia Artificial
En el verano de 1956 se celebraba en el Dartmouth College de New Hampshire elDartmouth Summer Research Project on Artificial Intelligence, un simposio organizado por John McCarthy, Marvin Minsky, Claude Shannon y Nathan Rochester que se considera el acto fundacional de la Inteligencia Artificial, un término propuesto para la ocasión por McCarthy.
1964
ELIZA, el pionero de los chatbots
Durante los años siguientes al simposio de Dartmouth fueron muchos los avances en programación de IA, mientras nacían laboratorios en instituciones como el Instituto Tecnológico de Massachusetts o la Universidad de Stanford. Newell, Simon y Shaw presentaban su General Problem Solver, y en 1964 Joseph Weizenbaum creaba ELIZA, un psicoterapeuta automatizado en lenguaje natural, precursor de los chatbots.
1966
Shakey, el primer robot con IA
Entre los primeros intentos de construir robots inteligentes destacó Shakey, creado entre 1966 y 1972 en Stanford por Charles Rosen, Nils Nilsson, Peter Hart y otros. Fue el primer robot móvil capaz de percibir su entorno, tomar decisiones y comunicarse en lenguaje natural. Sus diseños inspiraron los vehículos autónomos, la robotización industrial o losroversde Marte.
1977
Deep Blue vence a Garry Kasparov
Los grandes avances posteriores a Dartmouth sembraron un entusiasmo que llevó a los científicos a predecir la creación de una IA general en unos pocos años. Pero estas previsiones no se cumplieron, y los recortes de fondos sumieron a esta disciplina en el llamado invierno de los años 70 y 80. El interés renació en los 90, sobre todo gracias a un golpe de efecto, cuando la máquina Deep Blue de IBM venció al campeón de ajedrez Garry Kasparov.
2002
La IA llega al hogar
La primera introducción de la IA en los hogares fue de un modo que pocos esperaban: a través de la limpieza del suelo. En 2002 la compañía iRobot lanzó Roomba, el primer robot doméstico autónomo capaz de navegar gracias a un conjunto de sensores y tomar decisiones. En 2010 Roomba ingresó en el Robot Hall of Fame de la Universidad Carnegie Mellon.
2011
Nacen los asistentes virtuales
En 2011 Apple introdujo Siri, el primer asistente virtual con reconocimiento de voz e interacción con lenguaje natural en unsmartphone. Google respondería en 2012 con Google Now, Microsoft con Cortana en 2014 y Amazon con Echo/Alexa el mismo año. Los asistentes virtuales se han convertido en la experiencia cotidiana de la IA para millones de usuarios, conectando a su vez con otra multitud de aplicaciones basadas en IA.
2011
Watson gana un concurso
Un nuevo golpe de efecto publicitario llegó en 2011 cuando la IA Watson de IBM ganó a los campeones del concurso televisivoJeopardy!, logrando el premio de un millón de dólares. Después de su éxito mediático, IBM destinó a Watson a otros usos, como la investigación médica o la predicción meteorológica.
2015
AlphaGo, campeón de Go
En 2015 el programa de redes neuronales AlphaGo de la compañía DeepMind de Google vencía al campeón Fan Hui en el juego oriental del Go por cinco victorias a cero. Al año siguiente ganaría al también campeón Lee Sedol. AlphaGo aprendía de los juegos humanos, pero la siguiente versión, AlphaGo Zero, fue construida desde cero para aprender solo jugando contra sí misma. Venció a su antecesora por cien a cero.
2020
La IA resuelve un problema científico de medio siglo
En noviembre de 2020 la segunda versión del programa de aprendizaje automático AlphaFold de DeepMind, basado en la experiencia aprendida por esta compañía con AlphaGo Zero, conseguía resolver la estructura tridimensional de virtualmente cualquier proteína, un problema científico de enorme complejidad que llevaba medio siglo esperando resolución. Este logro ha sido calificado como el avance más importante en la historia de la IA.
2022
ChatGPT
En noviembre de 2022 la compañía OpenAI lanzaba al público suchatbotChatGPT, convertido en una estrella mediática y en una fuente de tantas aplicaciones como controversias. ChatGPT y sus sucesores y competidores son actualmente la cara más visible de la IA, junto con las Redes Generativas Antagónicas (GAN), dedicadas sobre todo a la creación artística, y las aplicaciones de creación dedeepfakes. De ChatGPT y sus equivalentes se discute si han superado el test de Turing, algo en lo que no hay acuerdo entre los expertos.
*Texto publicado originalmente en BBVA, replicado en El Espectador con autorización de BBVA Colombia.
*Título modificado y ajustado por el editor de EyL de El Espectador.
Si conoce historias de emprendedores y sus emprendimientos, escríbanos al correo de Edwin Bohórquez Aya (ebohorquez@elespectador.com) o al de Tatiana Gómez Fuentes (tgomez@elespectador.com). 👨🏻💻 🤓📚