
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
(Liderazgo) ¿Y si el mayor riesgo de la inteligencia artificial no fuera el reemplazo de puestos de trabajo, sino algo igual de dañino: profesionales que parecen competentes, pero carecen del criterio que respalde esa competencia?
El año pasado, unos biólogos marinos noruegos descubrieron que sus poblaciones de arenque habían olvidado sus antiguas rutas migratorias. Como consecuencia de la desaparición de los peces más experimentados debido a la sobrepesca, los arenques jóvenes idearon nuevos caminos que los llevaban a aguas más frías e inhóspitas. En solo una generación desaparecieron siglos de sabiduría acumulada.
Actualmente, en el trabajo basado en el conocimiento, la dinámica es la misma. Las herramientas de inteligencia artificial automatizan tareas que antes ayudaban a los profesionales a desarrollar el pensamiento. Ahora, existe una generación capaz de producir resultados sofisticados, pero incapaz de explicar su propio trabajo.
El informe jurídico de Steven Schwartz, generado por ChatGPT, parecía impecable hasta que un juez descubrió que los seis casos citados eran falsos. Cuando se le preguntó, este experto con treinta años de carrera ni siquiera pudo identificar los formatos básicos de cita legal que supuestamente había utilizado. Y no es el único ejemplo, pues Damien Charlotin, investigador y profesor de la Escuela de Estudios Superiores de Comercio de París, ha documentado cerca de 150 situaciones de alucinaciones similares de la IA en todo el mundo desde junio de 2023.
Las empresas y las organizaciones están aprendiendo la misma lección sobre las limitaciones de la IA. Klarna, unicornio del «compra ahora y paga después», despidió a 700 empleados el año pasado alegando que la IA podía hacer su trabajo. Sin embargo, al cabo de un año iniciaron una ola de contrataciones, y su director general declaró: «al final obtienes una menor calidad […] la inversión en la calidad del apoyo humano es nuestro camino hacia el futuro».
Cuando las personas vulnerables se encuentran con la IA en lugar de con la experiencia humana, las consecuencias pueden ser fatales. El chatbot de la Asociación Nacional de Trastornos Alimentarios de Estados Unidos recomendaba la pérdida de peso. Los chatbots de Character.AI presuntamente fomentaron el suicidio de un adolescente. No cabe duda de que la IA mejorará progresivamente, pero estas tragedias revelan lo que ocurre cuando priorizamos la eficiencia sobre la comprensión en contextos donde el criterio humano es indispensable.
Para ver: “Soy Popular”: +Talante 2025 impulsa la economía solidaria en Bogotá
El Foro Económico Mundial considera que la competencia básica más importante en 2025 es el pensamiento analítico. Quizás la promesa de que la IA creará una mano de obra especializada, como parece que piensan Dario Amodei y Jensen Huang, sea un poco exagerada.
A título personal, he observado un fenómeno preocupante en mis clases. En vista de la creciente inquietud por el uso de ChatGPT en los exámenes escritos desde 2023, he incorporado pruebas orales a los deberes para hacer en casa. Los resultados han sido reveladores. He recibido tareas que parecían trabajos de posgrado, si bien cuando hacía preguntas básicas de metodología o razonamiento a los alumnos, a muchos les costaba responder con solvencia. Habían elaborado análisis sofisticados sin desarrollar las habilidades de pensamiento necesarias que respaldasen sus propias tareas.
Lo alarmante no es que los alumnos utilizaran la IA —estas herramientas son hoy una realidad en el aula y el lugar de trabajo—, sino que parecían verdaderamente sorprendidos por mi deseo de indagar más. Al fin y al cabo, la tarea por escrito lo había dejado todo clarísimo, ¿no? La fluidez lingüística de la herramienta les había convencido de su competencia, aun cuando estaba vaciando de sentido su aprendizaje.
Para leer: La pareja que emprendió corrigiendo tesis de grado en tiempos de IA
Les haré una confesión: para elaborar este ensayo he necesitado más de veinte borradores, que he obtenido alternando entre ChatGPT y Claude. Ahora bien, he leído la investigación y estoy capacitado para analizarla, he vivido las anécdotas en carne propia y he formulado una tesis antes de sentarme a escribir. Sin esta formación, este artículo sería un ejemplo de lo que precisamente se dedica a criticar, es decir, un trabajo cuidado pero vacío. El mero hecho de intentar hablar de los peligros de la IA mientras utilizamos la IA revela con qué facilidad podemos hacernos dependientes de esa ayuda. La lección sigue siendo que la competencia debe preceder a la colaboración. De lo contrario, solo estamos automatizando la ignorancia.
La lección sigue siendo que la competencia debe preceder a la colaboración. De lo contrario, solo estamos automatizando la ignorancia.
En las consultoras, los analistas generan presentaciones cuidadas mediante la IA, pero cuando la tarea supera la capacidad de esta, a los humanos se les da mejor hacerla sin recurrir a esta tecnología. Los programadores informáticos son más revisores que programadores en la actualidad: el código puede provenir de la IA, aunque las habilidades para revisarlo provienen de muchos años siendo programador júnior sin IA.
Ankur Gupta afirmó en una cita que dio lugar a este ensayo: «La IA no entiende el tiempo. Es capaz de recordar una instrucción de hace quince segundos, aunque no de entender el desarrollo desorganizado de un producto durante cinco años, ni por qué un ejecutivo experimentado decidiría esperar en lugar de actuar». En resumen, la IA puede simular conocimiento, pero no (todavía) ser un ejemplo de sabiduría. Esta surge lentamente a través de la frustración, la iteración y la adaptación. No es fruto únicamente del reconocimiento de pautas, sino de la profundidad temporal y de un criterio sensible al contexto.
No se puede tener criterio respecto a lo que no se conoce.
A todos los efectos, se considera que los profesionales actuales de la IA híbrida son habilidosos y productivos. Sin embargo, esto es sobre papel, porque sin una profunda comprensión del trabajo, las empresas están cambiando eficiencia a corto plazo por una potencial fragilidad a largo plazo.
Es posible que los empleados sean más propensos a flaquear bajo presión, pasar por alto dilemas éticos o quedarse paralizados cuando cambian las condiciones. Cuando las respuestas de la IA se quedan cortas (y al final acaba ocurriendo), tiene que haber alguien al mando que sepa cómo responder. El riesgo de lo que Peter Capelli, de la Escuela de Negocios Wharton, denomina la brecha de la experiencia es real: «Todo el mundo quiere contratar a alguien con tres años de experiencia, pero nadie quiere darle tres años de experiencia». La creencia de que el experto que sepa aprovechar la IA puede suplir esta falta de conocimiento puede ser peligroso.
En entrevista: Educación financiera: la clave para no caer en los préstamos gota a gota
Para entender el motivo de porqué el trabajo asistido por IA puede desentrañar estos riesgos, consideremos dos elementos fundamentales: uno, los propios conocimientos del usuario, y, otro, la índole de la tarea a realizar, en concreto si es objetiva o subjetiva.
Matriz de riesgos de la IA
Los conocimientos técnicos en cualquier ámbito van de menor a mayor, del principiante al profesional experimentado. Por otra parte, las tareas se dividen en dos categorías: codificables/verificables (en las que los conocimientos pueden enunciarse y comprobarse explícitamente) o no codificables/basadas en criterios propios (que requieren conocimientos tácitos que proceden únicamente de la experiencia). Por ejemplo:
Cuando un trabajador atesora una gran experiencia en un ámbito.
- Tareas codificables/verificables: zona de ejecución. Trabajo rápido, preciso y aumentado con la tecnología. Por ejemplo, un contable sénior que utiliza la IA para tramitar declaraciones fiscales.
- Tareas no codificables/basadas en criterios propios: zona de juicio. La IA ayuda, pero dominan los conocimientos tácitos. Por ejemplo, un médico experimentado que utiliza la IA para su diagnóstico.
O cuando un trabajador tiene poca o ninguna experiencia en un ámbito.
- Tareas codificables/verificables: zona controlable. Comprobable pero con riesgo de omisión. Por ejemplo, un estudiante que utiliza la IA para resolver problemas de física. Los errores son detectables, si bien podría pasar por alto la comprensión conceptual.
- Tareas no codificables/basadas en criterios propios: zona de peligro. Los disparates convincentes son indetectables. Por ejemplo, un analista júnior que utiliza la IA para evaluar la dinámica del mercado en un sector que desconoce no puede saber lo que falta o lo que está mal.
En la zona de peligro, la IA genera análisis que parecen fiables y tienen un tono poderosamente convincente que probablemente cautive a los usuarios novatos, quienes no son capaces o no sienten la necesidad de verificar. El resultado parece sofisticado, y el razonamiento, bien fundamentado; no obstante, detrás de una prosa fluida puede esconderse lo que Harry Frankfurter llama «sandeces», que estos usuarios de la IA nunca han analizado y no pueden detectar. Y no se trata de una hipérbole ni de una hipótesis. De hecho, el informe MAHA («Hagamos que Estados Unidos vuelva a ser saludable») de la Casa Blanca sobre cómo hacer que los niños recuperen la salud contenía citas ficticias. Esto es lo que genera expertos incompetentes.
Para leer: Crece la red Endeavor con la llegada de Finkargo, la fintech de comercio exterior
Algunas personas podrían argumentar que de lo que estamos hablando no es de incompetencia, sino de evolución cognitiva. Andy Clark, de la Universidad de Sussex, sugiere que la IA generativa no es más que el último capítulo de la larga historia de la humanidad de «cerebros extendidos»: desde la escritura hasta las calculadoras, pasando por los motores de búsqueda, siempre hemos potenciado nuestro pensamiento con herramientas. ¿Por qué debería ser diferente la IA?
La respuesta está en la zona de peligro. Cuando un GPS falla, sabes que estás perdido. Cuando una calculadora funciona mal, los errores suelen ser muy evidentes. Ahora bien, cuando ChatGPT elabora análisis que parecen verosímiles en ámbitos que no entiendes, el fallo pasa desapercibido. Clark admite que necesitamos nuevas «habilidades metacognitivas» para evaluar los resultados de la IA, pero eso es precisamente lo que les falta a los novatos en la zona de peligro. No se puede tener criterio respecto a lo que no se conoce.
Esto no tiene nada que ver con la preocupación de Platón cuando decía que la escritura corrompería la memoria. Se trata de profesionales que manejan herramientas que no son capaces de validar en ámbitos que no comprenden, y que producen resultados que parecen técnicos, pero carecen de la comprensión subyacente que define los verdaderos conocimientos.
Para ver: ¿Cómo emprender? Estas 10 recomendaciones de un experto le ayudarán en el proceso
Las investigaciones actuales sobre los beneficios de la IA pueden estar pasando por alto este riesgo oculto. Cuando Ethan Mollick y sus compañeros citan el trabajo de Boston Consulting Group y Procter & Gamble para demostrar las impresionantes mejoras de productividad conseguidas gracias a ChatGPT, se refieren a profesionales altamente cualificados que han obtenido sus conocimientos antes de que existiera la IA. Estos veteranos pueden evaluar eficazmente los resultados de la IA porque saben lo que esta tecnología ignora. O cuando Erik Brynjolfsson, de la Universidad de Stanford, muestra el aumento de la productividad de los operadores de los centros de llamadas, las tareas son en gran medida rutinarias y más objetivas que subjetivas. Ninguno de estos estudios trata la zona de peligro, que puede crear expertos incompetentes.
¿Qué ocurrirá cuando la próxima generación de trabajadores del conocimiento aprenda estrategia, análisis y resolución de problemas a través de la IA desde el principio? Producirán un trabajo igual de cuidado, pero carecerán del criterio fundamental para diferenciar las buenas ideas de los disparates que suenan convincentes. Rodney Brooks, antiguo director del Laboratorio de Informática e Inteligencia Artificial del Instituto Tecnológico de Massachusetts y fundador de iRobot, nos advierte de cómo nos dejamos seducir fácilmente por el lenguaje, ya que siempre hemos asociado las habilidades lingüísticas con la inteligencia. Los beneficios actuales de la productividad y la generación instantánea de palabras pueden hipotecar la competencia y los conocimientos técnicos del futuro.
El caso de los arenques ilustra lo que ocurre cuando se rompen las cadenas de aprendizaje. Los peces más viejos no solo conocían las rutas migratorias, sino que también entendían por qué eran idóneas, al arrastrar consigo una sabiduría acumulada durante décadas. Cuando el exceso de pesca los eliminó, suprimió la memoria del sistema. Los ámbitos profesionales funcionan de forma similar. Los profesionales veteranos no solo conocen las respuestas, sino que comprenden el razonamiento que las sustenta, el contexto histórico que dio forma a las prácticas actuales y los indicadores imperceptibles que señalan cuándo no van a funcionar los planteamientos habituales. Estos conocimientos radican en la experiencia y se transfieren a través de la mentoría, la observación y la resolución compartida de problemas.
Cuando las empresas eliminan procesos de aprendizaje «ineficaces», están desmantelando los sistemas que generan sabiduría.
La IA está pescando indiscriminadamente en nuestras aguas profesionales y drenando la experiencia de aquellos que inician su carrera y que antes desarrollaban criterio y competencias. Cuando las empresas eliminan procesos de aprendizaje «ineficaces», están desmantelando los sistemas que generan sabiduría. Los profesionales inexpertos se pierden la oportunidad de ver cómo afrontan la ambigüedad los expertos. Se saltan los fracasos productivos que generan el criterio.
La solución no es abandonar la IA, sino reconocer que lo que llamamos «ineficiencia» es normalmente la base de la competencia. Las dificultades son el aprendizaje. Con todo, en la práctica, ¿cómo las mantenemos? Es necesario adoptar decisiones deliberadas en tres niveles:
Nivel individual: Conservar las dificultades de desarrollo. El esfuerzo cognitivo necesario para generar competencia no es ineficiente, sino un aprendizaje fundamental. Los estudiantes de Derecho deben formular malos argumentos para reconocer los buenos. Los estudiantes de ADE tienen que resolver casos para detectar la información esencial antes de pedir la solución a ChatGPT.
Nivel organizativo: Conservar las escalas de aprendizaje. Las empresas deben renunciar al falso ahorro de eliminar los puestos júniores. TSMC ha ampliado su programa para principiantes a pesar de la automatización actual, porque saben que los empleados júniores de hoy serán los expertos del mañana, que sabrán cuándo se equivoca la IA.
Nivel sistémico: Crear transparencia y responsabilidad. Hacer visible la ayuda de la IA, no para avergonzar a nadie, sino para permitir un escrutinio adecuado. La Ley de Inteligencia Artificial de la UE sugiere el uso de marcas de agua, pero hay que ir más allá.
Buen análisis: Los indicadores históricos, la IA y las dudas sobre una posible burbuja financiera
Lo que está en juego no son solo las carreras profesionales individuales. Cuando cohortes enteras se saltan las experiencias que crean criterio, la mano de obra y, a su vez, la sociedad no solo pierden talento, sino memoria institucional.
El futuro de la economía del conocimiento depende del equilibrio del poder de la IA con el aprendizaje humano que aún no puede sustituir. Como el arenque noruego, seguiremos moviéndonos; pero, si no nos preocupamos de conservar los procesos de aprendizaje que generan la competencia real, podemos acabar nadando confiados en la dirección equivocada.
Artículo originalmente publicado en IE INSIGHTS el portal de conocimiento de IE UNIVERSITY. https://www.ie.edu/insights/articles/is-ai-creating-incompetent-experts/
Si conoce historias de emprendedores y sus emprendimientos, escríbanos al correo de Edwin Bohórquez Aya (ebohorquez@elespectador.com) o al de Tatiana Gómez Fuentes (tgomez@elespectador.com). 👨🏻💻 🤓📚