Alucinar, convencer y confiar: ¿Quién supervisa a la IA?
Written by Jose de Jesus Prieto on 12/08/2025
Por Diego Garagorry, COO de Nearsure, una compañía de Nortal
La inteligencia artificial se volvió una prioridad para las organizaciones que buscan
mantenerse competitivas en un entorno que exige cada vez más velocidad, precisión y
capacidad de adaptación. Todo promete eficiencia: la automatización, el análisis avanzado,
y los agentes. Sin embargo, a medida que su uso se generaliza, muchas empresas se
enfrentan a un riesgo tan invisible como peligroso: las "alucinaciones" de la IA. ¿Qué pasa
cuando una tecnología diseñada para ayudar empieza a generar errores que aceptamos
como verdades por venir de una IA? En un contexto donde confiar en la IA parece casi
inevitable, la pregunta ya no es qué puede hacer, sino quién la supervisa.
La inteligencia artificial aporta entre 2.6 y 4.4 billones de dólares a la economía global,
según McKinsey Global Institute y afectará a casi el 40% de los empleos en todo el mundo,
de acuerdo con el Fondo Monetario Internacional. Sin embargo, no todos están preparados
para este cambio. Un ejemplo de esto fue cuando Google presentó su modelo de IA Bard
(hoy Gemini) con una demo que afirmaba que el Telescopio Espacial James Webb había
tomado la primera imagen de un exoplaneta, cuando en realidad ese hito ocurrió en 2004
con otro instrumento. El fallo pasó desapercibido en la revisión interna, pero fue detectado
por astrónomos y usuarios en redes sociales. El resultado fue una pérdida de más de 100
mil millones de dólares en valor de mercado para Alphabet Inc en un solo día. Queda claro
que la supervisión humana a los trabajos realizados por inteligencia artificial es
fundamental, ya que en tareas importantes un error puede costar mucho dinero, tiempo y
reputación.
La alucinación ocurre cuando un sistema de inteligencia artificial genera respuestas que,
aunque parecen convincentes en su formulación, son incorrectas o directamente
inventadas. Es similar a cuando un modelo de lenguaje grande (LLM) como ChatGPT o
Gemini afirma con certeza algo que es falso. Estos errores parecen auténticos, lo que los
hace difíciles de detectar a primera vista.
Pensemos en un analista financiero que usa un modelo para resumir informes trimestrales y
recurrió a un LLM de nivel medio con una tasa de alucinación del 4.5%. Al usarse, el modelo
alucinó cifras críticas en una proyección financiera clave, y afirmó que el gasto de un
competidor era de $23 millones, cuando en realidad ascendía a $230 millones. Esto llevó a
una decisión errónea que costó a la compañía $2.3 millones en recursos mal asignados.
Este tipo de situaciones no se limita a un caso aislado. En una prueba, las tasas de
alucinaciones de los sistemas de IA más nuevos alcanzaron el 79%. Actualmente, el
modelo más confiable con una tasa de alucinaciones del 0,7% es Gemini-2.0-Flash-001 de
Google.
El origen de este problema está en cómo aprenden estas herramientas. A diferencia de una
calculadora que sigue reglas fijas, un modelo de lenguaje aprende por repetición y patrones.
No resuelve una suma porque entiende el cálculo, sino porque predice que, después de “2 +
2 =”, probablemente viene “4”. Esa predicción puede acertar la mayoría de las veces, pero
no existe una garantía total. Incluso los modelos más avanzados pueden fallar en
operaciones básicas o afirmaciones concretas. Para minimizar estos errores, hoy existen
estrategias como conectar los modelos de IA a herramientas externas que permiten obtener
resultados más confiables. Sin embargo, estas soluciones técnicas no eliminan por
completo el riesgo: entender cómo funcionan y cuándo aplicarlas sigue siendo una
responsabilidad humana.
Ante este panorama, muchas empresas destinan recursos considerables a corregir errores,
identificar alucinaciones y rediseñar procesos. Un informe de McKinsey subraya un aumento
en los esfuerzos de mitigación de riesgos, particularmente en el área de imprecisión. Incluso
ya se están desarrollando sistemas de inteligencia artificial capaces de supervisar el trabajo
de otras IAs, lo que abre un nuevo capítulo en esta evolución tecnológica: la automatización
del control. Sin embargo, el problema no se resuelve con más gasto, sino con una
estrategia clara, y por ende, con talentos adecuados que sepan buscar las falencias de los
modelos para corregirlas. La clave para navegar por este panorama es aprender a usar la
tecnología de manera inteligente y como un complemento, sobre todo cuando se trata de
pequeñas empresas que se encuentran más vulnerables y quizás cuentan con menos
presupuesto.
El 82% de las grandes empresas colombianas incrementará su presupuesto de IA en
los próximos dos años, de acuerdo con un estudio de Microsoft. No obstante, aunque
cada vez más organizaciones suman procesos de control no todas los enfocan
precisamente en gestión de la información. Según McKinsey, solo el 27% de los
encuestados cuyas organizaciones utilizan IA genérica afirman que los empleados
revisan todo el contenido creado por esta tecnología antes de su uso.
Una alternativa que muchas organizaciones están considerando es la de trabajar con
partners tecnológicos para el desarrollo e implementación de proyectos de IA. Contar con
aliados que comprendan cómo aplicar la tecnología y supervisar su uso posibilita la
automatización, sin caer en errores comunes. Su experiencia en implementación, validación
de modelos y supervisión humana contribuye a reducir riesgos y optimizar resultados. No
alcanza con usar tecnología avanzada; hace falta saber cuándo, cómo y con qué objetivos
aplicarla.
La IA no ofrece soluciones perfectas, sino que funciona como una herramienta poderosa,
pero solo cuando se usa con criterio. Las alucinaciones seguirán existiendo y el desafío está
en aprender a detectarlas y minimizar su impacto. El éxito o fracaso al usar IA no depende
únicamente de la tecnología, sino de cómo las empresas diseñan y aplican estrategias para
aprovecharla de manera efectiva, y logren asegurarse de que su implementación esté
alineada tanto con sus metas inmediatas como con sus planes a futuro.