qué es una alucinación en inteligencia artificial

Alucinación: Cuando la IA te miente en la cara (y con total confianza)

No, la máquina no tiene malas intenciones. Te explicamos por qué el chatbot más inteligente del mundo puede inventar leyes, datos históricos o citas bibliográficas sin ponerse colorado.

ILe pedís a ChatGPT: “Resumime la Ley de Urgente Consideración (LUC) de Uruguay”. Te devuelve un texto impecable, con artículos, incisos y fechas. Parece perfecto. El problema es que la mitad de los artículos que cita no existen. Acabás de ser víctima de una “alucinación”.

¿Qué Son las Alucinaciones en IA?

En el mundo de la IA, una alucinación es una respuesta factualmente incorrecta o sin sentido, pero generada con una estructura y un tono extremadamente convincentes. Es el equivalente digital del “chanta” que habla con tanta seguridad que terminás creyéndole, aunque esté inventando todo sobre la marcha.

Como ya te contamos en nuestra nota acerca de lo que es un LLM, este no es una enciclopedia, es un motor de predicción de palabras. Su objetivo es completar la oración de forma coherente, no necesariamente verdadera. Si le preguntás por un dato muy específico que no estaba claro en su entrenamiento (ej. una normativa municipal de Montevideo de 1994), la IA no te va a decir “No sé”. Va a mirar los patrones de cómo se escriben las leyes y va a inventar una que suene plausible para llenar el vacío.

El Riesgo de las Alucinaciones

Para escribir un poema, una alucinación puede ser creativa. Para redactar un contrato o responderle a un cliente, es un desastre. Hubo casos reales de abogados que presentaron fallos judiciales inventados por ChatGPT ante un juez y terminaron sancionados. En Uruguay, una empresa podría darle mal un dato de DGI a un cliente y meterse en un problema legal.

En 2026, la industria está obsesionada con frenar esto. La “vacuna” más común se llama RAG (Retrieval-Augmented Generation). Básicamente, antes de responder, se obliga a la IA a “leer” primero documentos confiables que vos le des (tu manual de empresa, la ley real) y a limitar su respuesta solo a esa información. Es como decirle: “No inventes, respondé solo con el libro abierto que te di”.

La Regla de Oro

“Confiar, pero verificar”. Usá la IA para redactar, resumir y estructurar, pero nunca asumas que un dato fáctico (fechas, nombres, números) es correcto sin chequearlo vos mismo.

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *