En el campo de la inteligencia artificial, hablamos de alucinaciones para referirnos a respuestas incorrectas, falsas o incoherentes aportadas por un modelo de IA a una consulta.

Se deben a que un LLM utiliza un modelo predictivo de procesamiento de información y está entrenado para aportar respuestas probabilísticas; en ocasiones, el modelo puede percibir patrones que en realidad no existen o también puede ocurrir que no se haya entrenado con suficiente información relevante del campo relacionado con la consulta que se le ha ingresado.

Sinónimos:
alucinación de la inteligencia artificial
Categorías: tecnología