‹ Volver al glosario
Alucinación
beginner
Cuando una IA genera información que parece verosímil, pero que, en realidad, es incorrecta. Los modelos de lenguaje grande (LLM) no «conocen» los hechos, sino que predicen secuencias de palabras probables. Esto puede dar lugar a respuestas que parecen seguras, pero que son totalmente erróneas. Comprueba siempre los datos generados por la IA con fuentes fiables.