Защо изкуственият интелект понякога си измисля факти?
Изкуственият интелект „халюцинира", защото работи като система за предвиждане на следващата дума на базата на статистически вероятности.
Искуственият интелект не разбира фактите — просто предвижда коя дума статистически следва предходната. Тъй като разчита изцяло на вероятности, той може уверено да генерира невярна информация. Тези „халюцинации" звучат логично и убедително, но често съдържат измислени събития, несъществуващи хора или фалшиви дати. Затова винаги е важно да проверите информацията от ИИ — той е експерт по езика, но не и по истината.
Nerd Mode
Големите езикови модели (LLM) като GPT-4 на OpenAI използват архитектура, наречена Transformer, която е представена за първи път от изследователи на Google през 2017 г. Тези системи се обучават върху огромни масиви от текстови данни, за да научат да изчисляват вероятността за поява на следващия „токен" или част от дума. Тъй като процесът е чисто статистически, моделът няма вътрешен механизъм за проверка на фактическата верност на генерираното съдържание.Терминът „халюцинация" в контекста на ИИ започва да се използва масово след 2022 г. Проучване на Cornell University установява, че тези грешки често възникват, когато моделът се опитва да попълни празнини в своите тренировъчни данни. Вместо да признае липса на информация, алгоритъмът избира най-вероятната езикова структура, което води до създаването на фалшиви цитати, несъществуващи исторически факти и вымислени детайли.Според данни от технологични одити процентът на халюцинациите варира между 3% и 10% в зависимост от сложността на задачата. Инженерите се опитват да намалят този феномен чрез методи като RLHF (обучение чрез обратна връзка от хора) и RAG (генериране чрез извличане на информация). Въпреки това, поради фундаменталния начин, по който работят невронните мрежи, пълното елиминиране на халюцинациите остава едно от най-големите предизвикателства в индустрията.
Проверен факт
FP-0005450 · Feb 20, 2026