LLM·HAL: инструментальный анализ и снижение галлюцинаций в языковых моделях

Автор: Мырзаш Ильяс Манасулы

Организация: КАРТУ

Населенный пункт: Республика Казахстан, г. Караганда

В статье исследуется феномен галлюцинаций больших языковых моделей (LLM) — генерации фактически недостоверной информации, представленной с высокой степенью уверенности. Проведена систематизация типов галлюцинаций: intrinsic (внутренние противоречия с контекстом) и extrinsic (генерация ложных сведений, отсутствующих во входных данных). Рассмотрено влияние масштабирования параметров на точность по бенчмарку TruthfulQA, а также эффективность методов снижения галлюцинаций: RLHF, RAG, Self-CheckGPT, IDK-policy. В рамках исследования разработан интерактивный аналитический инструмент LLM·HAL на Python/Tkinter, реализующий визуализацию данных по пяти тематическим вкладкам. Результаты показывают, что комбинированное применение методов снижает долю ошибок с 32% до 4%.


Приложения:
Для доступа к приложениям, Войдите в систему или зарегистрируйтесь

Опубликовано: 21.04.2026
Мы сохраняем «куки» по правилам, чтобы персонализировать сайт. Вы можете запретить это в настройках браузера