В новом исследовании, опубликованном в журнале Nature, ученые из Университета Оксфорда представили метод, способный обнаруживать «галлюцинации» в работе больших языковых моделей искусственного интеллекта (ИИ). Этот прорыв может значительно повысить надежность ответов ИИ в областях, где ошибки могут иметь серьезные последствия, таких как юридическое и медицинское консультирование.