Операция выполнена!
Закрыть
Хабы: Искусственный интеллект, Машинное обучение

Когда я общаюсь с разработчиками, работающими с современными LLM, часто слышу: "С GPT-4 происходит что-то странное. Это не просто автокомплит. Но и не человек. Что это?"

У многих есть интуитивное ощущение, что мы стоим на пороге чего-то большего, чем "статистические попугаи". Но в то же время что-то подсказывает: просто добавить еще параметров недостаточно.

Эта интуиция может оказаться верной. Но по причинам, которые глубже, чем кажется. Представьте: вы пытаетесь создать живую птицу, крутя ручку музыкальной шкатулки всё быстрее и быстрее. Проблема не в скорости вращения. Проблема в том, что вы пытаетесь получить одну категорию вещей из совершенно другой.

Сейчас я покажу вам четыре фундаментальных барьера, которые объясняют, почему ваши ощущения о современном ИИ могут быть правильными — и почему это открывает совершенно новые возможности.

Барьер первый: Рекурсивный парадокс (теорема Гёделя). В 1931 году математик Курт Гёдель доказал то, что должен знать каждый программист: любая система, достаточно сложная для работы с числами, неизбежно неполна. В ней всегда есть истинные утверждения, которые она не может доказать о себе.

Это не баг — это фича реальности.

Попробуйте написать программу, которая отвечает на вопрос: "Остановится ли эта программа?" Классическая проблема остановки. Если программа отвечает "да" — она остановилась, ответ верен. Если "нет" — тоже остановилась, ответ неверен. Если висит — не остановилась, подтверждая "нет".
Система не может полностью "отрефлексировать" саму себя без выхода на метауровень.

Читать далее
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro