Операция выполнена!
Закрыть
Хабы: Искусственный интеллект

Громкий заголовок, но у меня есть пруфы. Все началось с персонального наблюдения. Я ML research engineer и, как многие из вас, активно использую AI не только для кодинга, но и для широкого спектра других задач: ищу релевантные статьи, анализирую open source-репозитории, составляю планы и так далее. Для разработки я выбираю Claude Code, а для анализа и сравнения статей часто прибегаю к GPT-5.4 Pro — спасибо оплаченной корпоративной подписке. С чатом я общаюсь на русском: так банально быстрее и точнее формулировки. Иногда проскальзывают «я-высказывания», например: «я уже попробовала такой и вот такой подход, их не надо включать в анализ». Поначалу я не видела в этом проблемы, но постепенно стала замечать, что в таких чатах ответы модели становятся как будто менее точными и детальными. Может, мне просто показалось? Но ощущение не исчезало, и в конце концов я решила провести небольшой ресерч.

Весь код выложен на GitHub, буду рада, если кто-то воспользуется им и продолжит исследование. Весь код тут, разбит на несколько Jupyter Notebook-ов.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro