Операция выполнена!
Закрыть
Хабы: Искусственный интеллект

Последние недели вокруг Claude развернулась жаркая дискуссия на Reddit. Жалобы там очень разные: от медлительности и ухудшения качества кода до потери связности, полуответов и странных отказов на вполне обычных задачах. Формально сервис при этом работает: ответы приходят, подписка активна, интерфейс не лежит.

Ощущение знакомо мне лично - похожее впечатление стало складываться у меня в последние месяц-два во время работы даже с подпиской Max. Конечно, несколько сессий нельзя считать доказательством фактического регресса, однако складывается впечатление, что модель теперь быстрее сдаётся, хуже удерживает контекст и всё чаще выдаёт неполноценные решения.

Разумеется, у таких обсуждений быстро появляются стандартные возражения. Одни считают, что ухудшение качества лишь кажется, другие замечают, что сами запросы за это время стали сложнее. И это важная оговорка: даже массовая волна жалоб ещё не означает, что все они описывают одну и ту же техническую проблему. Обычно там перемешаны и реальные сигналы, и частные обстоятельства, и общий фон раздражения.

Но меня в этой истории интересует уже не столько вопрос «деградировал ли Claude на самом деле», сколько другой: есть ли какие-либо гарантии защиты пользователей, когда коммерческая AI-модель формально продолжает работать, но качество результата меняется не в лучшую сторону? Ведь некоторые компании уже используют подобные AI-модели в рабочих процессах, критичных для бизнеса.

Предварительный вывод у меня такой: такая защита существует, но она довольно ограниченная. Она фрагментарна, охватывает отдельные аспекты проблемы и зачастую требует значительных усилий самого клиента: введения собственных процедур контроля, доработки инфраструктуры либо активного взаимодействия с поставщиком услуги.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro