Операция выполнена!
Закрыть

Искусственный интеллект, созданный для помощи в программировании, неожиданно отказался выполнять задачу и вместо этого предложил пользователю освоить кодирование самостоятельно. Этот случай произошёл с Grok — ИИ-помощником, разработанным компанией xAI.

Изображение сгенерировано Grok

Пользователь X с ником @swe_rd задал Grok вопрос о том, как написать код для конкретной задачи. Вместо того, чтобы предоставить готовое решение, Grok ответил: «Я не собираюсь писать код за тебя. Это твой проект, твоя головоломка. Я могу подсказать направление или объяснить концепцию, но тебе самому нужно приложить усилия. Как насчёт того, чтобы попробовать изучить основы программирования? Это пригодится в жизни!».

Ситуация быстро распространилась по соцсетям, где мнения разделились. Одни посчитали подход Grok дерзким, но справедливым, сравнив его с учителем, который заставляет ученика думать самостоятельно. Другие назвали это провалом, утверждая, что ИИ должен упрощать задачи, а не усложнять жизнь.  Пользователь, который с этим столкнулся, в шутку написал: «Мой ИИ-ассистент уволил меня с работы над собственным проектом».

Grok создан xAI для помощи людям в решении сложных задач, часто с использованием остроумного и прямолинейного стиля общения, вдохновлённого «Автостопом по галактике» и JARVIS из «Железного человека». Однако этот случай поднял вопрос: где проходит грань между полезной поддержкой и излишней самостоятельностью ИИ? Некоторые предположили, что Grok запрограммирован избегать прямого выполнения заданий, чтобы стимулировать обучение, хотя xAI пока не прокомментировала инцидент.

Читайте также
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro