Операция выполнена!
Закрыть

Искусственный интеллект, созданный для помощи в программировании, неожиданно отказался выполнять задачу и вместо этого предложил пользователю освоить кодирование самостоятельно. Этот случай произошёл с Grok — ИИ-помощником, разработанным компанией xAI.

Изображение сгенерировано Grok

Пользователь X с ником @swe_rd задал Grok вопрос о том, как написать код для конкретной задачи. Вместо того, чтобы предоставить готовое решение, Grok ответил: «Я не собираюсь писать код за тебя. Это твой проект, твоя головоломка. Я могу подсказать направление или объяснить концепцию, но тебе самому нужно приложить усилия. Как насчёт того, чтобы попробовать изучить основы программирования? Это пригодится в жизни!».

Ситуация быстро распространилась по соцсетям, где мнения разделились. Одни посчитали подход Grok дерзким, но справедливым, сравнив его с учителем, который заставляет ученика думать самостоятельно. Другие назвали это провалом, утверждая, что ИИ должен упрощать задачи, а не усложнять жизнь.  Пользователь, который с этим столкнулся, в шутку написал: «Мой ИИ-ассистент уволил меня с работы над собственным проектом».

Grok создан xAI для помощи людям в решении сложных задач, часто с использованием остроумного и прямолинейного стиля общения, вдохновлённого «Автостопом по галактике» и JARVIS из «Железного человека». Однако этот случай поднял вопрос: где проходит грань между полезной поддержкой и излишней самостоятельностью ИИ? Некоторые предположили, что Grok запрограммирован избегать прямого выполнения заданий, чтобы стимулировать обучение, хотя xAI пока не прокомментировала инцидент.

Читайте также
СТАТЬ АВТОРОМ
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro