Операция выполнена!
Закрыть
Хабы: Искусственный интеллект, Будущее здесь

В последние несколько дней вокруг китайского ИИ-стартапа DeepSeek разгорелись споры о том, что он якобы использует проприетарные модели OpenAI.

Вопрос возник после того, как DeepSeek выпустила две модели, DeepSeek-V3 и DeepSeek-R1, производительность которых сопоставима с аналогами OpenAI при значительно меньших затратах.

OpenAI обвинила DeepSeek в неправомерном использовании своих данных для обучения конкурирующей ИИ-модели. Это обвинение вызвало острую дискуссию о правах интеллектуальной собственности в области ИИ и этике дистилляции моделей.

Дистилляция моделей, также известная как дистилляция знаний, - это техника машинного обучения, используемая для передачи знаний от большой, сложной модели («учителя») к меньшей, более эффективной модели («ученику»).

По сути, дистиллированная модель - это меньшая модель, которая работает так же, как и большая, но требует меньше вычислительных ресурсов.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro