Операция выполнена!
Закрыть
Хабы: Блог компании Positive Technologies, Информационная безопасность, Искусственный интеллект, Исследования и прогнозы в IT, Законодательство в IT

Привет, Хабр! Я Андрей Яковлев, исследователь в области информационной безопасности. Работаю с корпоративными AI‑сервисами и активно внедряю технологии искусственного интеллекта в продукты Positive Technologies.

2025 год перевернул привычные ожидания и практики, связанные с конфиденциальностью больших языковых моделей (LLM) Представьте ситуацию: вы технологическая компания, которая несколько лет использует ChatGPT для быстрого прототипирования и поддержки клиентских запросов. Раньше казалось, что раз диалог удалён — значит, данные исчезают навсегда. Но в мае 2025 года федеральный суд США в рамках искового дела The New York Times к OpenAI поставил точку в этом заблуждении — OpenAI обязали бессрочно хранить все пользовательские данные (включая удалённые через пользовательский интерфейс).

В этой статье я разберу различные LLM-ки и расскажу, как их разработчики решают проблему конфиденциальности. Предупреждаю – достанется всем :)

Исследование охватывает западных вендоров (OpenAI, Anthropic, Google AI, GitHub Copilot), российские решения (GigaChat, YandexGPT), китайскую платформу DeepSeek, а также ключевых провайдеров-агрегаторов (OpenRouter, Cursor, Windsurf). Анализ включает детальное сравнение политик для частного и корпоративного использования, документированные случаи утечек данных и их последствия, а также практические рекомендации по выбору решений в зависимости от требований к безопасности данных.

Читать далее
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro