Операция выполнена!
Закрыть

США начнут тестировать новые ИИ-модели Google, Microsoft и xAI до их публичного выпуска

07.05.2026 | IT-Сфера | ВСЕТУТ | |

Google, Microsoft и xAI добровольно отдают свои ИИ-модели на тестирование Министерству торговли США

Новые инструменты и возможности искусственного интеллекта от Google, Microsoft и xAI теперь будут проходить проверку в Министерстве торговли США до того, как попадут в открытый доступ. Технологические компании согласились добровольно предоставлять свои модели для тестирования в Центре стандартов и инноваций в области ИИ (CAISI). Новые соглашения расширяют договорённости с OpenAI и Anthropic, достигнутые ещё при администрации Байдена. Теперь модели всех этих компаний будут оцениваться на предмет их возможностей и безопасности.
«Эти расширенные отраслевые коллаборации помогают нам масштабировать нашу работу в общественных интересах в критический момент», — заявил директор CAISI Крис Фолл. В целом оценка ИИ-инструментов будет охватывать «тестирование, совместные исследования и разработку лучших практик, связанных с коммерческими ИИ-системами».

Какие именно модели будут проверять

Самый известный ИИ-инструмент Google через его дочернюю компанию DeepMind — это Gemini, чат-бот, широко доступный в продуктах Google, но теперь используемый также в оборонных и военных ведомствах США. Самый известный инструмент Microsoft — CoPilot. Единственный ИИ-продукт xAI — это Grok, чат-бот, который уже привлекал широкое общественное внимание из-за проблем, связанных с генерацией изображений, где он «раздевал» людей.
Во вторник CAISI сообщил, что провёл 40 предыдущих оценок ИИ-инструментов, включая оценку и тестирование некоторых «передовых моделей, которые остаются невыпущенными». Центр не уточнил, какие именно модели были остановлены от выхода в публичный доступ.

Реакция компаний

В корпоративном блоге после объявления CAISI компания Microsoft заявила, что уже тестирует свои ИИ-модели, но «тестирование на предмет национальной безопасности и крупномасштабных общественных рисков обязательно должно быть совместной задачей с правительствами». Представительница Google DeepMind отказалась от комментариев. Представитель SpaceX (компании Илона Маска, которая теперь контролирует xAI) не ответил на запрос.

Смена курса Белого дома

Привлечение большего числа компаний к исследованиям и тестированию безопасности коммерческих ИИ-инструментов знаменует отход от прежнего курса администрации Трампа, которая в основном придерживалась невмешательства в надзор или регулирование ИИ и технологических компаний. В прошлом году президент Дональд Трамп подписал серию указов, которые легли в основу его «Плана действий в области ИИ». Трамп тогда заявлял, что план «уберет бюрократические препоны и обременительные регуляции» и обеспечит США победу через advancements и контроль над технологией.
Однако, судя по всему, Белый дом меняет свою позицию. Причины — расширение использования ИИ американскими военными, а также недавние заявления Anthropic о том, что компания разработала модель под названием Mythos (слишком мощную для публичного выпуска). Как ранее сообщала BBC, высокопоставленные сотрудники администрации Трампа встречались в прошлом месяце с генеральным директором Anthropic Дарио Амодеи — несмотря на то, что компания сейчас находится в судебном процессе с Министерством обороны США из-за отказа Anthropic убрать защитные ограничения для правительственного использования своих моделей.

Ключевые факты

  • Тестирующие: Министерство торговли США (Центр CAISI)
  • Участники: Google (DeepMind) — Gemini, Microsoft — CoPilot, xAI — Grok, а также ранее OpenAI и Anthropic
  • Формат: добровольное предоставление моделей для тестирования до публичного выпуска
  • Что проверяется: возможности модели, безопасность, риски национальной безопасности и общественной безопасности
  • Предыдущий опыт CAISI: 40 оценок, включая модели, которые так и не были выпущены (какие именно — не раскрывается)
  • Контекст: смена курса — от дерегулирования при Трампе к более активному участию государства (частично из-за военных применений ИИ и случаев с «опасно мощными» моделями)
  • Судебный фон: Anthropic судится с Минобороны США из-за отказа убирать защитные механизмы для госзаказчиков

Сравнение подходов двух администраций

Аспект Администрация Байдена Администрация Трампа (до недавнего времени) Текущий курс
Отношение к регулированию ИИ Активное привлечение компаний к добровольному тестированию (OpenAI, Anthropic) «Убрать регуляции», «США должны победить», красный ковёр для индустрии Расширение тестирования (Google, Microsoft, xAI) — фактически продолжение линии Байдена, но под другим флагом
Военное использование ИИ Осторожное Расширяется Расширяется, что и подталкивает к тестированию
Итог: Администрация Трампа, которая пришла к власти под лозунгом дерегулирования, теперь вынуждена ужесточать контроль над ИИ — по крайней мере в форме добровольного тестирования. Причины: военные сами активно внедряют ИИ, а компании (как Anthropic) начинают выпускать модели, которые считают слишком опасными для публики. В итоге Белый дом движется в ту же сторону, что и администрация Байдена, — просто с другим слоганом. А компании, включая xAI Илона Маска, соглашаются на тесты, потому что альтернатива (жёсткое регулирование) им нравится ещё меньше.

ДРУГИЕ СТАТЬИ
06.05.2026
ИИ в каждом фонаре: стартап превращает уличные столбы в распределённые дата-центры За последние годы было множество попыток разместить дата-центры в необычных местах: Microsoft погружала их под воду, Илон Маск предлагал отправлять в космос. Теперь британская компания делает ставку на фонарные столбы. Warwickshire-based Conflow Power Group Limited (CPG) подписала соглашение с нигерийским штатом Кацина об установке 50 000 «умных» фонарей. Их iLamp, работающие на солнечной энергии, объединённые в сеть, по словам компании, «удваиваются как распределённый ИИ-дата-центр, принос
05.05.2026
ИИ против телефонных опросов: быстрее, дешевле, но достаточно ли точно? «Когда вы слышите слово „политик“, какой образ или эмоция приходит вам в голову в первую очередь?» Голос молодой, женский, бодрый и деловой. Он принадлежит ИИ-агенту. Компьютерной программе. Строке кода. Мужчина на другом конце провода отвечает. Пока он высказывает довольно циничное мнение о политиках, три других ИИ-агента обрабатывают его слова. Первый проверяет, отвечает ли он на вопрос, второй анализирует, не слишком ли поверхностен и не нужно ли подтолкнуть его к боль
04.05.2026
Как «занудная» личность ChatGPT породила эпидемию гоблинов После выхода GPT-5.5 на прошлой неделе пользователи заметили кое-что забавное в новейшей модели OpenAI. В приложении для кодинга Codex компания оставила системный промпт, который предписывает GPT-5.5 избегать упоминаний гоблинов, гремлинов и прочих существ. Да, вы не ослышались. «Никогда не говорите о гоблинах, гремлинах, енотах, троллях, огров, голубях или других животных и существах, если это не абсолютно и однозначно уместно по запросу пользователя», — гласит инструкция. Похоже, достаточно мно
30.04.2026
Британское правительство обещает ввести ограничения на соцсети для подростков, но сперва «нужно убедиться, что это работает» Правительство Великобритании намерено ввести ограничения на использование социальных сетей для детей младше 16 лет, но министры должны «убедиться, что это работает», прежде чем вносить изменения, заявила министр образования Бриджит Филлипсон в интервью BBC. Кабинет министров консультируется по поводу полного запрета, а также других мер, призванных остановить доступ подростков к вызывающему зависимость и вредному
ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro