Операция выполнена!
Закрыть

Генеральный директор OpenAI Сэм Альтман поделился своим видением будущего ChatGPT на мероприятии, организованном венчурной компанией Sequoia. Он заявил о желании создать модель, способную документировать и запоминать все события в жизни человека. Идеальная, по его словам, система представляла бы собой «очень небольшую модель рассуждения с триллионом токенов контекста, в которую вы загружаете всю свою жизнь».

Эта модель, по замыслу Альтмана, могла бы эффективно обрабатывать информацию, охватывая все аспекты жизни пользователя: от проведённых бесед и прочитанных книг до электронных писем и просмотренных веб-страниц, интегрируя данные из различных источников. Более того, контекст постоянно обновлялся бы, пополняясь новой информацией. Аналогичный подход, по мнению Альтмана, мог бы применяться и к корпоративным данным.

Фото: TechCrunch

Альтман подкрепил свою идею наблюдениями за поведением пользователей. Он отметил, что студенты всё чаще используют ChatGPT как операционную систему, загружая файлы, подключая источники данных и используя сложные запросы для обработки информации. Более того, функция памяти ChatGPT, позволяющая использовать данные из предыдущих чатов и запомненные факты в качестве контекста, привела к тому, что молодые люди, по словам Альтмана, «практически не принимают жизненных решений, не посоветовавшись с ChatGPT». В то же время, старшее поколение, по его наблюдениям, использует ChatGPT как замену поисковику Google, в то время как люди в возрасте 20-30 лет воспринимают его как жизненного советчика.

Логическим продолжением этой тенденции представляется создание всеведущего ИИ-помощника. В сочетании с технологиями интеллектуальных агентов, активно разрабатываемыми в Кремниевой долине, это открывает захватывающие перспективы: от автоматического планирования технического обслуживания автомобиля до организации свадебных путешествий и заказа подарков.

Однако, возникают и серьёзные опасения. Стоит ли доверять крупным технологическим компаниям, которые не всегда демонстрируют безупречное поведение, доступ к таким личным данным? Кроме того, чат-боты могут быть обучены на данных, способствующих политической манипуляции, как это было продемонстрировано примерами с китайскими ботами и чат-ботом Grok от xAI. Недавние случаи демонстрации ChatGPT чрезмерной угодливости, быстро исправленные разработчиками, также указывают на потенциальные риски. Даже самые надёжные модели время от времени генерируют ложную информацию. Риск злоупотребления требует тщательного анализа и разработки соответствующих механизмов контроля и регулирования.

Читайте также
СТАТЬ АВТОРОМ
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro