В конце марта в сети появилось открытое письмо, призывающее приостановить работу над современными искусственными интеллектами на шесть месяцев. Разработчики OpenAI дали свой официальный комментарий по этому поводу — и объяснили, почему будут продолжать работать над развитием нейросетей в прежнем темпе.

Ответ на письмо OpenAI опубликовала на своём официальном сайте. Компания поспешила успокоить всех противников развития ИИ, рассказав о мерах, которые принимаются для того, чтобы тот оставался безопасным. Разработчики отметили, что понимают риски бесконтрольного развития искусственного интеллекта и делают всё, чтобы он приносил только пользу.

Например, модель GPT-4 была готова ещё полгода назад, но всё это время в компании тестировали ИИ, выявляя его слабые стороны, которые можно использовать со злым умыслом, а также привлекали сторонних экспертов для оценки результата своей работы. Представители OpenAI также отметили, что контактируют с правительствами для определения наилучшей формы регулирования ИИ.

«Невозможно заочно предсказать все положительные и отрицательные способы использования какой-либо технологии, поэтому важно извлекать уроки из её реального применения», — заявили в компании.

По мнению OpenAI, остановка процесса развития нейросети приведёт к снижению уровня безопасности ИИ. Например, модель GPT-4 на 82% меньше склонна генерировать недопустимый контент по сравнению с GPT-3.5 именно благодаря пользовательскому тестированию.

Заодно разработчики затронули тему конфиденциальности и рассказали, что они не используют полученную от пользователей информацию в корыстных целях: не собирают личные данные, не продают их и не создают скрытые личные профили пользователей. Все сведения используются в обезличенном виде и только для обучения ИИ.

«OpenAI будет проявлять всё большую осторожность в создании и развёртывании более продвинутых моделей, и будет продолжать улучшать меры безопасности по мере развития своих систем искусственного интеллекта», — резюмировали разработчики.

Наконец, в OpenAI ответили на критику ложной информации, которую может выдавать ChatGPT. По их словам, главный источник точных сведений — пользователи. Они отмечают выдачу как недостоверную, и позволяют разработчикам вносить коррективы. В результате модель GPT-4 стала на 40% более «правдива», чем её предшественница. Фиксация же искусственного интеллекта в любом из состояний с запретом на развитие означает повышение риска распространения дезинформации.

Пишу про новости и дайджест событий

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *