7 июля OpenAI объявила о доступности своей последней модели генерации текста — GPT-4 — через свой API.

С 7 июля все существующие разработчики OpenAI API «с историей успешных платежей» могут получить доступ к GPT-4. Компания планирует открыть доступ для новых разработчиков к концу этого месяца, а затем начать повышать лимиты доступности «в зависимости от доступности вычислительных мощностей».

«Миллионы разработчиков запросили доступ к API GPT-4 с марта, и спектр инновационных продуктов, использующих GPT-4, растет с каждым днем», — пишет OpenAI в своем блоге. «Мы представляем себе будущее, в котором модели на основе чата смогут поддерживать любые сценарии использования».

GPT-4 может генерировать текст (включая код) и принимать изображения и текст, что является улучшением по сравнению с GPT-3.5, его предшественником, который принимал только текст, и демонстрирует результаты на «человеческом уровне» в различных профессиональных и академических тестах. Как и предыдущие модели GPT от OpenAI, GPT-4 обучался на общедоступных данных, в том числе с публичных веб-страниц, а также на данных, лицензированных OpenAI.

Возможность понимания изображений пока доступна не всем клиентам OpenAI. Для начала OpenAI тестирует ее с одним партнером, Be My Eyes. Но пока не сообщается, когда она откроет ее для более широкой клиентской базы.

Стоит отметить, что, как и с лучшими моделями генеративного ИИ сегодня, GPT-4 не идеальный. Он искажает факты и делает ошибки в рассуждениях. И он не учится на своем опыте, терпя неудачу в решении сложных задач, таких как внесение уязвимостей безопасности в генерируемый им код.

В будущем OpenAI говорит, что позволит разработчикам настраивать GPT-4 и GPT-3.5 Turbo, одну из своих других недавних, но менее способных моделей генерации текста (и одну из первоначальных моделей, обеспечивающих функционал ChatGPT), с помощью собственных данных, как это уже давно возможно с несколькими другими моделями генерации текста OpenAI. Эта возможность должна появиться позже в этом году, согласно OpenAI.

С момента релиза GPT-4 в марте конкуренция в области генеративного ИИ стала еще более жесткой. Недавно Anthropic увеличил окно контекста для Claude — своей флагманской модели генерации текста ИИ, которая пока находится на стадии предварительного просмотра — с 9 000 токенов до 100 000 токенов. (Контекстное окно относится к тексту, который модель рассматривает перед генерацией дополнительного текста, а лексика представляет собой необработанный текст — например, слово «фантастика» будет разделено на лексику «фан», «тас» и «тик»).

GPT-4 удерживал предыдущий рекорд по размеру окна контекста, составляя 32 000 токенов на высоком уровне. В целом, модели с маленькими окнами контекста склонны «забывать» содержание даже очень недавних разговоров, что заставляет их отклоняться от темы.

Также OpenAI сообщила, что делает общедоступными API DALL-E 2 и Whisper — DALL-E 2 является моделью OpenAI, генерирующей изображения, а «Whisper» относится к модели преобразования речи в текст. Компания также заявила, что планирует отказаться от старых моделей, доступных через API, чтобы «оптимизировать [свои] вычислительные мощности». (В последние несколько месяцев, во многом благодаря взрывной популярности ChatGPT, OpenAI с трудом справлялась со спросом на свои генеративные модели).

Начиная с 4 января 2024 года, некоторые старые модели OpenAI — в частности, GPT-3 и ее производные — перестанут быть доступными и будут заменены новыми «базовыми GPT-3» моделями, которые, как можно предположить, являются более эффективными в плане вычислений. Разработчики, использующие старые модели, должны будут вручную обновить свои интеграции до 4 января, а те, кто хочет продолжать использовать старые модели с точной настройкой после 4 января, должны будут доработать замены на основе новых базовых моделей GPT-3.

«Мы окажем поддержку пользователям, которые ранее настраивали модели, чтобы сделать этот переход максимально гладким», — написала OpenAI. «В ближайшие недели мы свяжемся с разработчиками, которые недавно использовали эти старые модели, и предоставим дополнительную информацию, когда новые модели будут готовы к ранним тестированиям.»

Пишу про новости и дайджест событий

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *