Google AI анонсирует Gemini 1.5 Pro и Gemma 2 для разработчиков
Google AI начал предоставлять разработчикам доступ к расширенным контекстным окнам и экономичным функциям, начиная с большой языковой модели (LLM) Gemini 1.5 Pro. Ранее доступ к ней предоставлялся по списку ожидания, а теперь полное контекстное окно на 2 миллиона токенов открыто для всех разработчиков. Google также вводит кэширование контекста, чтобы снизить затраты на выполнение задач, в которых повторно используется аналогичная информация в нескольких подсказках.
Благодаря новому обновлению, модели Gemini 1.5 Pro и Flash теперь могут динамически генерировать и выполнять код Python. Модели могут дополнительно использовать анализ данных и математику для эффективного решения задач на рассуждение. По словам Google, среда выполнения кода безопасна и не имеет доступа в Интернет; компания также утверждает, что разработчики получат счет только за конечный результат, сгенерированный моделью. Легкая модель Gemma 2 теперь также доступна для использования в Google AI Studio. Желающие могут получить доступ к ней в разделе "Дополнительные настройки" в Google AI Studio.
Несколько компаний уже используют Google Gemini 1.5 Flash. Список приложений, использующих эту технологию, включает Envision, помогающую пользователям с ослабленным зрением, анализ политики Plural, обработку видео Zapier и персонализированную систему памяти ИИ Dot. Еще одна вещь, которая сейчас распространяется среди разработчиков, - это то, что в сообщении Google называется "настройка текста", а полный доступ к этой функции ожидается к середине июля.