Обновленная модель Gemini 2.0 работает на уникальном оборудовании, в частности процессорах TPU шестого поколения, предлагает новые возможности и улучшенную интеграцию с инструментами, такими как Google Search. Модель уже доступна для разработчиков и пользователей, а ее тестовая версия Flash обеспечивает еще большую скорость и производительность, что открывает новые возможности для автоматизации задач
Об этом говорится в сообщении пресс-службы.
Генеральный директор Google и материнской компании Alphabet Сундар Пичаи в своем заявлении отметил, что Gemini 2.0 позволит создавать новых «AI-агентов», которые приблизят нас к реализации видения универсального ассистента. Он также рассказал, что модель включает новые достижения в сфере мультимодальности — например, нативный вывод изображений и аудио.
«Если Gemini 1.0 был сосредоточен на организации и понимании информации, то Gemini 2.0 делает ее гораздо более полезной, — сказал Пичаи. — Я с нетерпением жду, что принесет эта новая эра».
По его словам, модель построена на кастомном оборудовании, таком как шестое поколение тензорных процессоров (TPU) от Google, которые обеспечивали весь процесс обучения и выполнения задач Gemini 2.0.
Экспериментальная версия Flash
Вместе с основной моделью компания представила Gemini 2.0 Flash — экспериментальную версию с повышенной скоростью и производительностью. Она уже доступна для разработчиков через API Google AI и пользователей чат-бота Gemini.
В этой версии поддерживаются обработка мультимодальных данных, что позволяет модели объединять и обрабатывать информацию из разных форматов, таких как текст, изображения и аудио. Например, пользователь может загрузить текст с сопроводительным изображением или аудиофайлом, и модель сможет объединить эти данные для анализа, создания ответов или генерации контента.
Интересное по теме: Google DeepMind создала самый точный ИИ для прогноза погоды
Новые функции для разработчиков
Google также выпустил Multimodal Live API, благодаря которому можно создавать приложения, которые работают с данными из разных источников в режиме реального времени, обеспечивая высокую точность и эффективность. Например, разработчики могут сочетать текстовый анализ, голосовое управление и обработку видео в одном продукте, открывая новые сценарии использования для бизнеса и конечных пользователей.
Прототипы на основе Gemini 2.0
Google продемонстрировал прототипы, которые показывают возможности Gemini 2.0:
- Astra — AI-ассистент с поддержкой нескольких языков, новыми инструментами и сниженной задержкой;
- Mariner — расширение для браузера, которое анализирует информацию на экране и выполняет задачи;
- Jules — агент для программирования, который помогает разработчикам автоматизировать процессы на GitHub.
Gemini 2.0 уже тестируется в поисковой системе Google в функции AI Overviews, которая помогает отвечать на сложные вопросы и задачи. Эта функция охватывает более миллиарда пользователей и станет доступной более широкой аудитории в начале следующего года.
«Gemini 2.0 — это не просто усовершенствование предыдущей модели, а инструмент, который делает информацию еще более полезной для всех нас», — подытожил Пичаи.
Ознакомьтесь с другими популярными материалами:
Что украинцы искали в Google в 2024 году — рейтинг запросов
Google Play окончательно отключит монетизацию для россиян
Google изменит правила поиска для некоторых пользователей