Midjourney тестирует новую версию v4 собственного генератора изображений с искусственным интеллектом. Эта нейросеть способна заменить художников
Несколько дней назад сервис изображений с искусственным интеллектом Midjourney начал альфа-тестирование четвертой версии своей модели синтеза текста в изображения, которая доступна для подписчиков на своем сервере Discord (цена колеблется от $10 до $50 в месяц). Новая модель обеспечивает большую детализацию. По словам некоторых цифровых художников, v4 делает слишком простым получение высококачественных результатов из простых подсказок.
«V4 — это совершенно новая кодовая база и совершенно новая архитектура ИИ, — написал основатель Midjourney Дэвид Хольц в объявлении на Discord, — Это наша первая модель, обученная на новом суперкластере ИИ Midjourney, и она находится в работе уже более 9 месяцев».
«Во время тестирования модели Midjourney v4 мы обнаружили, что она обеспечивает гораздо большее количество деталей, чем v3, имеет лучшее понимание подсказок, лучшую композицию сцен, а иногда и лучшую пропорциональность объектов съемки. При поиске фотореалистичных изображений некоторые результаты, которые мы видели, может быть трудно отличить от реальных фотографий с более низким разрешением», — отмечает Дэвид Хольц.
ЧИТАЙТЕ ТАКЖЕ: ТОП-7 лучших в мире программ с искусственным интеллектом, умеющих рисовать
По словам Хольца, среди других особенностей v4:
- гораздо больше знаний (о существах, местах и т.д.);
- гораздо лучше распознает мелкие детали (во всех ситуациях);
- обрабатывает более сложные подсказки (с несколькими уровнями детализации);
- лучше работает с многообъектными / многоперсонажными сценами;
- поддерживает расширенные функциональные возможности, такие как подсказки изображений и мультиподсказки;
- поддерживает аргумент — chaos (устанавливается в диапазоне от 0 до 100) для управления разнообразием сеток изображений.
ЧИТАЙТЕ ТАКЖЕ:
Ученые создали нейроинтерфейс, превращающий мозговые волны в слова
Zoom представил два новых инструмента: почтового клиента и календарь
По материалам arstechnica.com.