Разработчики: | Alibaba Group |
Дата премьеры системы: | февраль 2025 г |
Отрасли: | Информационные технологии |
Содержание |
История
2025: Анонс продукта
Китайская компания Alibaba полностью открыла доступ к своей нейросети Wan 2.1, предназначенной для генерации реалистичных изображений и видео. Об этом стало известно 26 февраля 2025 года. Модель распространяется с открытым исходным кодом и доступна пользователям бесплатно как для академических и исследовательских задач, так и для коммерческого использования.
Как сообщает Reuters, модель Wan 2.1, впервые представленная в январе 2025 года, занимает лидирующие позиции в рейтинге VBench, который оценивает качество генеративных видеомоделей. Особенно высоко оценивается способность Wan 2.1 обрабатывать сцены со взаимодействием нескольких объектов, что делает создаваемый контент максимально реалистичным.
Alibaba выпустила четыре варианта нейросети Wan 2.1, различающихся по функциональности и требованиям:
- T2V-1.3B — модель «текст-видео» с 1,3 млрд параметров, оптимизированная для работы на домашних видеокартах, требующая 8,19 ГБ видеопамяти для генерации пятисекундного видео в разрешении 480p за четыре минуты на GPU RTX 4090;
- T2V-14B — усовершенствованная модель «текст-видео» с 14 млрд параметров, поддерживающая генерацию видео в разрешениях 480p и 720p на основе описаний на китайском и английском языках;
- I2V-14B-480P — модель «изображение-видео» с 14 млрд параметров для создания видеороликов в разрешении 480p на основе загруженных изображений;
- I2V-14B-720P — версия для создания видео высокого качества в разрешении 720p из исходных изображений с 14 млрд параметров.
ВТБ добился независимости для ИИ-разработчиков в банке от зарубежных технологий
Все четыре модели доступны на платформах ModelScope и HuggingFace от Alibaba Cloud, а исходный код размещен на GitHub. Это значительно упрощает доступ разработчиков к технологии и позволяет интегрировать ее в различные проекты без необходимости самостоятельной настройки с нуля.[1]