Топ-9 бесплатных китайских нейросетей в 2025 году

911140f468299f8cb435e8cddbe21c53.jpg

Tencent, Alibaba, DeepSeek AI, Kuaishou — эти компании выпускают модели одну за другой, заставляя западных конкурентов почесать головы. Китайские ИИ‑продукты сегодня покрывают всё: от создания объёмных научных статей до генерации мемных видеороликов, которые легко взорвут соцсети. Эти технологии уже привлекли внимание профессионалов, но их потенциал доступен и обычным пользователям.

Куда бежать, если вам срочно нужно оживить персонажа, создать фотосессию из одного‑единственного портрета или сделать прикольную гифку для поздравления? Hunyuan‑T1 с гибридным трансформером, Qwen-2.5 с миллионным контекстным окном, Talkie, который обошёл по популярности Character.ai, и Kling, монтирующий видео из нескольких картинок, — обо всём этом в статье!

Hunyuan-T1 (Tencent)

21 марта 2025 года Tencent представила Hunyuan‑T1. Новинка не только догоняет, но и обгоняет другие топовые нейросети (DeepSeek‑R1, GPT-4.5, o1) практически во всех категориях:

46c71d1d6c9ba82d49698c358c2f88fe.png

Как воспользоваться Hunyuan-T1

9d62a814852db9e59b30b8145838cdf8.png

Модель Hunyuan‑T1 доступна на официальном сайте Tencent. Модель свободно общается на русском, однако рассуждения и системные сообщения иногда отображаются на китайском. Ещё один нюанс — Hunyuan‑T1 немультимодальна (то есть ни картинки, ни документы нельзя загрузить). Кстати, интерфейс доступен только на китайском, а возможность зарегистрироваться в системе отсутствует.

DeepSeek-v3, DeepSeek-R1 (DeepSeek AI)

В декабре 2024 года, а затем в январе 2025-го технологический ландшафт вздрогнул — DeepSeek AI представила сразу две мощнейшие модели: V3 и R1. Разработка DeepSeek, первая версия которой вышла в 2023-м, стала ответом на введённые США ограничения, когда Nvidia перестала поставлять в Китай графические чипы (подробнее об этом — в интервью с основателем Ляном Вэньфэном).

Что отличает V3 от R1?

DeepSeek‑V3 — классическая большая языковая модель, LLM, а DeepSeek‑R1 представляет собой LRM, то есть модель для рассуждений. Если первой подойдут более общие задачи, то вторая будет полезна в областях программирования, науки и других, где важно подумать дважды (буквально). Что по характеристикам: обе модели имеют 671 млрд параметров плюс дополнительные 14 млрд для параллельного предсказания токенов. Размер контекста стандартный на сегодняшний день — 128 000 токенов.

Что касается показателей в бенчмарках, то DeepSeek‑R1 вышла на один уровень с ChatGPT‑o1. Вместе они показывают класс в таких дисциплинах, как кодинг, математика, языковые задачи, и множестве других направлений:

76752132dae5abe9ea85d8efbacc427a.jpeg

У R1 хорошие возможности по обработке загруженных документов, однако нет функции генерации изображений, как у Grok, ChatGPT и Qwen.

Как работать с DeepSeek

Модели V3 и R1 доступны на официальном сайте, но ­— внимание — сервер там частенько забивается до отказа…

Как говорится, ответ на главный вопрос жизни, Вселенной и всего такого уже точно не «42», а скорее «Жди загрузки»
Как говорится, ответ на главный вопрос жизни, Вселенной и всего такого уже точно не »42», а скорее «Жди загрузки»

…поэтому приходится искать альтернативные способы.

Однако выход есть. Зарегистрируйтесь в агрегаторе нейросетей BotHub по этой специальной ссылке и получите приятный сюрприз — 100 000 токенов для доступа к V3, R1, Qwen и многим другим моделям без ВПН.

Давайте посмотрим, как DeepSeek‑R1 напишет скрипт на языке Python:

8f3e0883f5e8868f05ea4b9518579f79.png
Ответ R1
0461a3be954dc242ed56ea755198d947.png

Qwen-2.5, Qwen-QwQ-32B (Alibaba)

Если вы всё ещё ассоциируете Alibaba только с онлайн‑магазином, то пришло время переосмыслить стереотипы. В 2025 году эта китайская корпорация выстрелила в ещё одну технологическую вершину, представив свою мощнейшую ИИ‑модель — Qwen-2.5-Max, одну из мощнейших в Китае.

Линейка Qwen-2.5 включает в себя несколько моделей, такие как 2.5-Max, 2.5-Plus, 2.5-Turbo и 2.5-Coder-32B‑Instruct. Производительность 2.5-Max сравнима с DeepSeek‑v3, Llama-3.1*, ChatGPT-4o и Claude-3.5-Sonnet, а модели QwQ-32B — с DeepSeek‑r1 и ChatGPT‑o1-mini.

c067c1a259b53d7bb51b574a4141e5ea.jpegec45b74af244229b762bb7f7109ae3a7.jpeg

Эффективность QwQ-32B заслуживает отдельного внимания, ведь с её «скромными» по меркам ИИ 20% параметров от DeepSeek‑R1 она умудряется показывать выдающиеся результаты. Правда, остаётся вопрос:, а как насчёт сложных практических задач, которые выходят за пределы стандартных бенчмарков? Время покажет. Тем не менее известно, что модели этой линейки прошли обучение на датасете объёмом в 20 трлн токенов, включающем научные статьи, программный код, мультиязычный контент и самые разные практические задачи.

Отдельные модели Qwen позволяют не только обрабатывать, но и генерировать изображения, а также короткие 5-секундные видео.

Как получить доступ к Qwen-2.5 и Qwen-QwQ-32B

Всё доступно на официальном сайте. С моделями можно общаться на русском языке, а также при желании переключить на русский и язык интерфейса.

Кстати, для анализа и обработки файлов не подойдёт QwQ-32B — хоть и рассуждающая, она немультимодальна; вместо этого для задач с текстовыми документами, изображениями, аудио или видео следует переключиться, скажем, на 2.5-Max или Qwen-2.5-VL-72B. Модели различаются объёмом «памяти»: 2.5-Plus и 2.5-Max держат в контексте до 128 000 токенов, а контекстное окно 2.5-Turbo — аж 1 000 000 токенов. И вопрос здесь даже не «Зачем столько?», а скорее «Как такое возможно?».

19c9d971ba45005a1f4560d376dd5399.png
Ответ Qwen-QwQ-32B
c842a294de83b07d9bb7c5c6b0bb4b1f.png

Hailuo (MiniMax)

Hailuo — генеративная нейросеть, которая превращает текстовые описаний или изображения в короткие видеоролики. Сервис был запущен в 2023 году. Благодаря тому что он менее подвержен западным нормам регулирования, Hailuo позволяет генерировать видео на основе кадров из фильмов и фотографий известных персон.

Как пользоваться Hailuo

Чтобы начать путешествие в мир генерации видео, нужно перейти в соответствующий раздел платформы. Слева вы найдёте меню выбора режима, где скрываются два главных инструмента:

  • Режим «текст в видео» (вторая вкладка, Text to video) генерирует видеоролики из текстовых промтов, которые можно вводить на русском, английском и других языках — сервис мультиязычен.

  • В другом режиме, «картинка + текст в видео» (первая вкладка, Image to video), мультимодален, поэтому тут ещё интереснее: можно загрузить свою картинку и добавить в текстовом описании, что именно должно происходить. (Или оставить одну лишь картинку — Hailuo сам додумает, что с ней делать.) Здесь доступны пресеты: например, можно сделать так, чтобы персонажи на изображении вдруг начали плясать, играть на гитарах или вытворять ещё что‑то неожиданное. Чтобы активировать функцию, достаточно щёлкнуть кнопку с волшебной палочкой и выбрать шаблон:

9e311085a559a797af464864d89d1cde.png

Что ещё важно знать? Hailuo поддерживает две модели для работы с видео. Вторая из них, I2V-01-live, больше подходит для анимационных персонажей.

Разобраться в синтаксисе запросов лучше на реальных примерах — изучив видеоролики на главной странице: на ней собрана коллекция творений пользователей, многие из которых сопровождаются промтом, благодаря которому получилось видео. Здесь же можно воспользоваться и кнопкой Recreate, чтобы создать новое видео по тому же промту.

359dac01b79564f7a10ec7f1ffc89477.png

Как получить доступ к Hailuo

Воспользоваться нейросетевыми возможностями Hailuo можно на сайте, а также в Android‑приложении. После регистрации вас сразу порадуют щедрым подарком в виде 1000 токенов. Хватит примерно на 33 эксперимента с видео, но потратить их нужно за три дня, иначе они исчезнут, как снег в апрельское солнце. Хорошая новость: ежедневно пользователи получают ещё по 100 токенов. Для регистрации подойдут аккаунты Google или Apple.

Step-Video-T2V (StepFun)

Нейросеть компании StepFun, основанной в апреле 2023 года бывшим вице‑президентом Microsoft Цзянем Дасинем. Модель Step‑Video‑T2V появилась в феврале 2025 года. Те, кто уже попробовал модель, отмечают, что в ней, как в Hailuo, не имеется запретов на генерацию видеороликов со знаменитостями.

Step‑Video‑T2V — это доказательство того, что в сложное можно добавить простоту: интерфейс настолько интуитивно понятен, что разобраться сможет даже тот, кто впервые столкнулся с видеогенерацией. Всё, что нужно сделать, — это ввести текстовый промт и/или загрузить изображение (значок показан стрелкой на скриншоте, слева от неё — рандомизатор промта), после чего нажать кнопку генерации.

389ec8dac363a24e812edfa65ca3b5cd.png

Step‑Video‑T2V генерирует видео длиной до 204 кадров, что приравнивается примерно к 8,5 секунды. Больше примеров работы вы найдёте на странице описания модели или в GitHub‑репозитории проекта.

Чтобы начать генерировать видео, сперва нужно зарегистрироваться на сайте. Интерфейс Step‑Video‑T2V только на китайском языке, поэтому вот несколько путеводных знаков, как это сделать:
➊ Сперва жмём кнопку регистрации/входа;
➋ Выбираем в списке вторую страну с кодом +7 (первая в списке Казахстан, вторая Россия) и пишем свой номер телефона;
➌ Жмём «Получить код», ждём сообщения в Telegram и ➍ вводим его;
➎ Ставим галочку и ➏ жмём кнопку входа.

Скриншоты с подсказками
510dabf0149194e6683709613da8ec11.png9820226ec7a8b11ec5d856690755bfcc.png

PixVerse (AISphere)

Модель появилась в публичном доступе в январе 2024-го. Она генерирует видео длиною 5 либо 8 секунд (впоследствии можно расширить), а также умеет создавать звуковое сопровождение, причём это может быть не просто музыка и звуки, а даже речь с заранее заданным текстом. Такие штуки до сих пор редкость среди онлайн‑видеогенераторов.

На данный момент здесь три варианта моделей: v3, v3.5 и v4, которые отличаются качеством. Длина генерируемого ролика — 5 или 8 секунд (соответственно 30 или 60 кредитов).

0d5504d10cb84405dbdfe0b751cb6cdb.png

Внизу окна можно переключаться между вкладками. На первой из них, Image or text, нейросеть PixVerse позволяет генерировать короткие видеоролики в трёх режимах: «текст в видео», «картинка в видео» и «текст + картинка в видео» (в зависимости от того, что вы указали). Промты поддерживают множество языков, в том числе русский и английский.

Для чего предназначены другие вкладки?

  • Transition — создать видеопереход между двумя указанными кадрами.

  • Sound — сгенерировать аудиосопровождение (можно использовать не только PixVerse‑видеоролики, но и загрузить свои).

  • Speech — здесь можно добавить речь к видеоролику, с включением липсинка (пример — стюардесса в видео выше). Поддерживается и русская речь, но голос довольно‑таки роботизированный — лучше загрузить готовое аудио (записанное или сгенерированное где‑то ещё).

  • Restyle — изменить стиль видео, выбрав шаблон или описав самому.

  • Extend — удлинить видеоролик («пиксверсовский» или свой).

  • Character — удобная функция, чтобы создать ролик с заранее подготовленным персонажем. Сперва нужно будет создать персонажа из рисунка или фото.

Сгенерированное видео созданных роликов можно вновь расширять на 5/8 секунд, создавая таким образом ролики большей длины, а также увеличить его ИИ‑масштабированием, максимум до 4K (3840×2160 пкс).

Зарегистрироваться в PixVerse можно как через Google, Apple, Discord, так и через имейл. В момент регистрации вы обнаружите 90 стартовых кредитов, а позже — ежедневный бонус в виде 30 кредитов (их хватит на одно 5-секундное видео или одно изменение стиля видео).

Как зайти в Pixverse

Pixverse доступна на официальном сайте и в виде приложений для Android и Apple. Веб‑сайт поддерживает русский язык, но в какой‑то момент вам может захотеться переключиться на оригинальный английский, так как в локализованных версиях не умещаются надписи. Особенно это касается кнопки Персонаж, которая в русском интерфейсе просто исчезает.

Kling (Kuaishou)

Kling — нейросеть для генерации изображений и видео, разработанная компанией Kuaishou. Сервис обрёл популярность в 2024 году, а в январе вышла обновлённая модель Kling 1.6, добавившая немало новых возможностей.

d47b1255f09372a1a3251ed62a8fa1c1.jpeg

Готовьтесь: Kling — настоящий инструмент для креативных экспериментов. Вот что он умеет:

  • Генерировать видео в нескольких режимах: «текст в видео» (вкладка Text to Video), «картинка [+ текст] в видео», «первый кадр + последний кадр [+ текст] в видео» (вкладка Image to Video → Frames).

  • Генерировать по начальному или конечному кадру, а также по обоим одновременно.

  • Нейросеть не генерирует звуки, однако во вкладке Lip sync можно связать артикуляцией загруженные видео и речь или ввести речь в виде текста.

  • Делать виртуальную примерку одежды. Здесь потребуется загрузить фото человека, а также один‑два предмета одежды. Эта функция спрятана в разделе: ☰ → AI Images → AI Virtual Try‑On.

  • Создавать видео из нескольких картинок — от одной до четырёх (вкладка Image to Video → Elements). Можно загружать изображения одушевлённых и неодушевлённых объектов, затем обозначать в промте эти элементы.

К примеру, вот какую «сценку» удалось создать из этих четырёх изображений с промтом:

014b3504710a6d7c35076eba5514291f.jpeg

A cartoon kitten wearing a brown leather jacket and sunglasses, smiling at the camera on the stage.

Мультяшный котёнок в коричневой кожаной куртке и солнцезащитных очках улыбается в камеру, стоя на сцене.

Все детали исходников хорошо сохранены: от солнечных очков до фактуры куртки и структуры заднего фона.

Kling понимает множество языков, включая русский. Длина одного видео — 5 либо 10 секунд, затем можно расширять его вплоть до 180 секунд.

Как зайти в Kling

Начать пользоваться сервисом можно на официальном сайте или в мобильном приложении. В бесплатном тарифе предоставляется 166 токенов ежемесячно. Стоимость одной генерации зависит от выбранного режима — Standard или Professional, а также длительности фрагмента (5/10 с).

Talkie (Minimax)

Стартап Minimax, основанный экспертом в области ИИ Яном Цзюньцзе, известен прежде всего своим продуктом Talkie — чат‑ботом‑компаньоном, доступным пользователям по всему миру. Платформа предлагает широкий выбор виртуальных персонажей, включая знаменитостей и вымышленных героев, с которыми можно общаться для эмоциональной поддержки или развлечения. В 2024 году Talkie обошёл по количеству загрузок своего главного конкурента — платформу Character.ai. Общение в Talkie приближено к формату непринуждённых разговоров, наподобие мессенджеров или соцсетей.

Вишенка на торте: персонажи зачитывают свои реплики голосом (если автор конкретного персонажа добавил эту фичу, но чаще всего это так). Кстати, русский язык тоже поддерживается, правда, иногда стоит немного подтолкнуть вашего ИИ‑друга: отправить что‑то вроде «Пиши сообщения на русском», если ответные реплики поступают на ином языке.

Как пользоваться Talkie

Talkie доступен в веб‑версии или в приложениях для Android и Apple. Для регистрации понадобится аккаунт в Google, Apple или TikTok. А вот небольшой лайфхак — обменяться несколькими сообщениями с персонажем можно даже без регистрации.

После входа вас ждёт огромный список персонажей, и пользователи часто создают новых: к примеру, здесь можно поделиться секретами с Чаки, попробовать ответить на загадочные вопросы учительницы или узнать, что происходит на болоте у Шрека. А если же в какой‑то момент возникнет желание создать в Talkie своего персонажа, то сделать это проще, чем может показаться.

dbbc35179ae1eba6ea72bd27e3799ca4.png

Как создать своего персонажа в Talkie

Для начала жмём кнопку Create a Talkie.

a93472e0e49f80ebd2fd0f22ebd1c5f6.jpeg

Откроется экран создания персонажа. Процесс достаточно интуитивен: указываем ➊ имя, ➋ пол, ➌ предысторию персонажа, а также черты характера, какие‑либо взаимоотношения с другими персонажами (при наличии таковых) и т. д., ➍ его приветственную реплику, ➎ информационный текст в начале диалога (он отобразится над первой репликой), ➐ загружаем портрет, ➑ подбираем голос (или синтезируем новый на основе загруженных аудио с речью). Ну, а в поле ➒ можно будет протестировать полученного персонажа, как только все необходимые поля, отмеченные *, будут заполнены. Также в ➏ можно добавить персонажу умение рисовать изображения по запросу пользователя.

SeaArt (SeaArt Inc.)

SeaArt предлагает множество функций: от генерации изображений и видео до стилизации в разные художественные стили, удаления и замены фона. А ещё здесь можно оживить картинки тысячей и одним способом.

Однако если мы говорим об освоении, то тут понадобится вся любознательность, потому что SeaArt стоит наряду с самыми функционально насыщенными платформами: здесь даже можно создавать свои интерактивные приложения или тренировать модели на личных датасетах.

0ef52e1c136f874b77142da4ec5046ec.jpeg

Как пользоваться SeaArt

Зарегистрироваться на SeaArt можно множеством способов, включая имейл. Для удобства сервис доступен не только в веб‑версии, но и через приложения для Android и Apple. Приступить к творчеству можно с базового набора инструментов:

  • Генерация изображений. Перейдите через кнопку Create → Create Image. Здесь всё довольно стандартно: задайте текстовый промт, пропорции картинки — и вперёд.

  • Генерация видео. Видео создаётся во вкладке AI Video (стандартная модель по этой ссылке). Вы можете задать длину ролика, на выбор 5 или 10 секунд, и загрузить изображение — его первый кадр.

Ключевая особенность SeaArt — это модели, создаваемые самими пользователями, а не только встроенные решения. Это открывает фантастические возможности для поиска нишевых генераторов, от мультипликационных фильтров до инструментов для более специфических задач.

Начать поиски можно в разделе AI Apps. Здесь находятся преобразователи «изображение в видео» (i2v) и «изображение в изображение (я)» (i2i) на все случаи жизни: разрезание объектов в стиле cake everything (i2v), лего‑фильтр (i2i), видеогенератор поцелуев из фото с двумя персонажами (i2v), стилизация фото под разные мультяшные стили (1, 2) (i2i) и даже обратно в реальность (i2i), создание ИИ‑фотосессий — достаточно лишь портрета (1, 2, 3, 4, 5) (i2i)… И многое другое.

b001dbef21210498ef93ca148525989f.jpeg71040954d224f7e1becd518897991073.jpeg

Это было путешествие на хрупкой грани между настоящим и будущим, мы прошлись по холмам и оврагам китайского ИИ‑ландшафта, где модели пишут, рисуют, создают видео, иногда — запутывают интерфейсом с иероглифами. Видеогенераторы пока не упрощают работу до уровня «ввёл промт — получил кино», а языковые модели иногда преподносят сюрпризы, но нейросети уже превращают творческие задумки в реальность, а также создают новые пространства для идей.

Какие нейросети вы уже взяли на вооружение? Кого приручили, а где хотелось выключить и забыть? Жду ваших историй в комментариях!

* Llama-3.1 — проект Meta Platforms Inc., деятельность которой в России запрещена.

© Habrahabr.ru