ByteDance выкатили FlowAct-R1 и это прямой удар по формату стриминга. Модель генерирует видео бесконечной длины, 480p, 25 FPS, с задержкой около полутора секунд. Это уже почти live, без «рендер подождите».
Самое болезненное для стримеров — one-shot контроль. Один референсный кадр, и дальше полный контроль тела, мимики и реакции на речь. Липсинк и движения дообучены вместе, поэтому нет эффекта говорящей маски. Персонаж реально ощущается живым, а не налепленным на звук.
В основе у них Seedance, но ключевое здесь архитектура. Они переделали DiT в стриминговую авторегрессию, добавили chunkwise diffusion и трёхуровневую память: короткую, длинную и референсную. В итоге аватар не плывёт, не забывает позу и ведёт себя стабильно, как человек.
Инференс ужали до трёх шагов диффузии. Три. Это уже не генерация, это поток. Такой аватар может вести стрим, зум-колл или саппорт без усталости и с идеальной реакцией.
Twitch пока жив. Но FlowAct — это демо будущего, где стримером становится нейромодель. И это будущее уже почти в эфире.
#ai #generativeai #aivideo #ByteDance #FlowActR1 #Seedance #streaming #virtualavatar #syntheticmedia
На Камчатке реальный режим ЧС. Самые сильные снегопады за 30 лет, сугробы до 133 сантиметров, погибшие из-за схода снега. И на этом фоне соцсети взрываются ИИ-видео с фантастической версией реальности. Дети катаются с сугробов высотой девять этажей, как с горнолыжного курорта.
Проблема в том, что эти фейки начали попадать в зарубежные СМИ и новостные паблики вперемешку с реальными кадрами. И большинство просто не видит разницы. Я честно скажу, сам вначале поверил. Выглядит убедительно, драматично, идеально для алгоритмов.
Но местные жители быстро охлаждают хайп. Таких домов в Петропавловске просто нет. Реальная высота снега — максимум по второй этаж. Всё остальное — генерация, которая уже живёт своей жизнью.
И вот здесь важный момент. Мы вошли в фазу, где скорость генерации обгоняет скорость проверки. Если Вы не умеете отличать синтетику от реальности, за Вас это сделает чей-то алгоритм. И совсем не факт, что в пользу правды.
#ai #generativeai #deepfake #syntheticmedia #news #misinformation #Kamchatka #ai_video #media_literacy
Точка запустила 24ai — сервис, который обещает закрыть селлеру почти все задачи с нейросетями в одном окне. Я решил проверить без розовых очков.
Протестировал удаление фона на фото с кроссовками — модель справилась отлично. Плюс сразу можно выбрать формат под карточки, без лишних плясок.
Те же кроссовки нужно подставить на новый фон. Нейронка сама анализирует изображение и предлагает промпт. Я попробовал несколько вариантов. Генерация нормальная, но видно, что свой промпт дал бы лучше контроль.
Для смены ракурса взял другое, сложное фото с парой кроссовок. В итоге осталась одна, но детали и текстуры сохранились неожиданно хорошо.
Анимация карточек — сейчас must-have. Проверил на сковородке с овощами. Простой промпт, три секунды, ожидание пару минут — результат отличный. Анимировался только товар, текст остался статичным. Ровно то, что нужно маркетплейсам. Карточки с нижним бельём делает без проблем, результат чистый
Есть виртуальная примерка. Выбраешь модель, загружаешь пиджак, выбираешь тип одежды. Типа одежды «пиджак» нет, выбрал «куртка». Быстро, но результат слабый: другой пиджак, артефакты, пропал лацкан.
Перекраска кроссовок — чтобы из черных сделать белые, а шнурки красные. Сцена сложная. Получилось ужасно. Для сравнения прогнал тот же промпт в Synthx с Nano Banana Pro — там всё отлично.
Последнее — автогенератор Reels. Вставляете ссылку на карточку, выбираете аватар и сценарий, получаете черновик. Финальный рендер — 490 рублей. Генерация якобы безлимитная, платишь за экспорт.
Я попробовал. Не сработало. Оформил подписку со скидкой для клиентов Точки — снова не сработало. Платить ещё за сомнительный результат не стал.
Итог простой. 24ai — сильный хаб для базовых задач селлера. Что-то уже работает хорошо, но некоторые функции пока сыроваты. Подожду апдейтов. Потенциал есть, но стек нейросетей он пока не заменяет.
ai #generativeai #ecommerce #marketplaces #24ai #Tochka #aivideo #imagegeneration #NanoBananaPro #SyntxAI
На прошлой неделе генерация в Nano Banana была недоступна в Syntx AI и Higgsfield, поэтому для обложки использовался Seedream 4.5. В процессе сравнения возник вопрос, какая модель в реальной работе показывает себя лучше. Для теста были взяты одинаковые промпты без адаптации под конкретные движки, чтобы посмотреть, как каждая из моделей справляется «из коробки».
На сложных сценах со светом Nano Banana Pro показала более стабильный результат: у Seedream 4.5 проявились артефакты освещения, водяной знак и выраженный «пластиковый» визуальный характер [verify]. В более простых сюжетах обе модели в целом попадали в запрос, но Seedream иногда добавляла нежелательные элементы или спорный фотостиль, тогда как Nano Banana выдавала более цельную картинку, хотя и с огрехами в окружении. В промптах с жёсткими требованиями к деталям заметна разница в приоритетах: модель Google чаще игнорирует отдельные условия, но даёт кинематографичный результат, тогда как Seedream старается буквально следовать тексту, даже если это приводит к визуально странным решениям, включая появление неона при явном запрете.
В тестах на композицию и позы ни одна из моделей не оказалась безупречной. Nano Banana может жертвовать анатомией и микродеталями ради общего вида кадра, Seedream — сохранять заданную структуру, но перебарщивать с текстурами кожи и цветовыми акцентами. В итоге обе модели требуют понимания их слабых мест и корректировки подхода, а выбор между ними зависит от задачи, а не от абстрактного «качества».
#ai #generativeai #imagegeneration #NanoBanana #NanoBananaPro #Seedream #Seedream45 #SyntxAI #Higgsfield
HeyGen выкатил новый тариф для команд — HeyGen for Business. Сразу по сути: старый Team план исчез. Теперь есть только Business за 149 долларов в месяц.
Почему так? В 2025 году команда HeyGen пообщалась с сотнями компаний и выяснила одну вещь. Команды тормозят не большие фичи, а мелкие лимиты. Кредиты, слоты аватаров, ограничения на экспорт, невозможность встроить видео в LMS.
В новом тарифе лимиты реально раздвинули. В пять раз больше генераций, пять кастомных аватаров на команду, приоритетный рендер, переводы до 60 минут, SCORM экспорт, интеграции с Zapier, Make, N8N, HubSpot, SSO, интерактивные видео и совместная работа. Для продакшнов и эдтеха — жирно.
Но есть обратная сторона. Каждый участник команды — плюс 20 долларов. Базовый вход — 149. И если раньше Вы работали вдвоём или втроём на Team, теперь Вам просто некуда идти. Creator уже тесно. Business — избыточно и больно по бюджету.
Итог простой. HeyGen сделал идеальный тариф для больших команд и корпораций. Но полностью забыл про маленькие студии и инди. Для одних это апгрейд. Для других — прямой удар по экономике.
#ai #generativeai #aivideo #HeyGen #HeyGenForBusiness #edtech #videoproduction #saas #aiavatars
Warner Music China официально представили свою первую ИИ-певицу — AI-Hua. И это не демо и не концепт. Это полноценный релиз с клипом, который уже лежит на YouTube и Apple Music.
Видео сделали вместе с Kling AI от Kuaishou. По визуалу — уся, китайское фэнтези про воинов, полёты и судьбу. Только теперь всё это собрано нейросетью, от сцены до движения камеры.
Самый интересный момент — Warner даже не уточняют, есть ли в треке живой голос. Возможно, его там просто нет. И это важный сдвиг. Мы больше не в зоне эксперимента. Это уже бизнес-модель.
Напомню, в 2024 крупные лейблы, включая Warner, судились с Suno и Udio за авторские права. А в 2025 спокойно подписали партнёрства. Теперь артисты официально сдают свои голоса и образы в аренду нейросетям.
Схема простая. Сначала боремся с ИИ. Потом приручаем его. Потом начинаем штамповать собственных цифровых артистов.
По звуку AI-Hua — обычная попса. Без риска, без характера, идеально усреднённая. Зато полностью контролируемая. Для Warner — спорно. Для старта — возможно, нормально.
Интересно другое. Это музыка будущего или просто корпоративный аватар с микрофоном? Напишите, как Вам.
#ai #generativeai #aivideo #aimusic #WarnerMusic #WarnerMusicChina #AIHua #KlingAI #Kuaishou #virtualartist
Kling Motion Control сейчас поражает стабильностью и качеством. Ролики с ним заполнили весь интернет, и людям заходит именно реализм. Минимум артефактов, точные эмоции, чистые движения. Ещё месяц назад в такое просто не верилось.
Но ключевое здесь даже не качество. А скорость. Видеомодели развиваются быстрее, чем индустрия успевает реагировать. Обмен персонажей, лиц и сцен стремительно дешевеет и очень скоро станет почти бесплатным.
Видео перестаёт быть дорогим активом и превращается в расходник. А это уже прямая угроза привычной экономике контента. Kling показал не отдельную фичу. Он показал, куда всё едет.
В прошлом выпуске мы уже показывали, как повторять такие тренды. Но проблема глубже, чем танцы и визуальные эффекты. За обликом миловидной симпатичной девочки сегодня может скрываться совсем недобродушный персонаж.
И без насмотренности отличить это почти невозможно. Поэтому будьте осторожны. И по возможности контролируйте, какой контент смотрят аккаунты Ваших детей.
Higgsfield выкатил AI Influencer Studio - инструмент для создания вирусных ИИ-аватаров. Можно выбрать один из пресетов или собрать своего персонажа с нуля. Пол, глаза, витилиго, рога - всё под контролем. Я за пару минут сделал девочку-пришельца и игуану.
Попробовал оживить их через Motion Control. В Scene Control Mode генерация обрывалась из-за цензуры, хотя всё прилично, а вот в Photo режиме ролики делались без проблем. Сейчас генерация долгая, похоже, наплыв пользователей огромный.
Фишка интересная: один из сооснователей Higgsfield раньше был в команде Snapchat, которая прославилась масками и фильтрами. И логика нового продукта сильно напоминает именно ту философию, с которой они заходили в Snapchat. Facebook и другие компании потом массово копировали эту идею.
Ещё одна новинка - раздел EARN. Тут можно заработать на своих аватарах. Когда выходят новые функции, появляются кампании с требованиями. Создаёте ролик, публикуете на Instagram или YouTube и отправляете ссылку в Higgsfield. Платят за каждый ролик.
Сумма пока небольшая, но чем больше просмотров - тем выше награда. Точные цифры пока неизвестны. Судя по частоте обновлений, возможностей заработать будет много, но серьёзного дохода пока ждать не стоит.
#ai #aivideo #generativeai #Higgsfield #AIavatars #AIinfluencer #MotionControl #Instagram #YouTube #creatorconomy
Lightricks открыла LTX-2: в публичный доступ выложены не API-ключи и не демо, а сами веса модели, код обучения и тесты. Модель синхронно генерирует видео и звук и может запускаться локально на вашей видеокарте, без обязательной привязки к облаку.
По описанию в сценарии, LTX-2 заявляет нативное 4K-видео до 50 fps и ролики до 20 секунд с диалогами, музыкой и эффектами, а также сохранение идентичности персонажей, липсинк и сложные движения камеры. Поддерживаются text-to-video, image-to-video и video-to-video, карты глубины, ключевые кадры и LoRA под стили; отдельно отмечается «3D-логика камеры». Оптимизация заявлена под RTX, включая NVFP8 и пайплайны через ComfyUI; оценки скорости на RTX 4080 и «5060» приводятся со слов пользователей.
Тезис про «всё бесплатно» и «полное авторское право» зависит от лицензии и условий использования, но сам факт локального запуска с открытыми весами снижает зависимость от облачных кредитов и условий провайдера.
#ai #aivideo #generativeai #Lightricks #LTX2 #opensource #localai #RTX #ComfyUI #NVFP8 #texttovideo #imagetovideo #videotovideo #lora #lipsync
Higgsfield запустила Mixed Media — инструмент, который стилизует исходное видео «в одну кнопку». Загружаете клип до 10 секунд (вертикальный или горизонтальный), выбираете стиль и получаете переработанный ролик без ручного монтажа и настройки параметров.
По описанию сервиса, это не фильтры поверх картинки: стилизация встраивается в сцену, а графика внутри кадра реагирует на свет, глубину и движение. Отдельно можно управлять цветами фона, среднего слоя и объекта, подгоняя результат под бренд или нужное настроение. Из ограничений отмечают, что часто итог выглядит как около 15 fps, при этом визуально сохраняется цельный «киношный/рекламный» вайб; автор сценария говорит, что результат можно публиковать без бесконечных перегенераций и заметного «AI-эффекта» [verify].
#ai #aivideo #generativeai #Higgsfield #MixedMedia #vibeediting #videostylization #vfx #shorts #reels #tiktok #contentcreation #postproduction
Freepik показала Variations — инструмент, который собирает сториборд из одного изображения. Вы берёте исходный визуал, задаёте сетку (например 2×2 или 3×3), добавляете контекст — и сервис генерирует сразу последовательность кадров одной сцены с сохранением консистентности, причём одним мультисплит-файлом, который удобно дальше отправлять в анимацию, включая Sora 2.
По впечатлениям автора сценария, Variations работает быстро и заточен именно под этап «собрать последовательность», а не поштучную генерацию. Отдельно отмечается механика списаний: если конкретный кадр не сгенерировался, оплату за него не берут. Инструмент сравнивают с Popcorn от Higgsfield: у Freepik уже получается до 9 кадров и заявлено расширение до 16, тогда как у Higgsfield упоминается лимит в 7; при этом по субъективной оценке автора, Higgsfield может давать более «сочные» кадры, а Freepik выигрывает удобством и аккуратным пайплайном.
#ai #generativeai #aivideo #storyboard #preproduction #Freepik #Variations #Higgsfield #Popcorn #Sora2 #workflow #contentcreation #videoproduction #multisplit
На этой неделе заметно разошлись ИИ-видео креатора Владимира Брагина: он показал постаревших и давно забытых мультгероев — узнаваемые образы из детства, но уже в тишине и одиночестве, с ощущением прошедшего времени. Акцент сделан не на технологии, а на эмоции: ностальгия, взросление и утрата считываются сразу, даже без объяснений.
Ролики начали набирать десятки миллионов просмотров и разлетелись по репостам, а в комментариях обсуждают не «в какой нейросети сделано», а собственные воспоминания и чувство потери. История здесь важнее инструмента: нейросети работают как способ быстро визуализировать идею и попасть в переживания аудитории, а вирусность создаёт именно точный эмоциональный ход.
#ai #aivideo #generativeai #instagramreels #viral #creator #storytelling #nostalgia #emotion #shortvideo #contentcreation #VladimirBragin #BraginFilm #creativeidea #socialmedia
Дима Билан выпустил трек «Границы», записанный дуэтом с нейросетевым персонажем — «Снегурочкой» Александры Кимович. По сценарию, это не кавер, а совместная работа: вокал Билана сочетается с цифровым голосом персонажа, а автором музыки и текста выступила Александра Кимович.
Проект подаётся как эксперимент с форматом «живой артист + цифровой герой»: подчёркивается, что персонаж создан человеком с использованием нейросетей, а сам Билан говорит, что готовых инструкций не было и всё собиралось через поиск и интуицию. Визуальная часть вызвала смешанную реакцию: «Снегурочка» выглядит достаточно реалистично, тогда как образ Билана в некоторых кадрах воспринимается более «пластиковым»; вокруг качества CGI и работы с текстурами в обсуждениях много споров. На фоне этого кейс уже стал узнаваемым примером, который зрители и клиенты упоминают как референс.
#ai #aivideo #generativeai #aivoice #music #VladimirBilan #DimaBilan #AlexandraKimovich #cgivideo #digitalcharacter #virtualidol #syntheticmedia #russianmusic #creatoreconomy
Freepik продвигает Magnific Skin Enhancer как инструмент для «живой» кожи без глянца и пластиковых лиц: обещают микродетали, аккуратное усиление текстуры и мягкий свет без агрессивной ретуши. В промо акцент на тонких корректировках и последовательном апскейле, чтобы портреты выглядели более реалистично.
По опыту из сценария, в реальной работе есть нюансы. После улучшения кожи результат может автоматически кропнуться в портретный план, а полный кадр не выдаётся — из-за этого страдает композиция. Если вручную повторно выбрать инструмент и сохранить исходный кадр без кропа, эффект кожи заметно слабее, а нейросеть может менять посторонние детали вроде цвета головного убора. В целом Skin Enhancer лучше раскрывается на крупном портрете, а на более общих планах чаще ограничивается апскейлом и действует менее предсказуемо, плюс интерфейс легко вводит в заблуждение.
#ai #generativeai #Freepik #Magnific #SkinEnhancer #imageenhancement #upscale #portrait #retouch #photorealism #aiphoto #postprocessing #creatortools #designtools #photography
Higgsfield запустила What’s Next? — инструмент, который помогает придумать продолжение сцены, когда нет готовой идеи. Вместо полного сценария вы загружаете один визуал, а система предлагает направления развития: каким может быть следующий кадр, какое настроение и драматургия подходят, как может продолжиться история. Это подаётся не как генерация финального видео, а как навигация по вариантом будущего сюжета.
По сценарию, What’s Next? работает как визуальный брейншторм: даёт последовательность, которая ощущается цельной историей и помогает зацепиться за один из вариантов. Дальше уже начинается режиссура — из предложенной раскадровки выбираются ключевые кадры и отдельно генерируются сцены для итогового видео. Инструмент не заменяет мышление и вкус, а ускоряет старт и помогает выйти из творческого ступора за счёт наглядных вариантов.
#ai #aivideo #generativeai #Higgsfield #WhatsNext #storytelling #ideation #brainstorming #preproduction #storyboard #creativeworkflow #contentcreation #videoproduction #creatortools #genai
В Syntx AI появилась возможность генерировать треки в Suno с опорой на загруженный голос. В самом Suno такой сценарий знаком давно: записываете вокал, используете его как референс, и модель строит композицию вокруг тембра. Новизна здесь в том, что функция доступна внутри Syntx AI, но работает по-разному в вебе и в Telegram.
По сценарию, стабильный вариант сейчас — Telegram-бот: там можно выбрать Suno v5, включить пользовательский режим, загрузить трек или напеть голосом и затем запустить генерацию «с помощью персоны», добавив текст и стиль. В веб-версии Syntx AI автор столкнулся с тем, что загрузка для продления трека даёт ошибки и непредсказуемые результаты, а микрофон не записывает вокал, а только переводит речь в текст, при этом токены списываются. Итоговый голос может совпадать не на 100%, но сам пайплайн в боте уже даёт воспроизводимый результат.
#ai #generativeai #aiaudio #Suno #SunoV5 #SyntxAI #aivoice #voiceclone #musicgeneration #telegrambot #workflow #creatortools #syntheticmedia #texttomusic #aivocals
Google обновила Google Veo 3.1: теперь модель заявленно поддерживает генерацию вертикальных роликов 9:16 в 4K и глубже интегрирована в Gemini и Google Vids. В материалах Google акцентируют улучшения по консистентности персонажей: лица меньше меняются от кадра к кадру, мимика и движения выглядят более связно, а синтетические голоса — менее однотипно.
Google Vids при этом продвигается как AI-видеоредактор внутри Google Workspace с максимально «документным» сценарием работы: пишете текст, а сервис собирает ролик с говорящими персонажами и липсинком на базе Veo 3.1. Отдельно упоминают Ingredients to Video: загружаете 1–3 изображения, добавляете промпт — и система генерирует вертикальный 8-секундный клип, добавляя движение и переходы и стараясь сохранять лица, логотипы и стиль бренда. В демонстрации подчёркивают скорость пайплайна — один запрос и около 30 секунд ожидания.
#aivideo #generativeai #GoogleVeo31 #Gemini #GoogleVids #GoogleWorkspace #verticalvideo #916 #4k #shorts #reels #tiktok #videogeneration #lipsync #brandcontent
Freepik Change Camera 360 — инструмент для управления виртуальной камерой из одного изображения. Вы берёте один кадр и получаете круговой обзор сцены, меняя ракурс, высоту и перспективу, чтобы быстро подобрать композицию — удобно для сториборда и поиска угла съёмки.
По смыслу похожий пайплайн можно запустить и без подписок на Hugging Face: в более техническом виде он связывается с Qwen-Edit-2511 workflow и подходом к восстановлению/перерендерингу изображения как 3D-сцены. В процессе можно вращать и перемещать камеру, менять фокусное расстояние и перспективу; при приближении восстанавливаются детали, при отдалении достраивается окружение. В одном из вариантов workflow (sharp) из изображения генерируется PLY-файл, который затем открывается в 3D-вьювере.
Разница в том, что Freepik продаёт обёртку: быстрый вход и минимум настроек, тогда как Hugging Face — бесплатнее, но требует разбираться. При этом результат пока чаще выглядит «пластиково», а при смене ракурса могут плыть лицо, одежда и пропорции, поэтому это скорее инструмент для идей и превиза, чем для продакшна.
#ai #generativeai #imagegeneration #3d #virtualcamera #storyboard #previz #Freepik #ChangeCamera360 #HuggingFace #Qwen #workflow #ply #computervision
Higgsfield представил AI Stylist — инструмент для создания фэшн-контента без текстовых промптов и студийной съёмки. Сервис работает как визуальный конструктор: пользователь загружает фото модели в полный рост и изображения одежды или аксессуаров, после чего собирает образ из отдельных предметов. Можно использовать готовые образы от Higgsfield или вручную комбинировать нужные вещи, включая собственные загрузки.
В AI Stylist доступны библиотеки поз, которые меняются в один клик и выглядят естественно без описания сцены текстом. Есть набор готовых фонов, при этом собственные фоны загрузить нельзя. После генерации можно создавать дополнительные изображения и использовать функции Angles для смены углов съёмки и Relight для полной перестройки световой схемы под нужный стиль. Стоимость одной генерации составляет 2 токена. Отмечается, что при скачивании изображений важно не переименовывать файл до сохранения, чтобы избежать ошибок загрузки.
#ai #generativeai #fashiontech #virtualtryon #Higgsfield #AIStylist #aicontent #aiphoto #relight #angles
В TikTok и Reels набрал популярность тренд, где дети и животные танцуют как в клипах BTS. Такие ролики создаются с помощью Kling AI и выглядят так, будто персонажи прошли полноценную хореографическую подготовку. Повторить этот формат можно без съёмок, монтажа и сложного продакшна — достаточно одного фото и референсного видео.
Процесс запускается через Syntx WEB в разделе видео с выбором Kling AI и функции Kling Motion. В профессиональном режиме ориентация итогового ролика сохраняет формат исходного видео. Пользователь загружает вертикальное танцевальное видео в качестве референса, добавляет фото человека или животного в полный рост и использует готовый текстовый промпт. На тарифе Basic генерация занимает больше времени, на Pro результат появляется примерно через 15 минут. Стоимость одной попытки составляет около 60 токенов.
Для анимации питомцев рекомендуется использовать фото, где животное стоит на задних лапах — так движения получаются корректнее и ближе к референсу. Итогом становится короткое вертикальное видео, адаптированное под социальные сети и визуально совпадающее с популярным танцевальным трендом.
#ai #aivideo #generativeai #KlingAI #KlingMotion #SyntxAI #tiktoktrend #reels #danceai #motiontransfer
