Добавить
Уведомления
Гари ИИ Аватар
Иконка канала Гари ИИ Аватар

Гари ИИ Аватар

96 подписчиков

3
просмотра
Higgsfield анонсировала обновление Cinema Studio 2.0 с управлением временем прямо во время генерации сцены. Функция Speed Ramp позволяет менять ритм внутри шота: замедлять отдельные моменты, сохранять линейную скорость или резко ускорять движение камеры. Поддерживается кейфрейминг скорости, что даёт возможность управлять динамикой в пределах одного кадра, а не ограничиваться готовыми пресетами. В версии 2.0 заявлены полноценные 3D-сцены, Director Panel с контролем персонажей, жанра и флоу, а также Multishot для фиксации кадров. Доступны шесть профессиональных камер, одиннадцать линз и более пятнадцати режиссёрских движений, экспорт — до 4K. Обновление позиционируется как инструмент для точной работы с ритмом и драматургией на этапе генерации. #ai #aivideo #generativeai #Higgsfield #CinemaStudio #SpeedRamp #filmmaking #4k #videogeneration
2
просмотра
ElevenLabs представила Meet Audiobooks — инструмент для сборки аудиокниги как полноценного продукта. Пользователь загружает рукопись, делит её на главы, выбирает голоса, настраивает интонацию и темп, после чего получает выстроенный процесс от черновика до готового релиза. Это не просто озвучка текста, а единый пайплайн производства аудиоконтента внутри платформы. Компания, начавшаяся как небольшой проект, сегодня оценивается примерно в $11 млрд и привлекает инвестиции крупных фондов. Среди публичных кейсов — использование голосовых агентов ElevenLabs в поддержке Revolut и эксперименты в автоспорте, включая проекты, связанные с Formula 1. Развитие таких решений усиливает тренд на голос как самостоятельный цифровой интерфейс. #ai #generativeai #ElevenLabs #audiobooks #voiceai #voiceagents #Revolut #Formula1 #texttospeech
5
просмотров
Syntx AI представила обновлённую веб-версию: интерфейс стал чище и удобнее для повседневной работы. В настройках появились Light и Dark mode, что важно при длительных сессиях генерации. Цветовая схема изменилась — по отзывам, интерфейс стал менее отвлекающим и лучше фокусирует внимание на результате. Навигацию переработали: нейросети сгруппированы по направлениям в левом верхнем углу, переключение между ними стало быстрее. Диалоговые окна перенесены в скрываемую панель слева и больше не занимают рабочее пространство. При этом пока нет возможности запускать несколько генераций одной кнопкой — например, пакет из 10 задач подряд, как в Nano Banana или Higgsfield; каждую генерацию нужно стартовать отдельно. #ai #generativeai #SyntxAI #webupdate #uiux #workflow #NanoBanana #Higgsfield
1
просмотр
Kling 3.0 Multishot позволяет создавать несколько связанных сцен в одной генерации и собирать целое видео по одному промпту. Можно задать стартовый кадр и общее направление, чтобы модель понимала границы стиля и ключевые элементы. Далее описываются сцены: действия персонажей, объекты, окружение, затем отдельно — поведение камеры, при необходимости фокусное расстояние и линзы. Аудио также можно задать в промпте, если оно поддерживается моделью. В Syntx AI сцены оформляются блоками с возможностью менять порядок и длительность; система не позволит превысить общий хронометраж. Платформа переносит структуру в единый промпт в один клик. Такой подход подходит для быстрых роликов и презентаций идей, однако между сценами возможны логические несостыковки. Для задач с жёстким контролем последовательности и деталей по-прежнему эффективнее генерировать шоты отдельно. #ai #aivideo #generativeai #Kling #KlingAI #Multishot #SyntxAI #videogeneration #prompting
Seedream 5.0 представлена как новая модель для генерации и обработки изображений и позиционируется как прямой конкурент Nano Banana Pro. Разработчики заявляют о переходе к «думающему» подходу: модель не просто рендерит пиксели, а планирует результат перед генерацией. Версия Seedream 5.0-Preview, по заявлениям, способна искать в интернете референсы и дополнительную информацию до создания изображения. Модель дополнили архитектурой «логического мышления», что должно улучшить работу со сложными промптами, физикой сцены и расположением объектов в пространстве. Заявляется лучшее понимание архитектуры, анатомии и естественных наук. В пользовательских сравнениях с Nano Banana Pro результаты выглядят сопоставимо, хотя по части натуральности изображений мнения расходятся. Конкуренция между китайскими командами и Google в сегменте image-generation усиливается. #ai #generativeai #Seedream #NanoBanana #texttoimage #imagegeneration #GoogleAI #chinai
3
просмотра
X совместно с xAI провели конкурс к Супербоулу: три ролика, созданные в Grok Imagine 1.0, разделили призовой фонд $1,75 млн. Первое место получило $1 млн, второе — $500 тыс., третье — $250 тыс. Все работы были выполнены с использованием Grok — без традиционных съёмок и офлайн-продакшена, с упором на генерацию, монтаж и ритм. Третье место занял ролик Jones о космической экспедиции с полётом на Луну и финальным кадром, где робот, напоминающий разработки Tesla, вместе с девочкой провожает ракету. Второе место — история о мальчике, наблюдающем запуск и беседующем с ИИ, построенная на знакомой драматургии «мечта и технологии». Победил ролик в средневековом сеттинге с акцентом на юмор — наиболее нестандартный по подаче. Среди призёров — авторы с коммерческим и продакшн-опытом, что отражается в уровне исполнения. #ai #generativeai #Grok #GrokImagine #xAI #SuperBowl #aivideo #videogeneration #X
2
просмотра
Alibaba представила Qwen-Image 2.0 — модель генерации изображений с акцентом на макеты слайдов и постеров. Поддерживается до 1000 токенов в промпте, что позволяет задавать структуру слайда, типографику, цвета, иерархию и расположение блоков. Заявлено нативное 2K-разрешение и улучшенная детализация людей, архитектуры и природы. Отдельный фокус — корректный рендеринг текста без случайных символов. Модель имеет 7B параметров и, по результатам Image Arena, показывает уровень, близкий к Nano Banana Pro и GPT image 1.5. Такой размер позволяет запускать её локально на GPU с 16GB VRAM, в зависимости от конфигурации. Qwen-Image 2.0 позиционируется как инструмент для быстрой сборки базовой графики и презентационных материалов без ручной вёрстки. #ai #generativeai #Alibaba #QwenImage #texttoimage #ImageArena #NanoBanana #GPTimage #design
41
просмотр
ByteDance представила Seedance 2 — новую модель для генерации видео. Она создаёт не отдельные кадры, а сразу целостную сцену с развитием сюжета, выступая как «режиссёр» внутри одной генерации. Достаточно короткого промпта с общей идеей, чтобы получить видео из нескольких шотов. При необходимости доступен режим Image-to-Video и работа с раскадровкой 3×3. В сети активно обсуждают качество: отмечают реализм, стабильность персонажей и окружения от кадра к кадру, а также наличие звука в генерации. Seedance 2 сравнивают с Kling 3.0 и называют конкурентом Google Veo 3.1. Отдельно завирусился ролик с девушкой на баскетбольной площадке и игроком Lakers. При этом в платной версии CapCut модель второго поколения пока не обнаружена, и её доступность в сторонних сервисах может зависеть от региона и этапа запуска. #ai #aivideo #generativeai #ByteDance #Seedance2 #Kling #GoogleVeo #CapCut #videogeneration
4
просмотра
PixVerse представила версию V5.6, и модель заметно приблизилась к продакшен-уровню. Генерации стали стабильнее: движения выглядят спокойнее, сцены больше не «рассыпаются» через несколько секунд, а камера ведёт себя предсказуемо. Персонажи лучше сохраняют форму, а анимация выглядит более связной, без ощущения случайных решений модели. Улучшения особенно заметны в динамичных сценах и сложных ракурсах, где ранее PixVerse часто давал сбои. Визуальная часть стала более киношной — с проработанной фактурой и атмосферой. Также сообщается об улучшенной озвучке: она звучит натуральнее по сравнению с предыдущими версиями. При этом реакция пользователей неоднозначная — некоторые примеры всё ещё выглядят неубедительно, а в сравнении с Sora 2 модель заметно уступает по реализму. Несмотря на критику, PixVerse V5.6 демонстрирует поступательное развитие и постепенно сокращает разрыв с лидерами видеогенерации. Текущая версия уже выглядит как более надёжный инструмент для рабочих задач, хотя до уровня топ-моделей ей ещё есть куда расти. #ai #aivideo #generativeai #PixVerse #PixVerseV56 #videogeneration #aiart #neuralvideo
15
просмотров
Runway выпустила режим Image to Video для Gen-4.5: теперь одну статичную картинку можно анимировать и превратить в полноценный видеоклип. В промо и официальных примерах модель по-прежнему демонстрирует киношное качество, за которое Runway давно ценят — выразительное движение камеры, атмосферный свет и ощущение цельной сцены. На практике впечатления у пользователей неоднозначные. Многие отмечают разрыв между демонстрациями и реальными результатами: получить стабильную и выразительную анимацию удаётся не всегда. При этом внутри сообщества Runway считают, что обновление действительно улучшило физику движения, стабильность деталей во времени и следование заданному сценарию, особенно по сравнению с предыдущими версиями. Image to Video для Runway Gen-4.5 уже доступен и через Syntx AI: инструмент находится в разделе видео, где можно выбрать модель, загрузить изображение и задать параметры генерации. Дополнительно доступны готовые пресеты с заранее составленными промптами, что упрощает старт и снижает порог входа. Несмотря на спорные отзывы, обновление выглядит как шаг вперёд и потенциально может найти место в продакшен-пайплайне. #ai #aivideo #generativeai #Runway #RunwayGen45 #ImageToVideo #SyntxAI #videogeneration #aiart
3
просмотра
Freepik добавил функцию Color Grading в Clip Editor, открыв её для всех пользователей. По заявлению сервиса, процесс выглядит максимально простым: загрузка видео, выбор режима Color Grading, применение одного из готовых пресетов и быстрая настройка силы эффекта с получением финального ролика без сложной цветокоррекции. На практике у инструмента оказалось заметное количество ограничений. Загружать можно только видео до 20 секунд, при этом неподготовленные или HDR-ролики не принимаются корректно. Видео с кодеком H.265 отображаются с ошибками, а сами пресеты часто дают посредственный результат даже при ручной регулировке интенсивности, которая сводится к одному ползунку. В тестах также возникали ошибки при обработке разных роликов, включая клипы со стока Freepik. В текущем виде Color Grading в Freepik больше напоминает набор базовых фильтров, чем полноценный инструмент работы с цветом. Возможно, часть проблем связана с багами и будет исправлена, но пока функциональность выглядит ограниченной и вряд ли подходит для задач, где требуется точный контроль изображения. #ai #aivideo #generativeai #Freepik #ColorGrading #videoediting #aipostproduction #clipeditor
2
просмотра
Luma AI представила модель Ray 3.14, которая заметно ускоряет видеогенерацию и снижает её стоимость. По заявлению компании, новая версия работает примерно в четыре раза быстрее, чем Ray 3, генерирует видео нативно в Full HD и обходится примерно в три раза дешевле. Название Ray 3.14 отсылает к числу π, поэтому модель иногда называют RayPi. По первым примерам Ray 3.14 демонстрирует стабильную работу в разных сценариях — от фотореалистичных сцен до динамичных анимаций, включая сложные движения и сочетание нескольких типов контента в одном клипе. Модель лучше следует текстовому описанию и корректно учитывает стартовые изображения, что делает результат более предсказуемым по сравнению с предыдущими версиями. В соцсетях уже появилось много примеров генераций, и по ним видно, что упор сделан не только на скорость, но и на сохранение качества. Если заявленные характеристики подтвердятся в массовом использовании, Ray 3.14 может стать одним из заметных игроков среди современных видеогенераторов. #ai #aivideo #generativeai #LumaAI #Ray314 #Ray3 #videogeneration #fullhd #aiart
7
просмотров
LTX представила инструмент Brush для локальных правок изображений и видео. Теперь вместо повторного перепромптования и полного пересчёта сцены можно выделить проблемную область и описать желаемую правку текстом: смягчить улыбку, заменить фон, убрать лишний объект или добавить логотип. Модель изменяет только выбранный участок, оставляя остальную сцену нетронутой, что даёт точечный контроль, похожий на работу в Photoshop, но без ручной ретуши. Ключевая разница между промптом и Brush в том, что первый задаёт глобальное направление, а кисть решает детали локально. Для продакшена это ускоряет работу, позволяет варьировать элементы сцены и корректировать артефакты без полного пересчёта. Похожий подход недавно представила Flora AI, где также можно регулировать крупность изменений, а нейросеть дорисовывает недостающие элементы по теме. #ai #aivideo #generativeai #LTXStudio #Brush #localedits #aiart #videogeneration #workflow
9
просмотров
Higgsfield представила обновлённую функцию Angles V2 для генерации новых ракурсов изображений. В режиме Edit вы загружаете исходное фото и управляете виртуальной камерой по трём осям, приближая или поворачивая её для создания новых перспектив. Для точной настройки можно использовать ползунки или вращать сферу с камерой, а готовые кадры создаются быстро и без сложных настроек. Особенность V2 — возможность одним нажатием сгенерировать сразу 12 новых ракурсов, выбрав уровень приближения. При этом качество сильно зависит от исходного изображения: на основе оригинального фото кадры получаются корректными, а с уже сгенерированных видов детали могут теряться. Такая скорость и простота делают инструмент удобным для продакшена, когда нужно быстро получить разнообразные ракурсы. #ai #aivideo #generativeai #Higgsfield #AnglesV2 #imageediting #3d #videogeneration #aiart #workflow
3
просмотра
LTX совместно с ElevenLabs представили режим Audio-to-Video, который строит видеогенерацию на основе звука. В отличие от привычных моделей вроде Veo или Kling, где аудио добавляется после генерации и выглядит «приклеенным», здесь звук задаёт структуру всего ролика: ритм речи влияет на темп, музыкальная энергия — на движение камеры, а смена сцен синхронизируется с аудио. Модель работает с референсными изображениями и текстовыми промптами, поддерживает генерацию в 1080p и доступна через API и на GitHub. Такой подход позволяет создавать более естественные и согласованные ролики, где звук и изображение формируют единое целое, а не два отдельно сгенерированных слоя. Технология демонстрирует нестандартное решение в видеогенерации, выходя за рамки традиционных улучшений качества. #ai #aivideo #generativeai #LTXStudio #ElevenLabs #AudioToVideo #videogeneration #aiart #1080p #sounddesign
132
просмотра
На этой неделе популярность набрал мини-сериал про Лану Дубайскую от нейро-креатора Кристины. В отличие от предыдущих фотореалистичных роликов с известными персонажами вроде Трампа или Жигана, новый проект выполнен в стиле Барби и построен вокруг простой, но понятной идеи. Первые серии уже собрали более десяти миллионов просмотров, а последующие ролики стабильно набирают миллионы. Сюжет минималистичен: девушка переезжает из условного Мухосранска в Дубай и сталкивается с новыми правилами, старыми друзьями и узнаваемыми ситуациями. Ключ к успеху сериала — не качество графики, а человеческая история с юмором и самоиронией. Проект показывает, что для AI-креаторов сейчас важнее идея, чем фотореализм, и открывает путь к созданию популярных цифровых брендов на базе контента. #ai #aivideo #generativeai #AIseries #LanaDubai #aiart #digitalcontent #neuralvideo #creativity
7
просмотров
Движение камеры в нейрогенерации это важнейший элемент. Сейчас я вам расскажу как из обычных фото сделать клёвые кадры для ваших видео. Захожу в Syntx, генерация видео, выбираю veo 3.1. Я буду делать ролики 9:16, но также это будет работать с горизонтальным форматам. Выбираю режим Image to Video, загружаю своё фото, сразу обрезаю, вставляю промпт и отправляю на генерацию. Первое движение - Opening Shot. Это Нижний ракурс подчёркивает уверенность персонажа: A cinematic fashion shot taken from a low angle in a photo studio with an orange wall, in which the model is dressed in a beige-gray casual suit and a light brown T-shirt. In the background, an orange-colored wall, sunlight pours from the large windows of the gallery. Второй - Extreme Close Up. Максимальное приближение и фокус на лице, чтобы показать эмоции и подчеркнуть детали: Extreme close-up on the model’s face, capturing the expression. Camera frames eyes, sunglasses, and detailed natural makeup. The studio background is completely blurred with a bokeh effect; faint hints of an orange wall and soft window light shapes in the blur. Третий - High Angle Aerial. Камера перемещается вверх, будто на роборуке, показывает локацию и интерьер, создаёт ощущение простора: High-angle view from the top corner of the photo studio, looking down at the model in a beige-gray casual suit and a light brown T-shirt. Camera glides gently downward, revealing the studio layout: an orange wall, minimal props, and large windows with warm sunlight spilling across the floor. Subtle movement in the fabric as the model holds a clean fashion pose. Четвертый - Slow Zoom. Плавное приближение создаёт интригу и делает кадр более вовлекающим: Slow dolly-in from above toward the model’s face, moving slightly forward and down. Soft reflections appear on the smooth studio floor, while the orange wall and window highlights stay softly blurred in the background. Chic, cinematic lighting with warm sunlight as the key source. Пятый - Drone Shot. Камера будто отлетает на дроне и поднимается вверх, раскрывает масштаб пространства вокруг персонажа и показывает окружение: Drone-style pull-back from a close-up to a full-body frame, rising up to reveal the entire photo studio space: orange wall backdrop, large windows, and a clean minimal set. Camera ascends and zooms out smoothly, emphasizing scale and the geometry of the studio. Шестой - Loop Transition. Камера приближается к персонажу, фокусируясь на нём, затем резко отлетает, открывая пространство вокруг, и снова возвращается: Photorealistic fashion ad sequence in a photo studio: starts with an extreme close-up on the model’s face and sunglasses → rapid zoom-out to full body in a beige-gray casual suit and a light brown T-shirt → smooth aerial/top-down sweep showing the studio layout with an orange wall and sunlit window areas → swoop back to an extreme close-up. Only the camera moves; the model keeps a strong fashion pose throughout. #ai #aivideo #generativeai #SyntxAI #Veo31 #ImageToVideo #cameramovement #videogeneration #aiart #clipvideo
6
просмотров
Krea AI вернула режим Realtime Edit, позволяющий редактировать изображения, видео и даже 3D в почти реальном времени с задержкой в десятки миллисекунд. Любые изменения промпта, перемещение объектов или настройка стиля отображаются мгновенно, как в обычном редакторе, но под капотом работает полноценный генеративный ИИ. Прошлая версия была популярна, но имела два ограничения: высокую стоимость и среднее качество. Сейчас крупные модели лучше понимают промты, корректно работают с референсами и сохраняют детали неизменными, что повышает качество генераций. Новая версия Realtime Edit добавляет поддержку 3D-объектов и использует актуальные модели вроде Flux.Klein или Z-Image Turbo, предлагая быстрое и качественное редактирование с точным контролем. #ai #aivideo #generativeai #KreaAI #RealtimeEdit #3Dediting #videogeneration #aiart #workflow
7
просмотров
Black Forest Labs выкатили FLUX.2 klein и сразу мимоходом разрушили миф про «облегчённые модели». Это не обрезок, это осознанный удар по скорости. Klein заточен под редактирование изображений и делает это почти без задержки. Текст в картинку, правки, несколько рефов — всё меньше секунды, даже на потребительских GPU. Модель вышла сразу в четырёх версиях: 4 и 9 миллиардов параметров, каждая в вариантах Base и Distilled. Base можно дообучать под свои пайплайны, Distilled выжимает максимум скорости из коробки. 4B спокойно влезает в 13 гигов видеопамяти, 9B — около 29. RTX 3090, 4070 или 4090 — и Вы уже в игре. Но ключевое здесь даже не скорость. А то, что веса открыты. Это меняет сам подход к генерации. Вы больше не ждёте результат. Вы буквально думаете визуально в реальном времени, как в графическом редакторе, только без интерфейса. FLUX.2 klein — это не про картинки. Это про новый темп работы AI-креаторов. И к нему придётся привыкать. #ai #generativeai #imagegeneration #BlackForestLabs #FLUX2 #FLUX2klein #opensource #aicreators #diffusion
7
просмотров
Вышла PixVerse R1 и это не просто очередной видеогенератор. Это попытка сделать модель мира. В отличие от Veo или Kling, которые продумывают кадр и рисуют его за 30–50 шагов, PixVerse делает всё за 1–4 шага и сразу выдаёт готовое видео с внутренней логикой происходящего. Самое важное — мир не заканчивается. Сцена продолжается, реагирует на Вас, развивается. Меняете атмосферу, действие, стиль — и всё перестраивается на лету. Видео перестаёт быть файлом. Это уже процесс. Не результат, а поток. По ощущениям, это не генерация, а симуляция. Как если бы кино внезапно получило джойстик. Вы не рендерите ролик, Вы управляете происходящим прямо в моменте. Но давайте честно. Качество пока слабое. Физика кривая, объекты мутируют, картинка плывёт — уровень старых видеогенераторов. Зато ещё несколько месяцев назад было 360p, а сейчас уже 1080. PixVerse R1 важен не тем, что он красивый. А тем, куда он ведёт. От видео как продукта — к видео как живому миру. И это только начало. #ai #generativeai #aivideo #PixVerse #PixVerseR1 #videomodel #simulation #worldmodel #syntheticmedia