Xenon Lab | Наука & Технологии
Иконка канала Xenon Lab | Наука & Технологии

Xenon Lab | Наука & Технологии

106 подписчиков

5
просмотров
Новость о начале производства Tesla Cybercab важна не только как запуск ещё одного электромобиля. По сути, это шаг к модели бизнеса, на которую Илон Маск делает одну из главных ставок последних лет. Cybercab — это двухместный электрокар без руля и педалей, рассчитанный на работу в полностью автономном режиме. Маск сообщил о старте производства, а Reuters ранее отмечал, что Tesla рассматривает Cybercab как основу своей роботакси-стратегии, хотя подход к расширению сервиса стал заметно осторожнее, чем в прежних обещаниях компании. Смысл проекта в том, что Tesla хочет продавать не только сами автомобили, но и доступ к автономной транспортной платформе. Если идея сработает, компания сможет зарабатывать на поездках, подписках и программной экосистеме, а не только на разовой продаже машин. Именно поэтому Cybercab — это стратегически куда более важный продукт, чем просто ещё одна модель в линейке Tesla. При этом массовый успех будет зависеть не только от производства, но и от качества автономного вождения, скорости сертификации и того, насколько быстро Tesla сможет расширить допуск роботакси в разных штатах и регионах. Также важно понимать, что запуск производства не означает мгновенного выхода на полноценный массовый рынок. Reuters прямо писал, что Tesla использует более осторожный тон в вопросе роботакси и планирует масштабирование постепенно. Это делает текущую новость скорее подтверждением реального движения проекта вперёд, чем финальным доказательством того, что вся бизнес-модель уже состоялась. Но даже в таком виде запуск Cybercab выглядит серьёзным этапом: Tesla показывает, что проект не остался концептом и уже переходит в производственную фазу.
3
просмотра
История Avalanche Energy интересна не только как ещё одна новость про финансирование стартапа. Здесь важен сам вектор: DARPA поддерживает технологию, которая может дать компактные и долговечные источники питания для систем, где традиционная энергетика не справляется. По данным GeekWire, сиэтлский стартап получил долю в контракте на $5,2 млн по программе Rads to Watts, рассчитанной на разработку следующего поколения ядерных батарей для оборонных и космических применений. Технологически компания делает ставку на radiovoltaics — преобразование энергии радиоактивного распада в электричество с помощью полупроводниковых ячеек. Это похоже на работу солнечной панели, только здесь вместо света используются альфа-частицы. Проблема классических radiovoltaic-решений в том, что они обычно малоэффективны и быстро деградируют под действием собственного излучения. TechCrunch отдельно отмечает, что Avalanche хочет решить именно эту задачу, разрабатывая новый класс материалов, которые смогут лучше выдерживать радиационную нагрузку и эффективнее забирать из неё энергию. Практический интерес очень понятен. DARPA и Пентагон смотрят на такие батареи как на источник энергии для космических аппаратов, спутников, автономных платформ и миссий, где подзарядка невозможна, а солнечная генерация работает не всегда. В публичных материалах упоминается цель дойти до устройств, способных обеспечивать ноутбук-класс нагрузки месяцами, что делает проект заметно более амбициозным, чем привычные микромощные радиоизотопные источники питания. Для самой Avalanche проект тоже стратегически важен. Компания вообще выросла как fusion-стартап, а ядерные батареи для неё — это ещё один путь научиться эффективно извлекать энергию из ядерных процессов. В феврале 2026 года она уже объявила о раунде $29 млн, доведя общий объём привлечённых средств до более $105 млн. Параллельно компания работает и над материалами для экстремальных условий, и над технологиями для космической тяги, и над собственной fusion-инфраструктурой. Всё это делает её не узкой “батарейной” компанией, а более широкой deep-tech платформой вокруг компактной ядерной энергетики.
2
просмотра
Анонс Nvidia Ising интересен не только потому, что компания вышла на новую тему, а потому что она выбрала одно из самых узких мест всей квантовой индустрии: калибровку процессоров и квантовую коррекцию ошибок. Именно эти две задачи сегодня мешают квантовым системам перейти от лабораторных демонстраций к реально устойчивым и полезным вычислениям. Nvidia представила Ising как первое открытое семейство AI-моделей, специально ориентированное на эти процессы. Запуск включает два направления: Ising Calibration и Ising Decoding. Ising Calibration — это 35B vision-language модель, которая обучена читать экспериментальные данные с квантового процессора и предлагать действия по его настройке. Nvidia пишет, что в связке с агентным workflow это может превратить калибровку из многодневной ручной или полуавтоматической процедуры в процесс, занимающий часы, а не дни. Ising Decoding решает другую задачу: быстро обрабатывать синдромы ошибок для квантовой коррекции. Для этого используются два варианта 3D-CNN-моделей — один заточен под скорость, второй под точность. По заявлениям Nvidia, Ising Decoding даёт до 2,5x ускорения и до 3x роста точности по сравнению с pyMatching, который сейчас широко используется как открытый отраслевой стандарт. Также компания открыла не только веса и модели, но и frameworks, benchmarks, datasets и deployment workflows, чтобы исследовательские группы могли дообучать решения под конкретные коды коррекции ошибок, расстояния кодов и профили шума. Это делает Ising не просто одной моделью, а полноценным рабочим стеком для интеграции AI в управление квантовыми системами. Отдельно важно, что Nvidia таким образом усиливает своё присутствие в квантовом секторе, не производя собственные квантовые процессоры. Компания делает ставку на классическую часть гибридной системы: GPU, интерконнекты и программный стек, через которые будут проходить калибровка, декодирование и управление QPU. Это очень типичная стратегия Nvidia: открыть модели, но встроить их в инфраструктуру, где роль GPU остаётся ключевой.
4
просмотра
История со Stargate UK важна не только как новость про OpenAI, а как очень показательный сигнал для всей AI-инфраструктуры. Reuters сообщает, что компания поставила на паузу свой основной британский дата-центровый проект, потому что столкнулась с двумя фундаментальными ограничениями: высокими ценами на электроэнергию и неподходящей регуляторной средой. Для рынка это особенно важно, потому что Stargate UK задумывался не как эксперимент, а как заметная часть более широкой британской ставки на ИИ. Проект был анонсирован в 2025 году как совместная инициатива OpenAI, Nscale и Nvidia. На первом этапе OpenAI рассчитывала получить около 8 000 GPU, а затем при благоприятных условиях расшириться до 31 000. Предполагалось, что эти вычислительные мощности будут использоваться для локального запуска моделей OpenAI внутри Великобритании — в сферах, где особенно важны суверенные вычисления, государственные сервисы, регулирование и чувствительные сценарии применения ИИ. Но на практике проект упёрся в ту же проблему, с которой сейчас сталкивается всё больше AI-объектов: вычисления становятся настолько энергозатратными, что ключевым ресурсом оказывается уже не только доступ к GPU, а возможность дёшево и быстро подключиться к энергосистеме. На это накладывается и британский регуляторный фон. Параллельно обсуждались споры вокруг правил авторского права и использования контента для обучения моделей, а Reuters и другие источники отмечают, что OpenAI хочет вернуться к Stargate UK только тогда, когда условия станут достаточно стабильными для долгого инвестиционного цикла. Обсуждение будущего проекта с Nscale, по сообщениям, всё ещё продолжается. Это делает историю особенно показательной на фоне глобальной гонки AI-дата-центров. В январе Reuters писал, что OpenAI даже запустила отдельный подход Stargate Community, в котором обещала “оплачивать свою энергию” и не повышать расходы местных сообществ. Сам факт появления такой политики говорит о том, что энергетика уже стала одним из главных условий размещения AI-инфраструктуры. Поэтому пауза Stargate UK — это не локальный эпизод, а предупреждение для всех стран, которые хотят стать центрами развития искусственного интеллекта: без дешёвой энергии, сетей и понятных правил даже самый громкий AI-проект может зависнуть.
3
просмотра
Появление первого физического образца Tesla AI5 — это важный сигнал о том, что компания движется дальше по пути глубокой вертикальной интеграции в вычислительном железе. Маск показал фото одного из ранних модулей AI5 и заявил, что чип ориентирован на несколько направлений сразу: будущие автомобили Tesla, гуманоидных роботов Optimus и, возможно, более широкий ИИ-контур, связанный с xAI. По его словам, новый процессор в отдельных сценариях способен дать до 40 раз больше производительности, чем AI4, но это пока именно внутренняя оценка Tesla, а не результат независимых сравнительных тестов. С технической точки зрения образец интересен своей компоновкой. Судя по фотографии и анализу Tom’s Hardware, модуль включает крупный ASIC-кристалл и 12 микросхем памяти SK hynix. Это намекает на очень широкий интерфейс памяти и высокий уровень пропускной способности, который может быть критически важен для работы с более тяжёлыми нейросетями в FSD-системах, роботах и дата-центрических задачах. Ещё одна деталь — Маск поблагодарил Samsung и по ошибке написал TSC, что почти наверняка означает TSMC. Это хорошо совпадает с предыдущими сообщениями Reuters о том, что Tesla сотрудничает сразу с TSMC и Samsung по AI5 и одновременно развивает более крупную собственную полупроводниковую инициативу Terafab. По срокам картина пока выглядит так: на чипе есть маркировка, указывающая на упаковку в начале 2026 года, а отраслевые публикации рассматривают 2027 год как реалистичное окно для выхода AI5 в более прикладную фазу. Параллельно Tesla уже упоминает AI6 и Dojo 3, что показывает: компания строит не один разовый чип, а длинную вычислительную дорожную карту на годы вперёд. Это особенно важно, потому что Tesla всё сильнее зависит от собственного silicon-стека в автопилоте, роботах и будущей AI-инфраструктуре. На этом фоне AI5 — уже не просто очередное обновление процессора. Это задел под следующую фазу аппаратной независимости Tesla, где свои чипы становятся таким же стратегическим активом, как батареи, силовая электроника и производство машин.
5
просмотров
История Portal Space Systems интересна не только из-за свежих $50 млн инвестиций, а потому что компания пытается атаковать одну из самых давних проблем космической техники — медленную манёвренность спутников и орбитальных аппаратов. По данным TechCrunch, GeekWire и SpaceNews, Portal строит платформы, которые должны менять положение на орбите намного быстрее привычных систем, используя солнечно-тепловую тягу вместо классической химической или электрореактивной схемы. Раунд серии A оценил компанию примерно в $250 млн и должен помочь ей перейти в более производственную фазу. Технологически идея выглядит так: система концентрирует солнечный поток, нагревает аммиачное топливо и превращает его в источник тяги. В отличие от многих электрических двигателей, где эффективность высока, но тяга сравнительно мала, Portal делает ставку именно на сочетание достаточной мощности и более быстрой реакции на задачу. Поэтому компания говорит не просто о “ещё одном спутниковом двигателе”, а фактически о платформе для быстрого перепозиционирования, оперативного сближения, задач space domain awareness, удаления мусора и защиты космической инфраструктуры. Развитие строится по понятной лестнице. Первый аппарат Starburst-1 уже заявлен на миссию SpaceX Transporter-18 в Q4 2026. Он должен показать ключевые возможности: сближение, proximity operations, быструю перенастройку задач и заметную орбитальную подвижность. Следом идёт более серьёзная платформа Supernova, нацеленная на 2027 год. Portal подчёркивает, что между двумя аппаратами более 80% общих систем, а это снижает риски и ускоряет перенос наработок с одной миссии на другую. Помимо частных инвестиций, компания ранее получила и стратегическое финансирование от Министерства обороны США в размере $45 млн, что подчёркивает высокий интерес к манёвренным аппаратам со стороны оборонного сектора. Отдельно важно, что Portal уже думает не только о демонстрациях, но и о производстве. По данным отраслевых публикаций, компания строит новый объект площадью около 52 000 кв. футов и собирается нарастить команду примерно с 40 до 100 человек. Это уже выглядит не как лабораторный эксперимент, а как попытка создать новую категорию космических аппаратов — более быстрых, более гибких и лучше приспособленных к насыщенной и конкурентной орбитальной среде.
5
просмотров
Проект на станции Хацусима в Японии интересен не только как красивая технологическая новость, а как реальная демонстрация того, как 3D-печать начинает менять инфраструктурное строительство. По данным JR West и публикаций о проекте, новое здание станции было создано из четырёх 3D-печатных модулей, изготовленных вне площадки, а затем собрано ночью в коротком временном окне между поездами. Именно это и делает кейс особенно важным: движение на линии практически не пришлось останавливать, а сама замена старой постройки заняла часы, а не месяцы. Здание небольшое — около 10 квадратных метров, но его задача не в масштабе, а в демонстрации новой модели строительства. В обычном железобетонном варианте объект такого класса, по оценкам участников, потребовал бы от одного до двух месяцев, тогда как новая технология позволила уместить монтаж в одну ночь. Дополнительно проект показал и экономический плюс: отраслевые публикации указывают, что стоимость могла составить примерно половину от традиционного строительства. Для железнодорожных операторов это особенно важно, потому что у них много небольших старых станций, модернизация которых по классической схеме слишком долгая и дорогая. Отдельный интерес вызывает и контекст. JR West тестирует технологию на прибрежной станции, чтобы понять, как конструкция будет вести себя в условиях морского воздуха и реальной эксплуатации. Если эксперимент признают удачным, такой подход может выйти далеко за пределы одной линии: 3D-печать может оказаться особенно полезной для остановок, павильонов, небольших вокзальных зданий и другой типовой инфраструктуры, где скорость монтажа и снижение затрат часто важнее архитектурной сложности.
2
просмотра
История вокруг Rubin Ultra хорошо показывает, в каком направлении сейчас упирается вся индустрия AI-железа. Речь уже не только о том, сколько транзисторов можно уместить в новый GPU, а о том, можно ли вообще физически собрать такой чип, обеспечить приемлемый выход годных и не утонуть в цене advanced packaging. По данным тайваньского издания Ctee, NVIDIA якобы рассматривает отказ от сверхсложного Rubin Ultra в изначальном виде и может заменить его системой из двух обычных Rubin на одной плате. Но здесь очень важно быть точными: официального подтверждения этой смены курса NVIDIA пока не давала. На официальном уровне NVIDIA продолжает продвигать платформу Rubin как следующий большой этап своей AI-стратегии. В материалах компании Rubin подаётся как ключевая основа следующего поколения AI-суперкомпьютеров, а Reuters ещё раньше писал, что в серверах поколения Rubin Ultra планируется использовать чипы с крайне сложной многокристальной структурой. Одновременно Reuters указывал и на общий фон: у TSMC и рынка в целом именно упаковка всё чаще становится ограничителем для новых ускорителей, потому что даже если сами кристаллы можно изготовить, их объединение в один сверхбольшой вычислительный модуль оказывается отдельной инженерной битвой. Если сообщения о пересмотре верны, то логика NVIDIA вполне понятна. Взять два уже существующих или более реалистичных Rubin и объединить их на плате — это потенциально менее рискованный путь, чем бороться за выпуск почти монструозного Ultra-решения с ещё большей площадью, сложностью разводки, теплопакетом и требованиями к межсоединениям. Да, при таком подходе часть преимуществ единого гигантского чипа может теряться, например по задержкам или по плотности компоновки. Но в обмен компания может получить лучшее соотношение цены, выхода годных и скорости вывода продукта на рынок. На фоне того, что Reuters в марте 2026 года уже сообщал о перераспределении мощностей TSMC в пользу Vera Rubin, становится видно, насколько сильно NVIDIA сейчас сосредоточена на следующем поколении платформ. Именно поэтому любые слухи о Rubin Ultra вызывают такой резонанс: речь идёт не просто о ещё одном GPU, а о ключевой ступени всей следующей AI-инфраструктуры компании.
2
просмотра
История с памятью для искусственного интеллекта становится всё интереснее: теперь главный риск для расширения производства связан не только с самими чипами, а с инфраструктурой, которая должна питать новые fab-площадки. По данным Tom’s Hardware, новый завод Micron в Сингапуре может потребовать 400–500 силовых трансформаторов, что больше, чем способен выпустить за год любой отдельный тайваньский производитель такого оборудования. Одновременно Reuters ранее сообщал, что этот проект стоимостью $24 млрд должен начать выпуск продукции во второй половине 2028 года и является частью более широкой глобальной экспансии Micron на фоне AI-бума. Проблема в том, что память для AI-серверов сейчас расширяют сразу несколько гигантов: Micron, Samsung и SK hynix строят новые мощности на разных континентах, и всем им нужны не только литографы, материалы и упаковка, но ещё и тяжёлое электрооборудование. При этом те же трансформаторы параллельно поглощают дата-центры, проекты по хранению энергии и модернизация энергосетей. В результате поставщики уже подняли цены примерно на 20–30%, а часть компаний избегает крупных полупроводниковых заказов, потому что не уверена, что сможет выполнить их в срок. Эта история особенно чувствительна именно для рынка AI, потому что память уже стала одним из его самых дорогих и дефицитных компонентов. По данным Tom’s Hardware со ссылкой на SemiAnalysis, в 2026 году память может занять около 30% расходов hyperscaler-компаний на AI-дата-центры, а дефицит HBM и рост ASP уже заметно перекраивают экономику вычислительных кластеров. Если новые заводы памяти будут вводиться с задержками из-за энергетической инфраструктуры, это продлит дефицит и усилит давление на цены ещё сильнее. На этом фоне становится ясно, что современная полупроводниковая гонка — это уже не только борьба технологий на кристалле, но и гонка за реальными мегаваттами, подключениями, подстанциями и оборудованием. Именно трансформаторы внезапно превращаются в один из самых недооценённых факторов всей AI-экономики.
17
просмотров
С анонсом MISSION 1 GoPro явно пытается изменить восприятие собственного бренда. Теперь это не только камеры для экстрима, шлемов и креплений, но и серьёзный заход в сторону компактного профессионального видеопроизводства. По официальным материалам GoPro, вся серия построена вокруг нового 50-МП 1-дюймового сенсора и процессора GP3, который должен дать улучшенную работу при слабом свете, до 14 стопов динамического диапазона и более высокую стабильность при длительной записи. По возможностям видео новые камеры выглядят очень сильно. Базовая MISSION 1 снимает до 8K30, 4K120 и 1080p240, а модели MISSION 1 PRO и PRO ILS предлагают уже 8K60, 4K240 и 1080p960 в коротких сериях, плюс 1080p480 для длинного slow motion. Все версии поддерживают Open Gate, а старшие модели умеют писать 8K30 и 4K120 с использованием полноразмерного сенсора 4:3. Это важный шаг, потому что такие режимы уже делают MISSION 1 конкурентом не только среди экшн-камер, но и в нише компактных камер для создателей контента. Главная интрига линейки — MISSION 1 PRO ILS, в которой GoPro впервые предлагает систему со сменными объективами Micro Four Thirds. Это уже совсем другой уровень гибкости для съёмки: пользователь может подбирать оптику под задачу, а не ограничиваться одной встроенной линзой. При этом вся серия остаётся защищённой: заявлена водонепроницаемость до 20 метров без бокса, а с дополнительным кейсом — до 60 метров. Также камеры получили 32-битную запись звука, поддержку высоких битрейтов, новый аккумулятор Enduro 2 и расширенную совместимость с аксессуарами для блогинга и продакшна. Отдельно стоит отметить сроки: по данным The Verge, MISSION 1 и MISSION 1 PRO стартуют 28 мая 2026 года, а MISSION 1 PRO ILS ожидается в третьем квартале 2026 года. Цены в первых материалах были не везде раскрыты, поэтому главный разговор пока идёт не столько о стоимости, сколько о самом масштабе шага GoPro в новый сегмент.
8
просмотров
Две новые работы исследовательской группы из University of Oulu дают гораздо более детальную картину того, что происходит с мозгом во сне. Учёные использовали сверхбыструю магнитно-резонансную энцефалографию MREG, электроэнцефалографию и оптические методы регистрации, чтобы без контрастных веществ и в реальном времени увидеть, как меняется движение жидкостей, сосудистые пульсации и электрическая активность мозга у здоровых добровольцев в состоянии бодрствования и сна. По данным университета, такой подход позволяет отслеживать усиленное движение мозговых жидкостей быстро и безопасно. Первая важная находка состоит в том, что во сне заметно меняется скорость физиологических пульсаций. В работе в Advanced Science показано, что респираторные пульсации ускоряются примерно на 29%, а вазомоторные — примерно на 21%, тогда как кардиальные пульсации замедляются. Это, по интерпретации авторов, создаёт более подходящие условия для фильтрации воды в ткани мозга и усиления циркуляции спинномозговой жидкости. Во второй работе, опубликованной в PNAS, исследователи обнаружили, что во сне нейронная активность, кровоток и гидродинамика начинают взаимодействовать иначе: вместо более линейной схемы бодрствования система становится заметно более двусторонней, а медленные сосудистые волны начинают сильнее влиять на саму мозговую активность. Это важно потому, что накопление метаболических отходов в мозге давно связывают с возрастными нарушениями и ухудшением когнитивных функций. Университет Оулу прямо пишет, что новые методы могут открыть возможности для наблюдения за возрастными изменениями динамики мозговой жидкости и, потенциально, для будущих подходов к мониторингу нейродегенеративных заболеваний. При этом речь пока не идёт о новом лечении: это именно фундаментальный шаг к более точному измерению того, как сон поддерживает гомеостаз мозга у человека. В ролике разберём, как работает MREG, почему медленные сосудистые волны стали ключом к “очистке мозга” и что это значит для понимания сна, памяти и старения.
4
просмотра
DJI выпустила Osmo Pocket 4, и на первый взгляд это не революция по корпусу, а очень точная настройка того, что уже хорошо работало в прошлой модели. Камера по-прежнему остаётся компактной, устанавливается на моторизированный подвес и ориентирована на тех, кому нужен быстрый запуск, хорошая стабилизация и качественная картинка без необходимости таскать большую систему. Но внутри появились важные улучшения: 1-дюймовый сенсор нового поколения, 14 стопов динамического диапазона, 4K slow motion до 240 fps, фото до 37 мегапикселей и встроенная память на 107 ГБ. С точки зрения практики это делает Pocket 4 особенно интересной для уличной съёмки, travel-контента, блогов, коротких вертикальных видео и живых репортажных вставок. DJI также обновила управление: у камеры теперь 2-дюймовый OLED-дисплей, дополнительные кнопки в горизонтальном режиме, новый 5D-джойстик и улучшенная система ActiveTrack 7.0, которая умеет держать в кадре людей, животных и транспорт даже при использовании зума. Дополняют это film tone filters, встроенные beauty-режимы и новый магнитный световой аксессуар в старшем комплекте. По цене модель выходит в Европе и Великобритании в трёх наборах — от £429 / €479 до £549 / €619. При этом DJI прямо говорит, что официальный запуск в США пока не состоится из-за незавершённой процедуры авторизации. Поэтому для части аудитории главный вопрос будет не только в том, лучше ли Pocket 4 снимает, но и в том, насколько она доступна в конкретном регионе. На фоне роста конкуренции в сегменте компактных камер DJI снова делает ставку не просто на “маленькую камеру”, а на удобный инструмент для контент-мейкеров, который достал — и сразу снимаешь. Именно это и делает Osmo Pocket 4 потенциально очень сильным игроком в нише карманного видеопродакшна.
2
просмотра
Работа исследователей из Shenzhen International Quantum Academy важна не только из-за громкого заголовка про “первый в мире” кремниевый квантовый процессор с элементами fault-tolerant вычислений. Главная ценность в том, что в платформе на основе донорных спиновых кубитов в кремнии удалось продемонстрировать то, что долго считалось особенно трудным именно для silicon-based квантовых систем: логические кубиты и универсальные логические операции с обнаружением ошибок. Результаты опубликованы в Nature Nanotechnology и показывают, что кремний начинает догонять более зрелые квантовые платформы не только по отдельным вентилям, но и по логическому уровню управления. Чип построен на пяти фосфорных донорных спинах, встроенных в изотопно очищенный кремний-28 с атомарной точностью. Из них были сформированы два логических кубита, на которых исследователи выполнили полный универсальный набор операций, включая T-гейт. Это особенно важно, потому что именно универсальность логических операций отделяет демонстрацию отдельных квантовых эффектов от более серьёзного шага в сторону полноценной квантовой вычислительной архитектуры. Дополнительно команда показала выполнение квантового алгоритма для расчёта основного состояния молекулы воды, что подтверждает прикладной характер подхода. Отдельная сильная сторона этой новости — сама платформа. Кремниевые кубиты давно рассматриваются как один из самых перспективных путей к массовому квантовому железу, потому что они лучше совместимы с инфраструктурой существующего полупроводникового производства. В отличие от многих других платформ, здесь есть шанс когда-нибудь использовать накопленный опыт CMOS-индустрии, фабрик и интеграции управляющей электроники. Но важно не переоценивать результат: на данном этапе речь идёт о детекции ошибок, а не о полном исправлении ошибок на масштабной машине, и исследователям ещё предстоит бороться с перекрёстными помехами, точностью атомарной сборки и расширением числа кубитов. Тем не менее сам факт, что в кремнии теперь продемонстрирован полный логический стек — от кодирования и вентилей до маленького алгоритма, — делает эту работу одной из самых интересных в кремниевой квантовой гонке за последнее время.
3
просмотра
ИИ всё активнее становится частью повседневной работы, и теперь полезные инструменты появляются прямо в браузере. Алиса AI, встроенная в Яндекс Браузер умеет пересказывать исследования, разбирать сложные документы, анализировать лекции, выделять главное, находить важные цитаты и даже искать дополнительные источники по теме. Это очень удобно, в режиме сплитвью нейросеть помогает получать весь контекст страницы и работать с материалом глубже и быстрее, не переключая вкладки браузера. Особенно интересен такой формат тем, кто много работает с информацией. Студентам он может помочь при подготовке к курсовым, дипломам, конспектам и анализу научных текстов. Тем, кто занят в медиа, маркетинге, образовании, аналитике или редактуре, такой помощник может заметно сократить время на первичный разбор больших массивов данных. Когда нейросеть не просто отвечает в чате, а видит сам документ, взаимодействие становится более прикладным и удобным. Но ещё важнее другой момент: подобные инструменты формируют новый стиль мышления. Пользователь перестаёт быть просто потребителем сервисов и начинает собирать собственные решения под конкретную задачу. Это уже не только про пересказ текста, а про способность быстро проектировать личную систему работы, обучения и автоматизации. Именно в этом и проявляется современное AI-мышление — когда ты не ищешь готовый шаблон, а создаёшь свой рабочий процесс сам. #АлисаAI #ЯндексБраузер #нейросеть #искусственныйинтеллект #AI #учеба #работа #студентам #продуктивность #автоматизация #технологии #ииинструменты #обучение #digital #полезныесервисы
2
просмотра
Когда Intel выпустила первые Pentium 60 и Pentium 66 22 марта 1993 года, это был не просто очередной релиз процессора. Компания фактически показала, каким будет следующий этап развития массовых ПК. По данным Tom’s Hardware, Pentium стал первым x86-чипом Intel пятого поколения с архитектурой P5, выполненным по 800-нм техпроцессу и содержащим 3,1 млн транзисторов. Именно он открыл эру, в которой персональный компьютер начал восприниматься как действительно мощная универсальная платформа для дома и офиса. Технологически Pentium был очень важен. Он стал первым суперскалярным процессором Intel, способным выполнять несколько инструкций за цикл, и объединил в себе ряд решений, которые для начала 1990-х выглядели по-настоящему серьёзным скачком: on-chip cache, 64-битную шину данных, улучшенный FPU и динамическое предсказание ветвлений. За счёт этого Pentium заметно превосходил i486, особенно в вычислениях с плавающей точкой. Фактически именно Pentium помог закрепить за Intel имидж компании, которая задаёт направление для всего рынка ПК. Но с этой линейкой связана и одна из самых известных ошибок в истории микроэлектроники — баг FDIV. В 1994 году он привёл к громкому кризису, масштабному отзыву чипов и затратам Intel примерно в $475 млн. История стала уроком не только для самой Intel, но и для всей индустрии, показав, насколько критичными стали доверие пользователей и прозрачность коммуникации в эпоху массовых компьютеров. И всё же даже этот скандал не смог перечеркнуть значение Pentium: процессор остался фундаментом для целого поколения систем, а затем получил развитие в линейках P54C и последующих моделях. Сегодня Pentium — это уже не просто название старого CPU, а исторический символ эпохи, когда компьютеры начали стремительно превращаться из нишевых машин в повседневный инструмент миллионов людей. И именно поэтому его 33-летие — хороший повод вспомнить, как один процессор смог изменить весь рынок.
1
просмотр
Проект Terafab, о котором сообщил Reuters со ссылкой на заявления Илона Маска, выглядит как попытка создать новую вертикаль внутри всей экосистемы его компаний. Tesla и SpaceX хотят не просто покупать готовые чипы у подрядчиков, а со временем взять под контроль собственное производство критически важной вычислительной базы для автомобилей, роботов и космических систем. По данным Reuters, проект нацелен на выпуск примерно 1 тераватта вычислительной мощности в год, а производственные площадки планируются в Остине, штат Техас. Это важно потому, что спрос на AI-чипы продолжает расти быстрее, чем успевают расширяться глобальные мощности. Маск прямо связывает Terafab с будущими потребностями Tesla Optimus, автономного транспорта, вычислительных систем xAI и орбитальных дата-центров SpaceX. Такой подход отличается от классической зависимости от TSMC, Samsung или других контрактных производителей: здесь ставка делается на более глубокую интеграцию логики, памяти и advanced packaging в одном большом производственном контуре. Отдельный поворот — участие Intel. Reuters сообщил, что Intel официально присоединилась к инициативе и поможет с производственными компетенциями. Это может означать, что Terafab не будет классическим “чистым” проектом Tesla, а станет смесью амбициозной вертикальной интеграции и партнёрства с уже существующим индустриальным игроком. Но при этом важно помнить: даже при громких заявлениях пока остаётся много неизвестного — точные сроки, объёмы ввода мощностей, ноды, модель поставок и реальная экономика проекта ещё не раскрыты полностью. В ролике разберём, что именно известно о Terafab, насколько реалистична цель в 1 тераватт вычислительной мощности в год и сможет ли этот проект стать новым центром притяжения для AI-чипов, робототехники и космической инфраструктуры.
2
просмотра
Разработка команды из Seoul National University и Drexel University интересна не только тем, что дисплей можно растягивать. Ключевая ценность в другом: обычно инженерам приходилось выбирать между высокой яркостью и хорошей растяжимостью, потому что одно почти всегда ухудшало другое. В новом устройстве удалось совместить оба свойства за счёт прозрачного электрода на основе MXene и серебряных нанопроволок, а также новой архитектуры органических слоёв. Это позволило создать полностью растягивающийся OLED, который показывает стабильную работу даже при очень больших механических деформациях. По данным исследователей, устройство выдерживает растяжение до 200% и достигает рекордной внешней квантовой эффективности 17%, что для полностью растягивающихся светоизлучающих устройств считается очень высоким результатом. Отдельно подчёркивается, что MXene-слой толщиной около 10 нм помогает не только сохранить гибкость электрода, но и улучшить инжекцию электронов в светоизлучающий слой. А дополнительные органические прослойки направляют положительные заряды и помогают перерабатывать часть потерянной энергии, тем самым увеличивая общую яркость и эффективность. Перспективы у такой технологии очень широкие: от носимой электроники и кожных медицинских датчиков до промышленной автоматизации и мягкой робототехники. Но до коммерческого применения ещё нужно решить несколько сложных задач. Внешние эксперты указывают на необходимость долговечной защиты от кислорода и влаги, повышения стабильности свечения во времени и устранения искажений изображения при сильном растяжении. Именно эти проблемы сегодня отделяют красивые лабораторные результаты от массового продукта. В ролике разберём, почему MXene стал таким важным материалом для OLED, что именно даёт рекордная эффективность 17% и в каких устройствах эластичные дисплеи могут появиться раньше всего.
3
просмотра
Новость о первом квантовом аккумуляторе звучит почти фантастически, но в данном случае за громкой формулировкой стоит реальная экспериментальная работа. Исследователи из CSIRO, RMIT University и University of Melbourne сообщили о создании первого proof-of-concept устройства, которое может пройти полный цикл квантового накопления энергии: зарядиться, удержать запасённую энергию и затем отдать её наружу. Результаты опубликованы в Light: Science & Applications, где авторы описывают микрорезонаторную архитектуру, в которой световая энергия преобразуется в электрический ток благодаря сильной связи света и вещества. Суть работы в том, что это не химическая батарея в привычном понимании. Здесь используются квантовые коллективные эффекты, из-за которых система может демонстрировать так называемое superextensive поведение: чем больше активных поглощающих элементов, тем быстрее идёт зарядка. В статье показано, что устройство заряжается на фемтосекундных временных масштабах, а затем переводит энергию в метастабильное состояние, которое сохраняется на наносекундном масштабе — это на шесть порядков дольше времени зарядки. При этом команда также продемонстрировала вывод энергии в виде электрической мощности, а не только сам факт поглощения света. Но до практической революции ещё далеко. Ёмкость прототипа пока очень мала, а время хранения энергии остаётся коротким. Поэтому говорить о мгновенно заряжаемых телефонах или электромобилях пока преждевременно. Зато этот результат важен как доказательство принципа: квантовая батарея может быть не просто теоретической моделью, а реально работающим устройством. Именно поэтому CSIRO и университетские партнёры называют работу шагом к новым системам сверхбыстрой зарядки, беспроводной передаче энергии и будущим квантовым энергетическим устройствам. В ролике разберём, как работает квантовый аккумулятор, что именно удалось показать австралийским исследователям и почему этот результат может стать фундаментом для новой энергетической архитектуры в технологиях будущего.
4
просмотра
Решение Google Quantum AI расширить свою квантовую программу за счёт нейтральных атомов — это один из самых показательных шагов на рынке квантовых вычислений в 2026 году. Компания, которая долгое время ассоциировалась прежде всего со сверхпроводящими кубитами и именно на этой платформе добилась своих самых известных результатов, теперь официально запускает второе направление. В Google считают, что развитие двух разных модальностей одновременно позволит быстрее прийти к практически полезным системам и эффективнее использовать сильные стороны каждой архитектуры. Сверхпроводящие кубиты хороши там, где важны скорость операций и глубокие квантовые схемы: по данным Google, они уже масштабировались до алгоритмов с миллионами циклов вентилей и измерений. Нейтральные атомы, наоборот, выделяются возможностью строить массивы примерно на десять тысяч кубитов, более гибко связывать элементы между собой и получать времена когерентности в масштабе миллисекунд. Проще говоря, одна технология лучше показывает себя в глубине вычислений, а другая — в масштабе и пространственной организации системы. Именно эту связку Google и хочет превратить в преимущество. Новая программа будет строиться вокруг трёх направлений: специализированной квантовой коррекции ошибок, моделирования и симуляции с помощью инфраструктуры Google, а также создания экспериментального аппаратного обеспечения. Руководить новым hardware-направлением в Боулдере будет доктор Адам Кауфман, исследователь из мира атомной и оптической физики, связанный с JILA и Университетом Колорадо. Это подчёркивает, что Google не просто тестирует идею, а формирует долгосрочную команду внутри одного из сильнейших квантовых экосистемных кластеров США. В ролике разберём, почему Google не ограничилась сверхпроводниками, чем нейтральные атомы интересны индустрии и как такая двойная стратегия может повлиять на гонку за полезным квантовым компьютером.
6
просмотров
Разработка китайских исследователей вокруг сплава EuCo₂Al₉ выглядит особенно интересной не только из-за достигнутой температуры, но и из-за самой инженерной логики решения. По данным профильных публикаций, материал в составе компактного твердотельного холодильного модуля смог обеспечить охлаждение до 106 милликельвин без использования гелия-3 — редкого изотопа, который давно считается одним из ключевых ограничивающих ресурсов для сверхнизкотемпературной криогеники. Технология основана на адиабатическом размагничивании. В таком подходе магнитные моменты в материале сначала выстраиваются под действием магнитного поля, а затем при его снятии начинают поглощать тепло, тем самым понижая температуру системы. Проблема старых ADR-материалов заключалась в том, что они были не слишком эффективны именно как промежуточное звено для охлаждения других компонентов. У EuCo₂Al₉, как сообщается, теплопроводность на экстремально низких температурах на один-два порядка выше, чем у традиционных магнитных холодильных материалов, и именно это делает сплав особенно перспективным для практических применений. Если такая технология действительно окажется масштабируемой, она может повлиять сразу на несколько направлений: квантовые компьютеры, сверхпроводящую электронику, сенсоры, космические системы и специализированную аппаратуру, где нужны субкельвиновые режимы. Отдельно важно, что DARPA в начале 2026 года тоже объявляло поиск модульных криосистем без гелия-3, а это значит, что мировой спрос на такие решения уже стал стратегическим.