Enclava
← Блог6 мин

AI-новости 11 апреля 2026: Anthropic строит чипы, а Claude идёт к психиатру

Дайджест новостей искусственного интеллекта: Anthropic разрабатывает собственные чипы, Alibaba выпускает видео-модель, а Meta тратит $21B на инфраструктуру.

AI-новости 11 апреля 2026: Anthropic строит чипы, а Claude идёт к психиатру

Пока мир следит за очередными релизами моделей, индустрия искусственного интеллекта тихо меняет правила игры. Anthropic решила, что зависеть от Nvidia – прошлый век, и занялась собственными чипами. Meta подписала контракт на $21 миллиард (да, с буквой B), а Claude теперь проходит психиатрическую оценку, как будто проблемы AI можно решить сеансами терапии. Спойлер: некоторые новости мы пропустили, но сегодня разберём всё по полочкам.

Anthropic идёт в железо: собственные чипы как новая религия

Что случилось: Anthropic, компания, подарившая миру Claude, теперь изучает возможность создания собственных AI-чипов. Это не просто слухи – это стратегический поворот к вертикальной интеграции, который может изменить расклад сил в AI-индустрии.

Почему это важно: Годами компании в сфере машинного обучения жили по правилам Nvidia. Хочешь тренировать модель? Покупай H100. Нужна инференс? Опять к Nvidia. Зависимость достигла абсурдных масштабов: дефицит чипов, астрономические цены, очереди на год вперёд. Anthropic, похоже, устала ждать.

Создание собственного железа – это путь Google (TPU), Amazon (Trainium), Apple (серия M/A). Вертикальная интеграция позволяет оптимизировать софт под hardware, снизить издержки и, главное, перестать зависеть от монополиста. Но есть нюанс: разработка чипов – это миллиарды долларов инвестиций, годы R&D и риск полного провала. Спросите Intel, как им живётся.

Наш взгляд: Anthropic – не первопроходец, но и не аутсайдер. Если у них действительно есть амбиции конкурировать с OpenAI и Google в долгосрочной перспективе, собственное железо – логичный шаг. Вопрос только в том, хватит ли ресурсов и экспертизы. Или это окажется очередной попыткой tech-компании доказать, что она «умеет в hardware», которая закончится тихим сворачиванием проекта через три года.

Бонус: Пока Anthropic мечтает о чипах, компания отправила Claude на 20-часовую психиатрическую оценку. Да, вы правильно прочитали. Идея в том, чтобы сделать AI более «психологически стабильным» и человекоподобным в общении. Звучит как сюжет эпизода Black Mirror, но, видимо, это наша реальность. Мы, кстати, эту новость тоже пропустили – наверное, были на терапии сами.

Alibaba и HappyHorse: Китай наступает на видео-фронте

Что случилось: Alibaba выпустила открытую модель генерации видео HappyHorse (также известную как Wan 2.1), которая показывает сильные результаты в бенчмарках.

Контекст: Видео-генерация – это новая линия фронта в гонке мультимодальных систем. После того как text-to-image модели стали обыденностью (спасибо, Stable Diffusion и Midjourney), индустрия переключилась на видео. Sora от OpenAI наделала шума в прошлом году, но китайские компании не дремлют: Kuaishou, ByteDance, теперь Alibaba – все выпускают свои решения.

Почему видео – это сложно: Генерация видео требует понимания не только пространства (как в изображениях), но и времени. Нужно сохранять консистентность между кадрами, учитывать физику движения, управлять камерой. Это на порядок сложнее, чем нарисовать картинку кота в космосе.

Открытость как стратегия: Alibaba выпустила HappyHorse как open-source модель. Это типичная китайская стратегия: догнать Запад через открытость, привлечь комьюнити, создать экосистему. Пока OpenAI держит Sora за закрытыми дверями (и даже не даёт полноценного доступа), китайские компании выкладывают веса на Hugging Face.

Наш взгляд: Мы пропустили этот релиз, и, честно говоря, это обидно. Видео-модели – это не просто очередной бенчмарк, это технология, которая изменит креативные индустрии в ближайшие два года. HappyHorse может и не победит Sora в качестве, но в мире open-source она уже важный игрок. Китай показывает, что может конкурировать не только количеством, но и инновациями.

Meta сорит деньгами: $21B на инфраструктуру и новые модели

CoreWeave и $21 миллиард: Meta подписала контракт с CoreWeave – провайдером AI-инфраструктуры – на головокружительные $21 миллиард. Это не опечатка. Двадцать один миллиард долларов на вычислительные мощности.

Что это значит? Спрос на AI-compute растёт экспоненциально. Meta строит свою империю искусственного интеллекта: от Llama-моделей до рекламных алгоритмов и метавселенных (помните метавселенные?). CoreWeave, провайдер GPU-мощностей, становится критическим партнёром. Это также сигнал рынку: AI-инфраструктура – это не просто хайп, это бизнес на десятки миллиардов.

Muse/Spark – мультимодальные модели с личным подходом: Meta также выпустила новые мультимодальные модели Muse и Spark с фокусом на персональных агентов. Идея: AI, который понимает текст, изображения, звук и может выступать вашим личным помощником.

Звучит знакомо? Да, потому что это делают все: OpenAI с GPT-4V, Google с Gemini, Anthropic с Claude 4. Мультимодальность стала table stakes – без неё ты не игрок. Фокус Meta на «персональных агентах» – это попытка найти свою нишу. Возможно, интеграция с WhatsApp, Instagram, Facebook сделает Muse/Spark более полезными в экосистеме Meta.

Наш взгляд: Meta играет в долгую. Они тратят миллиарды на инфраструктуру, выпускают модели пачками и пытаются найти свой AI-продукт. Проблема в том, что пока ни один AI-продукт Meta не стал must-have. Llama – отличная open-source модель, но не коммерческий хит. Ray-Ban Stories – интересный эксперимент, но не iPhone-момент. Может, Muse/Spark изменят ситуацию? Посмотрим.

Коротко о других новостях дня

Google Gemma 4: Google выпустила очередную версию своих open-source моделей Gemma. Это часть стратегии компании оставаться релевантной в open-source сообществе, пока закрытые Gemini-модели конкурируют с GPT-4 и Claude. Демократизация доступа к AI – благородная цель, но давайте честно: Google делает это, чтобы не отдать рынок китайцам и Meta.

Anthropic ограничивает Mythos: Anthropic отложила широкий релиз своей новой модели Mythos из-за рисков кибербезопасности. Это редкий случай, когда компания публично признаёт, что модель может быть опасна. Уважение за честность, но вопросы остаются: насколько опасна? Что именно не так? Прозрачности маловато.

Anthropic покупает Coefficient Bio: Antropic расширяется в биотехнологии, купив Coefficient Bio. Convergence AI и life sciences – это тренд: DeepMind с AlphaFold, OpenAI с медицинскими исследованиями. Вопрос: зачем компании, делающей чатботов, нужен биотех-стартап? Возможно, долгосрочная ставка на AI в науке. Или просто диверсификация портфолио.

Тренды дня: вертикальная интеграция и гонка мультимодальности

Два главных тренда выделяются сегодня:

  1. Вертикальная интеграция становится нормой. Anthropic идёт в чипы, Meta подписывает мега-контракты на инфраструктуру, Google и Amazon уже давно делают собственное железо. Эпоха чистого софта заканчивается – чтобы выжить в AI, нужно контролировать весь стек.
  1. Мультимодальность – это must-have, видео – это новый фронтир. Все крупные игроки выпускают мультимодальные модели. Но следующий уровень – это видео. Alibaba с HappyHorse, OpenAI с Sora – это только начало. Через год текстовые модели будут казаться скучными по сравнению с AI, который генерирует голливудского качества ролики.

Открытый вопрос

AI-индустрия движется к вертикальной интеграции: компании строят чипы, арендуют дата-центры, выпускают модели и создают продукты. Это напоминает эпоху нефтяных баронов – контролируй всю цепочку, от скважины до бензоколонки.

Но вот вопрос: не приведёт ли это к новой монополизации? Если только Google, Meta, Amazon, Microsoft и, может быть, Anthropic смогут позволить себе полный стек (чипы, инфраструктура, модели), что станет с остальными? Open-source как спасение или китайская альтернатива как противовес?

Ваши ставки, дамы и господа.

AIмашинное обучениеAnthropicMetaвидео-генерацияAI-чипы

Хотите такую же автоматизацию?

Настроим AI-фабрику контента для вашего бизнеса за 3 дня.

Обсудить проект