AI-новости 27 апреля 2026: OpenAI выпустила GPT-5.5, Anthropic потеряла контроль над Mythos, а китайская Qwen переплюнула гигантов
Дайджест AI-новостей: OpenAI релизит GPT-5.5 с максимальной защитой, Anthropic не уберегла опасную модель Claude Mythos, Google показал TPU 8-го поколения, а китайская Qwen унизила MoE-гигантов.

Сегодняшний день в мире искусственного интеллекта выдался насыщенным: OpenAI выкатила GPT-5.5 с «самыми строгими мерами безопасности в истории», пока Anthropic судорожно объясняет, как её сверхопасная модель Claude Mythos попала не в те руки. Google показала TPU восьмого поколения для агентного AI, ASML обещает утопить рынок в EUV-машинах, а китайская команда Qwen доказала, что 27 миллиардов параметров могут быть лучше 397 миллиардов. Разбираемся в противоречиях этого дня.
OpenAI выпускает GPT-5.5 и сразу объявляет баунти на взлом: безопасность или PR?
OpenAI представила GPT-5.5 – модель, которая, по словам компании, «значительно продвинулась» в агентных AI-возможностях для кодинга, многошаговых задач и работы в реальном мире. Задержки остались на уровне предшественников, но вот безопасность якобы стала «самой строгой». Модель получила рейтинг «High» (высокий) по кибербезопасности в рамках Preparedness Framework OpenAI – это означает, что она может усиливать пути к серьёзному вреду, но пока не переходит критические пороги.
Интересная логика: выпустим модель, которая умеет эксплуатировать уязвимости лучше предыдущих, но назовём это «безопасным», потому что мы добавили ещё фильтров. А чтобы убедить скептиков, OpenAI запустила программу Bug Bounty с призовым фондом в $25,000 за взлом биологических защит GPT-5.5. Если вы сможете заставить модель объяснить, как синтезировать патоген, – деньги ваши.
С одной стороны, это разумный шаг: краудсорсинг уязвимостей работает в традиционной кибербезопасности десятилетиями. С другой – это признание, что даже сама OpenAI не уверена в непробиваемости своих защит. Иначе зачем платить хакерам?
Пока GPT-5.5 обещает стать инструментом для разработчиков и предприятий, остаётся вопрос: насколько долго продержатся эти «самые строгие меры», когда модель окажется в руках миллионов пользователей? История с jailbreak-промптами для GPT-4 намекает, что недолго.
Anthropic и утечка Claude Mythos: когда «слишком опасно» не помогло (Мы это пропустили)
Пока OpenAI гордо выпускает свою модель с «высоким» риском, у Anthropic случился конфуз: Claude Mythos – модель, которую компания сочла слишком опасной для публичного релиза, – всё равно оказалась доступна неавторизованным пользователям. Детали инцидента пока туманны, но факт остаётся фактом: даже самые строгие внутренние ограничения не гарантируют защиту от утечек.
Это подчёркивает парадокс современной AI-безопасности: OpenAI решила, что GPT-5.5 достаточно безопасна для публичного доступа, несмотря на способность эксплуатировать софтверные уязвимости. Anthropic сочла Mythos слишком рискованной даже для ограниченного релиза – и всё равно проиграла. Что эффективнее: прозрачность с краудсорсингом багов или секретность с риском утечки?
Индустрия искусственного интеллекта вновь демонстрирует, что дебаты о governance моделей далеки от консенсуса. Регуляторы наблюдают за этим цирком с растущим беспокойством, а мы ждём следующего инцидента.
Мы пропустили эту новость – видимо, пока OpenAI гремела анонсами, Anthropic тихо разгребала последствия.
Железная гонка: Google TPU 8-го поколения и ASML наращивает производство EUV
Пока все обсуждают модели, Google напомнила, что без железа вся эта вечеринка закончится. Компания анонсировала восьмое поколение TPU – чипы TPU 8t и 8i, оптимизированные под «эру агентного AI». Это значит более быстрый инференс и масштабируемость, необходимую для развёртывания моделей уровня GPT-5.5 на корпоративном уровне.
Вопрос только в том, хватит ли этих чипов на всех желающих. Спрос на вычислительные мощности для машинного обучения растёт экспоненциально, и даже Google, владеющая собственным производством TPU, чувствует давление. Nvidia, AMD и стартапы вроде Cerebras тоже не дремлют.
А ASML, монополист в производстве EUV-литографии (extreme ultraviolet), объявила, что планирует произвести 60+ стандартных EUV-машин в 2026 году – это рост на 36% по сравнению с 2025-м. Причина проста: Nvidia, Google, Amazon, Microsoft и другие гиганты скупают передовые полупроводники с такой скоростью, что мировые мощности едва успевают.
ASML фактически держит ключи от глобального AI-масштабирования. Без их машин невозможно производить 3-нанометровые и меньше чипы. Если ASML споткнётся (или геополитика вмешается – привет, экспортные ограничения в Китай), вся AI-индустрия замедлится.
Пока что всё идёт по плану: больше машин → больше чипов → больше нейросетей. Но планы имеют свойство ломаться.
Китайская Qwen3.6-27B унижает MoE-гигантов: открытые модели наступают
Команда Alibaba Qwen выпустила Qwen3.6-27B – open-weight модель с 27 миллиардами параметров, которая превосходит 397-миллиардную MoE-модель на бенчмарках агентного кодинга. Прочитайте ещё раз: 27 миллиардов против 397 миллиардов. И маленькая модель выигрывает.
Это не просто технический курьёз – это сигнал о том, что гонка за размером моделей, возможно, подходит к концу своей эффективности. Mixture of Experts (MoE) архитектуры должны были решить проблему масштабирования, активируя только часть параметров на каждый запрос. Но если плотная модель в 15 раз меньше справляется лучше, значит, что-то пошло не так в оптимизации гигантов.
Для индустрии это важный момент. Открытые модели вроде Qwen демократизируют доступ к высокопроизводительному AI, снижая барьеры для стартапов и исследователей. Если вам не нужен датацентр за миллиард долларов, чтобы обогнать закрытые модели из Долины, глобальная конкуренция становится честнее.
Китай уже несколько лет инвестирует в open-source AI, и Qwen3.6 – очередное доказательство, что эта стратегия работает. Пока OpenAI и Anthropic спорят, кому разрешено видеть их модели, китайские команды просто публикуют веса и собирают звёзды на GitHub.
Тренды дня: безопасность, доступность и железо
Сегодняшний дайджест можно свести к трём линиям напряжения:
1. Безопасность vs доступность. OpenAI выбрала публичность с bug bounty, Anthropic – секретность и провалилась. Какая модель governance выживет – пока неясно.
2. Открытость vs закрытость. Qwen доказывает, что open-weight модели могут конкурировать с закрытыми гигантами. Это сдвиг силы от лабораторий к сообществу.
3. Железо решает всё. Google TPU 8-го поколения и рост производства EUV от ASML напоминают: без чипов нет AI. Compute – это новая нефть.
Нейросети становятся мощнее, доступнее и опаснее одновременно. Машинное обучение вышло из лабораторий и превратилось в геополитическую арену. И пока никто не знает правил игры.
Открытый вопрос: кто на самом деле контролирует AI?
Сегодняшние новости оставляют главный вопрос без ответа: если OpenAI не уверена в безопасности своей модели (иначе зачем bug bounty?), а Anthropic не может защитить свою слишком опасную модель от утечек, то кто вообще контролирует эти системы?
Может, контроль – это иллюзия? Модели уже слишком сложны, чтобы их создатели могли гарантировать поведение в любых условиях. Открытые модели вроде Qwen размывают границы между «владельцами» и «пользователями». А железо, от которого всё зависит, производится горсткой компаний, уязвимых к геополитике.
Искусственный интеллект растёт быстрее, чем наша способность его регулировать. Сегодняшний день – очередное напоминание об этом.
Хотите такую же автоматизацию?
Настроим AI-фабрику контента для вашего бизнеса за 3 дня.
Обсудить проект