
Что в выпуске?
🌇 Привет, это твой ночной ИИ-дайджест 28 апреля
Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать
* 😱 Anthropic опросила 80 000 пользователей: почему самые продуктивные AI-юзеры боятся увольнения больше всех?
* 🕵️ Белый дом поймал Китай на промышленной краже Claude: 16 млн диалогов через фальшивые аккаунты
* 🐉 DeepSeek V4 вышел в три раза дешевле GPT-5.5 и работает на Huawei. Что с этим делать?
И ещё +5 новостей, быстрых как ИИ: Anthropic призналась в трёх регрессиях Claude Code и сбросила лимиты, OpenAI запустила бесплатный ChatGPT для врачей с результатом 59.0 на клиническом бенчмарке, Meta срезает 10% команды с 20 мая, xAI договаривается о трёхстороннем альянсе с Mistral и Cursor, Tencent выпустила Hy3 с 74.4% на SWE-Bench.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
ИИ Исследования

Nano Banana
Понедельник, читаешь отчёт Anthropic. Используешь Claude каждый день. Берёшь больше задач, чем год назад. Команда это видит. Потом находишь строку: те, кто использует AI максимально, боятся потерять работу втрое чаще остальных. Это про тебя.
Anthropic опросила 80 508 пользователей Claude через открытые интервью: без анкет, только разговор. Каждый пятый выразил тревогу о занятости. Среди тех, у кого AI-экспозиция максимальна: таких втрое больше. Цифра из отчёта: каждые +10% AI-экспозиции добавляют 1.3 п.п. к вероятности назвать работу под угрозой. Чем продуктивнее, тем тревожнее. Назвали это U-shaped relationship (парадокс: обратной зависимости ждали, а получили рост сразу обоих показателей).
Среди профессий: software engineers беспокоятся больше всех. Среди карьерных стадий: ранние карьеристы тревожатся сильнее сеньоров. Самый неудобный факт: те, кто получил наибольший прирост скорости от AI, выражают наибольшую тревогу.
Фактура:
+ Среднее значение продуктивности по опросу: 5.1 из 7. Подавляющее большинство оценили себя как «существенно более продуктивных». Только 3% сообщили о нейтральном или отрицательном эффекте
++ 48% назвали главным эффектом расширение круга задач (scope expansion: AI открыл доступ к работам, которые раньше казались недоступными). Ещё 40% назвали главным приростом скорости
+++ 10% из тех, кто назвал бенефициара продуктивности, указали: работодатель или клиент просто требует больше работы в ответ на прирост
++++ Только 60% early-career участников видят личную выгоду от AI. Среди сеньоров: 80%
+++++ Опрос проводился через открытые разговоры с Claude: 80 508 сессий без структурированных вопросов. Anthropic анализировала паттерны в ответах пользователей, которые добровольно описывали свой опыт
И что?
Если ты ведёшь инженерную команду: до конца мая проведи 1:1 именно с теми, кто больше всего использует AI. Anthropic показала: это группа с максимальным страхом. Если не спросить сейчас: уйдут молча.
Нам 3.14здец:
Люди тысячи лет верили: мастер, который работает лучше всех, защищён. AI сломал эту логику. Теперь мастер-пользователь инструмента видит конец профессии раньше всех остальных. 7/10: мы входим в мир, где продуктивность перестала быть защитой от вытеснения. Она стала первым сигналом о нём.
🇺🇸vs 🇨🇳
Ты разрабатываешь продукт на Claude API. Настраиваешь промпты, платишь за токены. Потом читаешь доклад Белого дома: три китайские лаборатории несколько месяцев использовали 24 000 фальшивых аккаунтов для систематической выкачки Claude. 16 миллионов диалогов. Это называлось исследованием.
23 апреля директор OSTP (Офис научно-технической политики Белого дома) Майкл Крациос опубликовал меморандум «Adversarial Distillation of American AI Models». В нём: Китай ведёт «целенаправленные кампании промышленного масштаба» по дистилляции американских frontier-моделей. Инструмент: десятки тысяч proxy-аккаунтов для обхода детектирования плюс jailbreaking для извлечения закрытой информации.
Anthropic в феврале 2026 задокументировала конкретные лаборатории: DeepSeek, Moonshot, MiniMax. Три компании сгенерировали 16 миллионов диалогов через 24 000 аккаунтов в нарушение условий использования. Китайское посольство отреагировало немедленно: «чистая клевета».
Фактура:
+ OSTP-меморандум обязывает федеральные агентства передавать разведывательные данные AI-компаниям и совместно разрабатывать защитные протоколы против дистилляции
++ Anthropic направила первую документацию о кампаниях в OSTP ещё в феврале 2026, за два месяца до публичного меморандума
+++ Параллельно идёт уголовное дело на $2,5 млрд: контрабанда чипов Nvidia через подставные компании
++++ В Конгрессе рассматривается законопроект о внесении в чёрный список иностранных компаний, уличённых в дистилляции
+++++ Меморандум вышел за три недели до саммита Трамп-Си 14-15 мая: дистилляция официально становится публичной переговорной позицией США
И что?
Если ты разворачиваешь AI-продукт через API: проверь логи rate-limit и account-creation до конца апреля. Дистилляция начинается с шаблонных запросов в масштабе. Если у тебя B2B-продукт с reseller-доступом: ты сам можешь оказаться неосознанным вектором атаки.
Нам 3.14здец:
Люди тысячи лет копировали технологии через шпионаж и физическую разборку изделий. AI заменил физическую разборку на API-запросы. Скопировать модель теперь стоит несколько тысяч фальшивых аккаунтов. 7/10: мы входим в мир, где граница между использованием AI и кражей AI теперь в меморандуме Белого дома. Технического барьера больше нет.
Почитать источники: White House Memo: Adversarial Distillation, PC Gamer: Pure slander, Asia Times
нам 3.14здец на YouTube
В этом выпуске обсуждаем самые странные и важные AI-новости недели: OpenAI выпускает новую “картошку”, Meta учит программы заменять людей, а Илон Маск, похоже, собирает инфраструктуру для будущего, где роботы полетят на Луну раньше многих людей.
Кого упомянули: OpenAI, GPT-5.5, Codex, Claude, Anthropic, Gemini, Google, Сергей Брин, Grok, Cursor, Илон Маск, xAI, SpaceX, Starship, Tesla Roadster, роботы на Луне, Meta, Марк Цукерберг, AI-агенты, замена сотрудников, Image 2 и будущее AI-индустрии.
Уже на YouTube
🇨🇳

Nano Banana
Ты выбираешь модель для coding-pipeline. GPT-5.5: $5 за миллион входящих токенов, $30 за исходящих. Claude Opus 4.7: те же $5 и $25. Открываешь прайс DeepSeek V4-Pro, вышедшего 24 апреля: $1.74 и $3.48. Открытый код. Миллион токенов контекста. Работает на чипах Huawei.
DeepSeek опубликовала preview двух новых open-weight моделей. V4: 284 млрд параметров, 13 млрд активных. V4-Pro: 1,6 трлн параметров, 49 млрд активных. Обе модели используют архитектуру MoE (Mixture of Experts: активируется только часть весов на каждый запрос), контекст 1 млн токенов. Весовые файлы доступны на Hugging Face.
На Vibe Code Bench (бенчмарк на реальных coding-задачах) V4-Pro занял первое место. DeepSeek заявила: на собственных eval-задачах по reasoning V4-Pro находится вблизи GPT-5.4 и Gemini 3.1-Pro. Huawei подтвердила: чипы серии Ascend 950 участвовали в части обучения V4.
Фактура:
+ V4-Flash (меньшая версия, 284B параметров): $0.14/M input, $0.28/M output. Самая низкая цена в своём классе среди всех frontier-моделей
++ 9.5x снижение требований к оперативной памяти по сравнению с предыдущим поколением DeepSeek
+++ На Artificial Analysis Intelligence Index V4-Pro входит в 4-й tier: рядом с Meta Muse Spark, вблизи GPT-5.4 и Gemini 3.1-Pro по независимой оценке
++++ DeepSeek ожидает снижения цен V4-Pro позднее в 2026 году по мере масштабирования производства Ascend 950
+++++ Первая модель DeepSeek с нативной поддержкой Huawei Ascend 950 без дополнительных адаптеров: меняет стек для enterprise-команд в Китае без доступа к Nvidia
И что?
Если ты сейчас платишь $5/M за входящие токены в coding-pipeline: возьми 50 реальных задач из своего backlog и прогони через V4-Pro до конца апреля. Разрыв в $3.26 на каждом миллионе токенов: разница между «интересный эксперимент» и «меняем архитектуру».
Нам 3.14здец:
Люди тысячи лет строили торговые маршруты через географические барьеры. Nvidia построила барьер через экспортные ограничения. DeepSeek обошла его через Huawei. 8/10: мы входим в мир, где hardware-санкции замедляют, но не останавливают. Открытая модель на неподсанкционных чипах: новая конкурентная категория.
Почитать источники: Fortune: DeepSeek V4, Tom's Hardware, MIT Technology Review
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
🔧 Anthropic опубликовала пост-мортем Claude Code: три регрессии за семь недель. 4 марта снизили reasoning effort с high до medium. Убирали зависание UI, получили падение качества на сложных задачах. 16 апреля добавили инструкцию держать ответы под 25 слов: coding-качество просело на 3%. Параллельно баг кэширования с 26 марта сбрасывал контекст каждый ход вместо одного раза, отсюда ощущение «тупой модели» и быстрое сжигание лимитов. Anthropic откатила всё в v2.1.116 20 апреля и сбросила лимиты всем подписчикам 23 апреля. И что? Следующие 2-3 недели Claude Code работает на полных лимитах. Три регрессии за семь недель: quality-gate для AI-инструментов нужен у тебя, а не только у вендора. Если Claude Code критичен для команды: настрой автоматический eval на реальных задачах до конца мая.
🏥 OpenAI запустила ChatGPT for Clinicians: бесплатный доступ к GPT-5.4 для верифицированных врачей, медсестёр-практиков и фармацевтов в США. HealthBench Professional (бенчмарк на клинических задачах разработки OpenAI): GPT-5.4 набрал 59.0 против 43.7 у врачей с неограниченным временем и интернетом. AMA (Американская медицинская ассоциация) фиксирует: 72% врачей используют AI в практике. Год назад было 48%. И что? Если строишь healthtech: OpenAI задала публичный ориентир в 59.0. До конца Q2 запусти собственный eval на реальных кейсах с клиникой-партнёром. Собственный бенчмарк важнее чужого.
👥 Meta объявила о сокращении 8 000 сотрудников: 10% персонала, с 20 мая. Плюс 6 000 вакансий закрыты без найма. Цукерберг: «2026 год, когда AI начинает кардинально менять то, как мы работаем. Проекты, которые раньше требовали больших команд, теперь выполняет один человек». В 2026 году Meta тратит $115-135 млрд на AI-инфраструктуру. И что? Meta дала публичный ориентир: 10%. Если ты принимаешь решения о найме: посчитай свою цифру до конца Q2. Лучше иметь ответ заранее, чем объяснять его совету директоров под давлением.
🤝 xAI (AI-лаборатория Илона Маска) ведёт переговоры о трёхстороннем партнёрстве с Mistral (французский AI-стартап) и Cursor (AI-редактор кода). SpaceX уже зафиксировала опцион на покупку Cursor за $60 млрд. Теперь к связке добавляется Mistral: кофаундер Mistral уже возглавляет xAI pretraining, Cursor обучается на Colossus. Цель по данным Business Insider: закрыть разрыв с Anthropic. И что? Если ты сейчас выбираешь coding-инструмент: решение принимай на квартал максимум. Экосистема вокруг редактора меняется быстрее, чем его функции.
🐉 Tencent опубликовала Hy3 preview в открытом доступе на Hugging Face: 295 млрд параметров, 21 млрд активных, MoE-архитектура, 256K контекст. В феврале 2026 команда снесла и пересобрала весь pre-training и RL-стек с нуля. SWE-Bench Verified: 74.4% против 53.0% у предыдущей версии. Прирост на 40% за одно поколение. Поддержка OpenClaw, OpenCode, KiloCode. И что? Для open-source coding-стека теперь два конкурента: Hy3 и DeepSeek V4-Flash. Оба бесплатны для скачивания. До конца апреля сравни их на своих задачах: разница в производительности сейчас покажет, что брать в production.
🚨 Нам 3.14здец: Если ты принимаешь решения об AI-стеке в команде, 7/10: за одну неделю вышли два новых open-source флагмана, Anthropic призналась в трёх регрессиях, а Meta назвала 10% сокращений «AI efficiency». Модели дешевеют быстрее, чем устаревают контракты на них. Переоценивай стек раз в квартал: иначе переплачиваешь.
Полный разбор и обсуждение в сообществе BIPI AI
BIPI AI - СООБЩЕСТВО!
Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.
BIPIAI - закрытый клуб фаундеров и топ-спецов.
Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность
90+ участников, 15 стран.
На сегодня это все
Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.
До завтра!
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.




