Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест 22 апреля

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 🕵️ Почему Meta установила программу слежки за 8,000 сотрудников за месяц до их увольнения?

  • 🖼️ GPT Image 2 ищет в интернете перед тем как нарисовать. Что это меняет для дизайнеров?

  • ⚙️ Google разрезал свой главный AI-чип пополам. Зачем? И что это значит для твоего счёта за Cloud?

И ещё +6 новостей, быстрых как ИИ: Meta переманила 5 сооснователей Thinking Machines за $1.5B, Deezer: 44% загрузок теперь AI-музыка, Google DESIGN.md учит агентов читать дизайн-системы, Exa Deep Max: ресёрч в 90x быстрее конкурентов, Genspark Build: агент из одного промпта, Core Automation ищет $1B через недели после основания.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

Meta

Nano Banana

Ты работаешь в Meta и только что узнал: тебя уволят 20 мая. Месяц остался. Компания тихо установила на твой ноутбук программу: каждая нажатая клавиша, каждое движение мышью, каждый экран идут в датасет для AI. Opt-out не предусмотрен.

Программа называется Model Capability Initiative. Она часть Agent Transformation Accelerator (внутренняя программа Meta по переводу рутинных задач на агентов): CTO Эндрю Босуорт написал во внутреннем меморандуме, что будущее компании: агенты берут рутинную работу, пока люди направляют и проверяют. Данные MCI обучают такого агента.

Лаборатории робототехники годами снимают людей за физической работой: как идут, поднимают, складывают. Роботы учатся движению через подражание. Meta сделала то же самое с офисным трудом. В робото-лабораториях участники знают, что их снимают, и могут отказаться.

Фактура:

+Business Insider опубликовал внутренний меморандум: именно так стало известно о MCI
++ Приложения под запись: VSCode, Metamate (внутренний AI-ассистент Meta), Google Chat, Gmail
+++ Реакция сотрудников на внутренних форумах: «Мне некомфортно. Есть ли возможность отказаться?» Босуорт ответил: «Нет»
++++ Meta планирует вложить $140B в AI-инфраструктуру в 2026 году, почти вдвое больше предыдущего
+++++ Данные MCI используются только для обучения моделей и не применяются для оценки производительности сотрудников

И что?
Если ты CPO или General Counsel в компании от 500 сотрудников: открой свои Employee handbooks прямо сейчас. Найди секцию про запись рабочих сессий для AI-обучения. Её там нет. Напиши её в ближайшие 2-3 месяца до того, как AI-команда сама придёт с запросом. Meta оформит правовое основание первой: это станет шаблоном, который юристы по всей индустрии будут копировать.

Нам 3.14здец:
Люди тысячи лет передавали навыки через ученичество: мастер работал, ученик наблюдал. Это был выбор обоих. Теперь каждое движение на экране: урок для системы, которая тебя заменит. По дефолту, без согласия. 8/10: мы входим в мир, где сам факт работы означает автоматическую передачу навыков тому, кто тебя уволит.

OpenAI

Nano Banana

Ты просишь нарисовать постер для майского запуска. Модель останавливается. Ищет в интернете. Читает брендбук который ты приложил. Проверяет черновик. И только потом отдаёт результат. GPT Image 2 вышел 21 апреля: первый AI-образ, который рассуждает до пикселя.

GPT Image 2 работает в двух режимах. Instant mode: базовое качество без поиска, достался всем, включая бесплатных пользователей. Thinking mode идёт в интернет за контекстом, разбирает брендбук который ты приложил, проверяет черновик до выдачи. Только для платных тиров.

На Arena.ai (открытый бенчмарк где люди сравнивают модели вслепую) GPT Image 2 Medium набрал 1,512 баллов. Второе место: Nano Banana 2 (image-модель Google) с 1,271. Разрыв в 241 балл самый большой за всю историю платформы. Предыдущие модели боролись за десятки, не сотни.

Фактура:

+До 8 связных изображений за один Thinking-mode запрос. Instant mode: один выход без ожидания
++ Точность рендеринга текста: 99%+ против 90-95% у предыдущих моделей. Плотные меню, UI-мокапы, мультиязычные вывески
+++ Мультиязычный текст в изображениях: японский, корейский, китайский, хинди, бенгальский. Впервые для image-моделей OpenAI
++++ Доступен через ChatGPT, Codex и API
+++++ Altman в X: «переход с GPT-3 на GPT-5 в сфере изображений: всё одновременно»

И что?
Если строишь продукт где нужны изображения с текстом (UI-мокапы, маркетинговые материалы, мультиязычный контент): протестируй Thinking mode в ближайшие 2-3 недели. Точность текста 99%+ меняет пайплайн. Раньше AI-картинка шла на доработку в Figma. Теперь можно протестировать выход напрямую.

Нам 3.14здец:
Визуальная коммуникация тысячи лет требовала мастерства инструмента. Рисунок, типографика, вёрстка. Это был барьер. За ним была профессия. Модель, которая читает брендбук и ищет референсы сама, убирает барьер между идеей и профессиональным результатом. 7/10: мы входим в мир, где способность создать профессиональный визуал перестаёт быть компетенцией и становится доступом к подписке.

PS/ Перед тем как попробовать инструмент - почитайте документацию которую написали ребята из OpenAI

Сделано в GPT Image 2

Сделано в GPT Image 2

нам 3.14здец LIVE

Nano Banana

В выпуске который уже на YouTube:

• опыт использования Opus 4.7 в сложной разработке
• как распределять задачи между ChatGPT, Claude, Gemini и другими моделями
• как снижать расходы на топовые модели
• реальный AI-стек, подписки и месячный бюджет
• Claude Design, Stitch и новая гонка AI-супераппов
• что будет с Figma, Cursor, Base44, Lovable и другими AI-продуктами
• почему рынок агентств сжимается, а соло-специалисты получают новое окно возможностей
• как будет меняться рынок труда, фриланса и цифровых профессий в ближайшие годы
• новая книга «Айпокалипсис» и взгляд на будущее эпохи AI

Этот выпуск для тех, кто хочет смотреть на AI как на рабочий инструмент, источник рыночных возможностей и фактор больших изменений в бизнесе.

Google

Nano Banana

Ты смотришь счёт за Google Cloud. Inference-запросы агента съедают бюджет. Платишь за чип который спроектирован гонять огромные матрицы при обучении, а тебе нужна малая латентность и дешёвая память рядом с процессором. Google 22 апреля объявил конец этому компромиссу: TPU 8 выходит как два чипа от двух разных компаний.

TPU 8t (Sunfish) делает Broadcom: это тренировочный чип, 121 экзафлопс (единица вычислительной мощности) на кластер из 64 TPU, в 2.8 раза быстрее Ironwood (предыдущий TPU). TPU 8i (Zebrafish) делает MediaTek: это inference-чип, 80% лучше по цене за производительность, 288 GB высокоскоростной памяти и 384 MB SRAM (быстрая память прямо на чипе) чтобы рабочий контекст агента не гонять по шине. Оба идут на TSMC 2nm и выйдут в конце 2027.

Раньше один TPU делал всё. Обучение требует огромных матриц и пропускной способности. Инференс требует малой латентности и дешёвой памяти рядом с процессором. Разные физики. Google тянул одну архитектуру на оба применения с TPU v1. Теперь нет.

Фактура:

+Соглашение Broadcom на TPU 8t (Sunfish) действует до 2031 года
++ Акции MediaTek выросли до исторического рекорда в день объявления
+++ Ironwood (TPU v7) стал general available на Cloud Next 22 апреля: 1 млн TPU в одном кластере, доступен сейчас
++++ Google в переговорах с Marvell Technology: третий партнёр под memory processing unit и ещё один inference TPU
+++++ Agentic Era: именно так Google назвал Cloud Next 2026. TPU 8 это инфраструктурный ответ на агентные нагрузки

И что?
Если закупаешь AI-инфраструктуру и Google в шорт-листе: Ironwood уже general available, TPU 8 доступен в конце 2027. До тех пор сравнивай стоимость inference на Ironwood с Nvidia H200 по конкретным агентным нагрузкам. Разрыв будет виден к концу 2026.

Нам 3.14здец:
Люди всегда создавали универсальные инструменты: один молоток для сборки и разборки, один нож на всё. Способность разобраться в одном инструменте и применить везде была базовой грамотностью. AI-инфраструктура ломает это правило: чип для обучения и чип для применения это разная физика, разное знание, разная профессия. 6/10: мы входим в мир, где понимание того как AI вообще работает расщепляется на столько слоёв, что ни один человек больше не знает всего стека.

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

🎭 Meta (социальная сеть, $1.4 трлн капитализация) наняла пятого сооснователя Thinking Machines Lab (AI-стартап Миры Мурати, бывшего CTO OpenAI). Цукерберг предложил купить компанию целиком за $1B и получил отказ. Самый дорогой из переходов: Эндрю Таллок получил пакет на $1.5B за шесть лет. И что? Для стартапов на ранней стадии: если в cap table нет конкурентного retention через вестинг от 3+ лет, Meta и аналоги могут выкупить твою команду по кускам даже без сделки.

📊 Deezer (стриминговый сервис, 10 млн подписчиков) раскрыл: 44% всех треков которые загружают на платформу ежедневно сгенерированы AI. 75,000 AI-треков в день, 2 млн в месяц. Рост 650% с января 2025. При этом прослушивания AI-музыки составляют всего 1-3% от общего объёма: 85% стримов детектированы как мошеннические и демонетизированы. И что? Для медиа-компаний со своей контентной платформой: у Deezer уже есть детектор AI-контента. Если строишь UGC-продукт, ищи партнёров с аналогичным инструментом до того, как спам захлестнёт каталог.

🎨 Google Labs открыла исходный код DESIGN.md: формат для AI-агентов, который кодирует дизайн-систему (цвета, типографика, отступы) в markdown-файл. Агент читает его и автоматически применяет токены при генерации UI. CLI валидирует WCAG-контрастность и экспортирует в Tailwind config или W3C DTCG. И что? Если строишь дизайн-систему и планируешь агентную разработку: добавь DESIGN.md в репозиторий прямо сейчас. Это станет стандартом в течение года: входишь дёшево на старте.

🔍 Exa (поисковая платформа для AI-агентов) запустила Deep Max: режим глубокого поиска с 90% точностью за 64 секунды на бенчмарке Deep Search QA. Ближайший конкурент: 5,908 секунд. Возвращает структурированный JSON с цитатами на уровне каждого поля. И что? Для команд, которые строят агентные пайплайны с веб-ресёрчем: протестируй Deep Max через API прямо сейчас. Скорость 90x даёт другой класс задач.

⚡ Genspark (AI-воркспейс, $36M ARR за 45 дней) запустил Build: no-code конструктор для создания AI-агентов из одного промпта. Архитектура Mixture-of-Agents: задачи маршрутизируются к лучшей модели (Claude, GPT-5, Gemini). Работает на GPT-4.1 и OpenAI Realtime API. И что? Для продакт-менеджеров и операционных команд без разработчиков: Genspark Build позволяет протестировать агентный воркфлоу до того, как привлекать инженеров. Прежде чем заказывать спринт, собери прототип.

💡 Core Automation (AI-стартап Джерри Твоурека, бывшего исследователя OpenAI) ищет от $500M до $1B через несколько недель после основания при оценке выше $5B. Ставка: единственная модель Ceres, которая обучается непрерывно в продакшене. И что? Следи за Ceres как за сигналом нового подхода: не дообучение раз в квартал, а постоянное самосовершенствование в деплое. Если выстрелит, это меняет стандарт корпоративной автоматизации.

🚨 Нам 3.14здец: Один человек стоит $1.5B: Andrew Tulloch переходит в Meta. Тысяча AI-треков в час: это обычный день Deezer. Два конца одного процесса. 7/10: мы входим в мир, где стоимость самого редкого человеческого таланта растёт вместе с бесценностью обычного.

BIPIAI Встречи

📅 23 апреля в 18:30 (CET)

Практический мастермайнд, где участники раскладывают свой бизнес по цифрам, сравнивают сценарии роста и принимают решение: усиливать рост на своей выручке или готовить проект к внешнему финансированию.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading