
Что в выпуске?
🌇 Привет, это твой ночной ИИ-дайджест 22 апреля
Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать
🕵️ Почему Meta установила программу слежки за 8,000 сотрудников за месяц до их увольнения?
🖼️ GPT Image 2 ищет в интернете перед тем как нарисовать. Что это меняет для дизайнеров?
⚙️ Google разрезал свой главный AI-чип пополам. Зачем? И что это значит для твоего счёта за Cloud?
И ещё +6 новостей, быстрых как ИИ: Meta переманила 5 сооснователей Thinking Machines за $1.5B, Deezer: 44% загрузок теперь AI-музыка, Google DESIGN.md учит агентов читать дизайн-системы, Exa Deep Max: ресёрч в 90x быстрее конкурентов, Genspark Build: агент из одного промпта, Core Automation ищет $1B через недели после основания.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
Meta

Nano Banana
Ты работаешь в Meta и только что узнал: тебя уволят 20 мая. Месяц остался. Компания тихо установила на твой ноутбук программу: каждая нажатая клавиша, каждое движение мышью, каждый экран идут в датасет для AI. Opt-out не предусмотрен.
Программа называется Model Capability Initiative. Она часть Agent Transformation Accelerator (внутренняя программа Meta по переводу рутинных задач на агентов): CTO Эндрю Босуорт написал во внутреннем меморандуме, что будущее компании: агенты берут рутинную работу, пока люди направляют и проверяют. Данные MCI обучают такого агента.
Лаборатории робототехники годами снимают людей за физической работой: как идут, поднимают, складывают. Роботы учатся движению через подражание. Meta сделала то же самое с офисным трудом. В робото-лабораториях участники знают, что их снимают, и могут отказаться.
Фактура:
+Business Insider опубликовал внутренний меморандум: именно так стало известно о MCI
++ Приложения под запись: VSCode, Metamate (внутренний AI-ассистент Meta), Google Chat, Gmail
+++ Реакция сотрудников на внутренних форумах: «Мне некомфортно. Есть ли возможность отказаться?» Босуорт ответил: «Нет»
++++ Meta планирует вложить $140B в AI-инфраструктуру в 2026 году, почти вдвое больше предыдущего
+++++ Данные MCI используются только для обучения моделей и не применяются для оценки производительности сотрудников
И что?
Если ты CPO или General Counsel в компании от 500 сотрудников: открой свои Employee handbooks прямо сейчас. Найди секцию про запись рабочих сессий для AI-обучения. Её там нет. Напиши её в ближайшие 2-3 месяца до того, как AI-команда сама придёт с запросом. Meta оформит правовое основание первой: это станет шаблоном, который юристы по всей индустрии будут копировать.
Нам 3.14здец:
Люди тысячи лет передавали навыки через ученичество: мастер работал, ученик наблюдал. Это был выбор обоих. Теперь каждое движение на экране: урок для системы, которая тебя заменит. По дефолту, без согласия. 8/10: мы входим в мир, где сам факт работы означает автоматическую передачу навыков тому, кто тебя уволит.
OpenAI

Nano Banana
Ты просишь нарисовать постер для майского запуска. Модель останавливается. Ищет в интернете. Читает брендбук который ты приложил. Проверяет черновик. И только потом отдаёт результат. GPT Image 2 вышел 21 апреля: первый AI-образ, который рассуждает до пикселя.
GPT Image 2 работает в двух режимах. Instant mode: базовое качество без поиска, достался всем, включая бесплатных пользователей. Thinking mode идёт в интернет за контекстом, разбирает брендбук который ты приложил, проверяет черновик до выдачи. Только для платных тиров.
На Arena.ai (открытый бенчмарк где люди сравнивают модели вслепую) GPT Image 2 Medium набрал 1,512 баллов. Второе место: Nano Banana 2 (image-модель Google) с 1,271. Разрыв в 241 балл самый большой за всю историю платформы. Предыдущие модели боролись за десятки, не сотни.
Фактура:
+До 8 связных изображений за один Thinking-mode запрос. Instant mode: один выход без ожидания
++ Точность рендеринга текста: 99%+ против 90-95% у предыдущих моделей. Плотные меню, UI-мокапы, мультиязычные вывески
+++ Мультиязычный текст в изображениях: японский, корейский, китайский, хинди, бенгальский. Впервые для image-моделей OpenAI
++++ Доступен через ChatGPT, Codex и API
+++++ Altman в X: «переход с GPT-3 на GPT-5 в сфере изображений: всё одновременно»
И что?
Если строишь продукт где нужны изображения с текстом (UI-мокапы, маркетинговые материалы, мультиязычный контент): протестируй Thinking mode в ближайшие 2-3 недели. Точность текста 99%+ меняет пайплайн. Раньше AI-картинка шла на доработку в Figma. Теперь можно протестировать выход напрямую.
Нам 3.14здец:
Визуальная коммуникация тысячи лет требовала мастерства инструмента. Рисунок, типографика, вёрстка. Это был барьер. За ним была профессия. Модель, которая читает брендбук и ищет референсы сама, убирает барьер между идеей и профессиональным результатом. 7/10: мы входим в мир, где способность создать профессиональный визуал перестаёт быть компетенцией и становится доступом к подписке.
PS/ Перед тем как попробовать инструмент - почитайте документацию которую написали ребята из OpenAI

Сделано в GPT Image 2

Сделано в GPT Image 2
нам 3.14здец LIVE
В выпуске который уже на YouTube:
• опыт использования Opus 4.7 в сложной разработке
• как распределять задачи между ChatGPT, Claude, Gemini и другими моделями
• как снижать расходы на топовые модели
• реальный AI-стек, подписки и месячный бюджет
• Claude Design, Stitch и новая гонка AI-супераппов
• что будет с Figma, Cursor, Base44, Lovable и другими AI-продуктами
• почему рынок агентств сжимается, а соло-специалисты получают новое окно возможностей
• как будет меняться рынок труда, фриланса и цифровых профессий в ближайшие годы
• новая книга «Айпокалипсис» и взгляд на будущее эпохи AI
Этот выпуск для тех, кто хочет смотреть на AI как на рабочий инструмент, источник рыночных возможностей и фактор больших изменений в бизнесе.

Nano Banana
Ты смотришь счёт за Google Cloud. Inference-запросы агента съедают бюджет. Платишь за чип который спроектирован гонять огромные матрицы при обучении, а тебе нужна малая латентность и дешёвая память рядом с процессором. Google 22 апреля объявил конец этому компромиссу: TPU 8 выходит как два чипа от двух разных компаний.
TPU 8t (Sunfish) делает Broadcom: это тренировочный чип, 121 экзафлопс (единица вычислительной мощности) на кластер из 64 TPU, в 2.8 раза быстрее Ironwood (предыдущий TPU). TPU 8i (Zebrafish) делает MediaTek: это inference-чип, 80% лучше по цене за производительность, 288 GB высокоскоростной памяти и 384 MB SRAM (быстрая память прямо на чипе) чтобы рабочий контекст агента не гонять по шине. Оба идут на TSMC 2nm и выйдут в конце 2027.
Раньше один TPU делал всё. Обучение требует огромных матриц и пропускной способности. Инференс требует малой латентности и дешёвой памяти рядом с процессором. Разные физики. Google тянул одну архитектуру на оба применения с TPU v1. Теперь нет.
Фактура:
+Соглашение Broadcom на TPU 8t (Sunfish) действует до 2031 года
++ Акции MediaTek выросли до исторического рекорда в день объявления
+++ Ironwood (TPU v7) стал general available на Cloud Next 22 апреля: 1 млн TPU в одном кластере, доступен сейчас
++++ Google в переговорах с Marvell Technology: третий партнёр под memory processing unit и ещё один inference TPU
+++++ Agentic Era: именно так Google назвал Cloud Next 2026. TPU 8 это инфраструктурный ответ на агентные нагрузки
И что?
Если закупаешь AI-инфраструктуру и Google в шорт-листе: Ironwood уже general available, TPU 8 доступен в конце 2027. До тех пор сравнивай стоимость inference на Ironwood с Nvidia H200 по конкретным агентным нагрузкам. Разрыв будет виден к концу 2026.
Нам 3.14здец:
Люди всегда создавали универсальные инструменты: один молоток для сборки и разборки, один нож на всё. Способность разобраться в одном инструменте и применить везде была базовой грамотностью. AI-инфраструктура ломает это правило: чип для обучения и чип для применения это разная физика, разное знание, разная профессия. 6/10: мы входим в мир, где понимание того как AI вообще работает расщепляется на столько слоёв, что ни один человек больше не знает всего стека.
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
🎭 Meta (социальная сеть, $1.4 трлн капитализация) наняла пятого сооснователя Thinking Machines Lab (AI-стартап Миры Мурати, бывшего CTO OpenAI). Цукерберг предложил купить компанию целиком за $1B и получил отказ. Самый дорогой из переходов: Эндрю Таллок получил пакет на $1.5B за шесть лет. И что? Для стартапов на ранней стадии: если в cap table нет конкурентного retention через вестинг от 3+ лет, Meta и аналоги могут выкупить твою команду по кускам даже без сделки.
📊 Deezer (стриминговый сервис, 10 млн подписчиков) раскрыл: 44% всех треков которые загружают на платформу ежедневно сгенерированы AI. 75,000 AI-треков в день, 2 млн в месяц. Рост 650% с января 2025. При этом прослушивания AI-музыки составляют всего 1-3% от общего объёма: 85% стримов детектированы как мошеннические и демонетизированы. И что? Для медиа-компаний со своей контентной платформой: у Deezer уже есть детектор AI-контента. Если строишь UGC-продукт, ищи партнёров с аналогичным инструментом до того, как спам захлестнёт каталог.
🎨 Google Labs открыла исходный код DESIGN.md: формат для AI-агентов, который кодирует дизайн-систему (цвета, типографика, отступы) в markdown-файл. Агент читает его и автоматически применяет токены при генерации UI. CLI валидирует WCAG-контрастность и экспортирует в Tailwind config или W3C DTCG. И что? Если строишь дизайн-систему и планируешь агентную разработку: добавь DESIGN.md в репозиторий прямо сейчас. Это станет стандартом в течение года: входишь дёшево на старте.
🔍 Exa (поисковая платформа для AI-агентов) запустила Deep Max: режим глубокого поиска с 90% точностью за 64 секунды на бенчмарке Deep Search QA. Ближайший конкурент: 5,908 секунд. Возвращает структурированный JSON с цитатами на уровне каждого поля. И что? Для команд, которые строят агентные пайплайны с веб-ресёрчем: протестируй Deep Max через API прямо сейчас. Скорость 90x даёт другой класс задач.
⚡ Genspark (AI-воркспейс, $36M ARR за 45 дней) запустил Build: no-code конструктор для создания AI-агентов из одного промпта. Архитектура Mixture-of-Agents: задачи маршрутизируются к лучшей модели (Claude, GPT-5, Gemini). Работает на GPT-4.1 и OpenAI Realtime API. И что? Для продакт-менеджеров и операционных команд без разработчиков: Genspark Build позволяет протестировать агентный воркфлоу до того, как привлекать инженеров. Прежде чем заказывать спринт, собери прототип.
💡 Core Automation (AI-стартап Джерри Твоурека, бывшего исследователя OpenAI) ищет от $500M до $1B через несколько недель после основания при оценке выше $5B. Ставка: единственная модель Ceres, которая обучается непрерывно в продакшене. И что? Следи за Ceres как за сигналом нового подхода: не дообучение раз в квартал, а постоянное самосовершенствование в деплое. Если выстрелит, это меняет стандарт корпоративной автоматизации.
🚨 Нам 3.14здец: Один человек стоит $1.5B: Andrew Tulloch переходит в Meta. Тысяча AI-треков в час: это обычный день Deezer. Два конца одного процесса. 7/10: мы входим в мир, где стоимость самого редкого человеческого таланта растёт вместе с бесценностью обычного.
BIPIAI Встречи
📅 23 апреля в 18:30 (CET)
Практический мастермайнд, где участники раскладывают свой бизнес по цифрам, сравнивают сценарии роста и принимают решение: усиливать рост на своей выручке или готовить проект к внешнему финансированию.
BIPI AI - СООБЩЕСТВО!
Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.
BIPIAI - закрытый клуб фаундеров и топ-спецов.
Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность
90+ участников, 15 стран.
На сегодня это все
Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.
До завтра!
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.



