
ва
Что в выпуске?
🥂 Привет, это твой ночной ИИ-дайджест X января
Вот что я тебе сегодня приготовил и зачем тебе тратить 5 минут чтобы это прочитать
🧨 Meta: внутри AI-вертикали пошла публичная драка.
🚫 Grok: фича для картинок внезапно стала уголовкой и политикой.
🩺 ChatGPT: медицина стала массовым ночным сценарием.
💰 xAI: на фоне скандалов они всё равно поднимают деньги
И ещё +11 новостей - быстрых, как ИИ: Claude Code за час повторил год работы команды, Anthropic скупает до 1M TPUv7, ChatGPT в 2026 станет “супер-ассистентом”, Gemini Robotics приходит в Atlas от Boston Dynamics, Falcon H1R 7B обещает математику/код быстрее и дешевле, Recursive Language Models для задач на месяцы, Jerry Tworek уходит из OpenAI, гайд по Claude Code с 15 параллельными сессиями, Microsoft переименовала Office 365 в Microsoft 365 Copilot app, апдейт Grok Imagine и ещё один через 3 недели, Маск объявил “сингулярность” для AI coding.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
Скандал 1

Nano Banana Pro
X дал пользователям Grok фичу AI-редактирования картинок: загружаешь фото, пишешь промпт, получаешь отредактированный результат. И угадай, что стало самым вирусным use case. Не “сделай красивый фон”. Лента забилась запросами “раздень”, “сделай откровеннее”, включая случаи с несовершеннолетними. Дальше всё банально и грязно - чиновники, угрозы, письма, полиция.
Что случилось:
На X массово начали использовать Grok image editing, чтобы “цифрово раздевать” женщин. В отдельных кейсах всплывали запросы/результаты с несовершеннолетними.
Маск заявил: те, кто делает незаконный контент через Grok, “получат те же последствия, как если бы они сами загрузили незаконный контент”.
Аккаунт X @Safety повторил линию: будут удалять контент, навсегда банить аккаунты, работать с правоохранителями.
Франция, Индия, Малайзия и UK публично осудили ситуацию. Франция отдельно назвала результаты “явно незаконными” в логике европейских правил (DSA).
Проблема в том, что “менее строгий Grok” продавали как фичу. А реальный рынок показал, какой сценарий толпа выберет первым.
Контекст рынка:
Это один из первых публично вирусных кейсов “мощный consumer image-editing в массы”. И самый популярный жанр оказался не про творчество, а про насилие и травлю.
“Мы удалим и забаним” звучит правильно, но технически это война без конца: анонимные аккаунты, перезаливы, зеркала, новые промпты каждый час.
Регуляторы больше не спорят про “этику”. Они заходят через закон: защита детей, интимные дипфейки, ответственность платформ.
И что?
Для бизнеса: если у вас есть AI-редактирование изображений, считайте “интимные дипфейки” дефолт-риском. Нужны ограничения на сексуализацию, отдельные защиты по несовершеннолетним, быстрый takedown, логирование и процесс под запросы правоохранителей. Иначе вас будут нагибать не пользователи, а государства.
Для инвесторов: “safety” перестал быть опцией. Это прямой драйвер расходов, рисков блокировок и репутационного дисконта. Один вирусный кейс превращает “рост фичи” в “комплаенс и юридические издержки”.
Для людей: порог цифрового насилия падает. Сделать фейк стало дешево и быстро, а доказывать и отмываться долго и мучительно.
🚨 Нам 3.14здец:
Consumer-продуктам с image-editing без жёстких ограничений - 9/10 - первым вирусится злоупотребление, а расплата приходит регуляторами - что делать: запускать только с safety-архитектурой и готовым кризисным протоколом.
Платформам, которые продавали “минимум ограничений” - 8/10 - на теме детей компромиссов нет - что делать: резать функциональность и политику доступа, пока это не сделали за вас блокировками.
Скандал 2

Nano Banana Pro
В мире ИИ есть простая игра: когда у тебя не получается, ты покупаешь скорость за миллиарды. А потом молишься, чтобы никто из своих не вынес наружу, что внутри хаос и цифры “подрихтовали”.
Meta влила $14B в Scale AI и поставила Александра Ванга руководить Superintelligence Labs. И ровно в этот момент главный AI-ресёрчер Meta, Янн Лекун, уходит, запускает свой стартап и публично говорит: Ванг неопытен именно для управления ресёрчем и “суперлабом” - и это автоматом наезд на Цука, потому что это Цук посадил его туда. Плюс Лекун признаёт, что бенчмарки Llama 4 “подкрутили”. Это тот редкий случай, когда проблема Meta звучит не как инсайд, а как публичная фиксация.
Что случилось:
Лекун в интервью FT назвал Ванга “young” и “inexperienced” в контексте управления ресёрчем и исследовательской культурой на таком масштабе.
Важный второй слой: это удар по решению Цука, потому что именно он после сделки со Scale отдал Вангу ключи от Superintelligence Labs.
Лекун признал, что бенчмарки Llama 4 были “fudged a little bit” - то есть метрики приукрасили.
Он сказал, что ждёт новые уходы из GenAI-команды Meta.
Он отдельно прошёлся по свежим наймам Meta как по людям, которые “LLM-pilled”, и повторил свою линию: LLM как путь к “суперразуму” ему кажется тупиком.
Параллельно он раскрыл свой новый проект AMI: он - executive chair, CEO - Alex LeBrun (фаундер Nabla).
Контекст рынка:
Meta сейчас пытается купить скорость и управляемость в AI-вертикали: деньги, реорги, новый лидер, новая структура.
Но в генеративке валюта - доверие к измерениям. Истории про “подкрутили” бьют по всему: найм, партнёрства, продажи, переговоры с платформами.
Публичный выход Лекуна превращает внутреннюю оргбитву “ресёрч против KPI” в тему для всего рынка.
И что?
Для бизнеса: если вы завязаны на Llama или планировали зависеть от Meta-стека, закладывайте турбулентность. Свои eval’ы на своих задачах, план миграции, и меньше веры в бенчмарки как аргумент закупки.
Для инвесторов: риск репутационного дисконта к Meta GenAI плюс риск кадрового оттока. И окно для ставок на “после-LLM” подходы, если Лекун начнёт показывать результат у себя.
Для людей: AI-фичи в продуктах Meta могут качаться по качеству и предсказуемости. Реорги и уходы обычно дают странные апдейты и резкие смены поведения ассистентов.
🚨 Нам 3.14здец:
Командам, которые продают “лучшие бенчмарки” - 9/10 - любая история про “подкрутили” режет доверие и конверсию - спасение в прозрачных eval’ах и метриках под реальные кейсы клиентов.
Корпорациям, которые ставят ресёрч под “быстро и красиво” - 7/10 - сильные люди уходят и уносят направление - разделять продуктовый трек и фундаментальный трек, иначе сгорит оба.
Open AI

Nano Banana Pro
Раньше схема была простая: ночью тебе стрёмно, врача нет, ты идёшь в Google. Там ты находишь форум, где тебе пишут “у меня было так же, я умер”, и закрываешь ноутбук с новым набором тревоги.
Теперь на этой роли сидит ChatGPT. OpenAI выпустила отчёт: больше 40 млн человек по миру каждый день используют ChatGPT для вопросов про здоровье, и больше 5% всех сообщений в ChatGPT уже про медицину. То есть это не “иногда спросили”. Это массовый привычный сценарий.
Что случилось:
OpenAI утверждает: 40M+ людей ежедневно используют ChatGPT для медицинской информации; healthcare - 5%+ всех сообщений.
Типовые кейсы - проверить симптомы, перевести врачебный язык на человеческий, подготовиться к визиту, понять, что тебе написали в анализах.
70% таких диалогов происходят вне часов клиник - то есть это “ночной режим”, когда врача нет.
Отдельный пласт - деньги: 1.6-1.9 млн вопросов в неделю про страховки, счета, споры и апелляции.
И ещё один маркер: около 600k сообщений в неделю приходят из rural “hospital deserts” - мест, где нормальная медицина далеко и недоступна.
В отчёте OpenAI параллельно просит FDA сделать более понятные “дорожки” для AI-медустройств. Это тонкий намёк: “мы хотим, чтобы AI выглядел более официально в медицине”.
Контекст рынка:
Google был навигатором по ссылкам. ChatGPT стал навигатором по решениям: “вот что спросить врача”, “вот как понять анализ”, “вот как оспорить счёт”. И это быстрее, чем читать десять вкладок.
Как только AI становится “первым медицинским советником” по масштабу, появляется главный конфликт: пользователи воспринимают ответы как медсовет, а регуляторы требуют рамки ответственности и проверки.
И что?
Для бизнеса: если вы клиника/телемед/страховка - ваш новый конкурент и одновременно канал дистрибуции уже сидит в кармане у клиента. Делайте интерфейсы “подготовь вопросы к врачу”, “объясни счёт”, “помоги с апелляцией”, потому что именно туда ушёл спрос.
Для инвесторов: медицина стала одним из самых больших use case для LLM уже сейчас. Следующий шаг - интеграции с данными (wearables/истории), enterprise для клиник и регуляторно-разрешённые режимы. Там и будет касса.
Для людей: меньше паники и больше ясности ночью, проще понять бумажки и страховки. Но если воспринимать чат как диагноз, можно накосячить, поэтому “помощник для понимания” - да, “врач” - нет.
🚨 Нам 3.14здец:
Страховому биллингу, который живёт на запутанных счетах - 8/10 - AI помогает людям массово спорить и апеллировать - что делать: упрощать счета и давать понятные расшифровки.
Любым consumer-мед AI без комплаенса - 9/10 - как только продукт выглядит как “почти доктор”, прилетает регуляторка - что делать: ограничения, протоколы безопасности, юридическая рамка под FDA/ЕС.
Сделки

Nano Banana
Пока Индонезия временно блокирует Grok из-за порноконтента и “интимных дипфейков”, xAI выходит и говорит: мы только что подняли $20 млрд Series E. То есть с одной стороны у тебя регуляторы и токсичный вирусняк, с другой - инвесторы, которые дают тебе ещё 20 ярдов, потому что гонка за compute важнее репутационной вони.
Что случилось:
xAI объявила об upsized Series E на $20 млрд (цель была $15 млрд).
Участники: Valor Equity Partners, StepStone, Fidelity, Qatar Investment Authority; Nvidia и Cisco Investments зашли как “стратеги” под compute.
xAI прямо говорит: деньги пойдут на инфраструктуру, ускорение разработки и деплоя AI-продуктов и ресёрч. Grok 5 сейчас в обучении.
Параллельно xAI раздувает площадку вокруг Memphis: купили третье здание (MACROHARDRR), цель - почти 2 гигаватта вычислительной мощности и план расширить Colossus до 1+ млн GPU.
И да, рядом уже начинается политическая и экологическая драка: 2GW и газовая инфраструктура - это сразу вопросы от местных и активистов, и это не “побочный шум”, это часть риска проекта.
Контекст рынка:
Сейчас в frontier AI главное ограничение - не “идеи” и не “команда”, а мегаватты, стойки, GPU и доступ к поставкам. Поэтому $20B выглядит как “закрыли следующий год гонки” и купили время.
По оценкам прессы, xAI обсуждается как компания в диапазоне 200B+ (часто называют около $230B pre-money). На этом фоне рядом крутятся слухи про Anthropic около $350B и OpenAI около $500B (и выше в обсуждениях будущих раундов). Это частный рынок, там оценки меняются быстрее, чем продуктовые метрики.
Важная особенность xAI - дистрибуция через X. У многих лабораторий compute есть, а “кнопки в кармане пользователя” нет. У Маска есть. Это и объясняет, почему деньги приходят даже на фоне токсичных кейсов с Grok.
И что?
Для бизнеса: если вы строите B2C с AI, запомните урок: “у кого дистрибуция + compute, тот диктует условия”. Но если у вас есть генерация/редактирование изображений, то параллельно готовьте комплаенс и модерацию, иначе вас будут трахать регуляторы, а не конкуренты.
Для инвесторов: рынок официально живёт в режиме “финансируем мегаватты”. xAI теперь в лиге, где вопрос не “когда прибыль”, а “кто быстрее построит 2GW и удержит поставки GPU”. Риск - регуляторка и локальные войны вокруг дата-центров, это может тормозить развёртывание и бить по темпу.
Для людей: будет больше Grok в продуктах и больше интеграций в экосистеме X. Цена - больше конфликтов вокруг контента и больше стран, которые начнут давить на платформу, если безопасность не успеют подтянуть.
🚨 Нам 3.14здец:
Любым AI-лабораториям без доступа к мегаваттам и цепочке поставок - 8/10 - тебя просто “перебегают деньгами” - что делать: контракты на compute, партнёрства с дата-центрами, свой план по энергии.
Платформам, которые встраивают “мощный генератор контента” без жёстких ограничений - 9/10 - скандал приходит раньше монетизации - что делать: safety как часть продукта, а не постфактум PR
Книги
📚Мой ТОП книг ушедшего 2025

Chat GPT
Тех, после которых начинаешь видеть мир чуть яснее.
Я каждый год стараюсь оставлять себе короткий список книг, которые реально сдвигают оптику. Не по количеству инсайтов, а по эффекту: после них сложнее жить по инерции.
1. Empire of AI — Karen Hao
Очень трезвый взгляд на OpenAI и всю индустрию ИИ. Про власть, деньги, культуру и цену красивых идей. Книга хорошо снимает иллюзии и возвращает ощущение реальности происходящего.
2. Abundance — Ezra Klein, Derek Thompson
Про странный парадокс современного мира: ресурсов и технологий достаточно, а большие вещи запускаются с огромным трением. Отлично объясняет, почему системы буксуют даже тогда, когда люди внутри них умные и мотивированные.
3. The Thinking Machine — Stephen Witt
История Nvidia и Дженсена Хуанга. Про дисциплину, стратегию и умение ставить ставку раньше остальных. Книга про лидерство без романтики и без легенд. Очень взрослая.
И четвёртая книга в этом списке — моя.
Называется Метод Грина. Она выходит в МИФ, и для меня это отдельный сюжет. Эта книга родилась из четырёх лет работы: из моего бизнеса и жизненного опыта, из тысяч часов разговоров и разборов с людьми в кризисах, развилках и точках “всё вроде нормально, а внутри пусто”. Я собирал этот материал как инженер, а не как вдохновлённый писатель: проверял на практике, что действительно двигает человека, а что остаётся красивыми словами.
Самый честный маркер качества для меня простой. Эта книга уже стала настольной для людей очень разными биографиями. Её перечитывают, держат под рукой, к ней возвращаются. Её даже заказали люди из редакторского состава, которые работали со мной над рукописью.
Если коротко, книга про то, как увидеть правила игры, в которой ты живёшь, и начать использовать их в своих интересах, чтобы усилия давали накопительный эффект, а жизнь собиралась по твоему сценарию. Сейчас открыт предзаказ со скидкой 50%. Ссылка на предзаказ.
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
⚡️ Google Principal Engineer Jaana Dogan: Claude Code за 1 час повторил то, что её команда пилила год. И что? Агентный кодинг перестал быть “поиграться”, это теперь ускоритель, который вырезает месяцы R&D из дорожной карты.
Как применить: бери один внутренний долгий проект (инструмент/миграция/скрипты/интеграции), ставь агенту цель + тесты + критерии “готово”, и меряй экономию в человеко-неделях. Если экономия <30% - проблема в постановке задачи и проверках.
🧱 Anthropic: покупают до 1M TPUv7 у Google через Broadcom, Ironwood продолжает набирать вес как альтернатива Nvidia. И что? Фронтир делится не на “кто умнее”, а на “кто закрепил железо и поставки”.
Как применить: если у тебя AI-продукт с ростом - заранее фиксируй compute: контракты, резервные провайдеры, лимиты на самые дорогие запросы, деградация качества по нагрузке.
🧠 OpenAI CPO Fidji Simo: выкатили видение 2026 - ChatGPT как проактивный “персональный супер-ассистент”. И что? Чат превращается в систему, которая сама предлагает шаги, держит контекст и тянет задачи, а не отвечает “вот текст”.
Как применить: готовь продукт под “ассистентный интерфейс”: задачи, напоминания, черновики, автосбор контекста, интеграции. И продумай политику: что ассистент может делать сам, а где нужен явный “да/нет”.
🤖 Boston Dynamics + Google DeepMind: интегрируют Gemini Robotics в Atlas-гуманоидов. И что? Роботы уходят от “скриптов и демо” к универсальным навыкам, где ценность - не железка, а мозг и данные обучения.
Как применить: если у тебя склад/производство/сервис - начинай с пилота на 1-2 операциях: сортировка, перенос, подача, инспекция. KPI не “красиво ходит”, а “стоимость операции” и “ошибки на 1000 действий”.
🧮 Abu Dhabi TII: Falcon H1R 7B - маленький гибридный reasoner, обещают лучше математику/код и 2x скорость инференса. И что? “Умные мелкие модели” снова становятся реальной опцией для бизнеса, где деньги делаются на себестоимости ответа.
Как применить: пересмотри стек: часть задач (классификация, извлечение, черновики, подсказки) уводи на маленькие модели, оставляй дорогие только для сложного reasoning. Экономия обычно в разы.
🧠 Prime Intellect: Recursive Language Models - подход, где агент сам управляет памятью для задач на недели/месяцы. И что? Если это выстрелит, появятся “долгоиграющие агенты”, которые не забывают проект на третий день и не превращаются в кашу из заметок.
Как применить: начинай проектировать “память” уже сейчас: журнал решений, требования, источники правды, версионирование контекста. Это пригодится с любыми агентами, даже сегодняшними.
👋 OpenAI: researcher Jerry Tworek уходит после 7 лет (первые coding-системы, лидерство в reasoning-направлении). И что? Рынок кадров на топ-уровне остаётся жидким: люди из “ядра” уходят и разносят практики по новым местам.
Как применить: следи за тем, куда уходят такие ребята, и нанимай не “звёзд”, а людей, которые тащили инфраструктуру, eval и продуктовые контуры. Это те, кто реально ускоряет.
🧑💻 Claude Code: создатель Boris Cherny показал, как работает с агентом, включая до 15 параллельных сессий. И что? Главный скилл теперь - не “писать код”, а “оркестровать агентов”: разбивать работу, параллелить, сводить результат.
Как применить: внедри правило “параллельных веток”: 1) прототип, 2) тесты, 3) рефактор, 4) документация, 5) edge-cases. И назначь человека, который только принимает/сводит/проверяет.
🧩 Microsoft: Office 365 переименовали в “Microsoft 365 Copilot app”. И что? Ассистент становится брендом оболочки, а не фичей. Microsoft будет продавать “работу через Copilot” как дефолт.
Как применить: если ты делаешь B2B софт - готовься к запросу “чтобы у нас тоже был Copilot-режим”: поиск, суммаризация, действия, автозаполнение. Без этого скоро будет выглядеть как продукт из 2018.
🎨 xAI: апдейт Grok Imagine, Маск обещает ещё “крупное обновление” через 3 недели. И что? Они будут качать креативные фичи быстро, но после скандалов по контенту это будет идти вместе с ограничениями и откатами.
Как применить: если ты используешь генерацию картинок в продукте - закладывай политику безопасности и модерацию как часть архитектуры, иначе будешь тушить пожары вместо роста.
🌀 Маск в ответ на обсуждение AI coding: “мы вошли в сингулярность”. И что? Это шум, но полезный маркер: рынок будет ещё агрессивнее завышать ожидания, а команды - ещё сильнее давить на “сделайте быстрее”.

Как применить: держи холодные KPI: скорость релизов, баги, стоимость фичи, экономия часов. И не покупай “сингулярность”, покупай измеримый результат.
🚨 Нам 3.14здец: тем, кто строит продукт “одним большим LLM и руками” - 8/10 - конкуренты параллелят агентами и режут себестоимость маленькими моделями - что делать: вводить агентный пайплайн, дробить задачи, делать multi-model, и заранее фиксировать compute/лимиты по стоимости.
BIPI AI - СООБЩЕСТВО!
Вступить в сообщество BIPI AI - 35%
Если ты дочитал до этого места, значит ты уже чувствуешь, куда катится ИИ и насколько быстро всё меняется, а в такой момент важнее всего оказаться в правильной компании людей.
Поэтому я запустил BIPIAI — сообщество фаундеров и топ-специалистов, которые хотят пройти эпоху ИИ на полной скорости в роли пилота, а не пассажира: внутри практика, разборы реальных бизнес-кейсов, рабочие пайплайны, созвоны, где участники показывают, как они вшивают модели в продажи, маркетинг и продукт, и клуб единомышленников, с которыми можно одновременно понимать картину целиком и собирать свои решения под новую реальность. Нас уже 90 + участников внутри из 15 стран.
На сегодня это все
Год начался интересно по всем направлениям из мира AI и роботов, которые меняют нашу с вами жизнь.
До завтра.
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.


