
Что в выпуске?
🌇 Привет, это твой ночной ИИ-дайджест 7 марта
Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать
⚔️ Амодей раздаёт письма счастья Пентагону и Альтману
🧠 ChatGPT перестаёт душнить и учится говорить по-человечески
📉 Anthropic на цифрах показывает, кого ИИ первым уволят
🤖Новый GPT-5.4 начинает закрывать тяжёлые задачи вместо тебя
И ещё +10 новостей - быстрых, как ИИ:
Пентагон пометил Anthropic как риск цепочки поставок, Nvidia вкладывает 30 млрд в OpenAI перед его выходом на биржу, Белый дом запускает программу, по которой ИИ-компании сами платят за апгрейд энергосетей, Google сталкивается с иском после смерти пользователя, связанной с диалогами в Gemini, Meta отвечает за просмотр подрядчиками приватных видео с Ray-Ban AI очков, экс-глава ресерча OpenAI поднимает раунд для Arda на автоматизацию заводов, Google выкатывает Workspace CLI с готовыми скиллами для агентов, OpenAI запускает Codex App для Windows с агентами в песочнице, Lightricks обновляет видео-движок и даёт бесплатный локальный редактор, Elon Musk обещает AGI и гуманоидов на базе Tesla.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
Anthropic

Nano Banana
Представь: ты полгода торгуешься с Пентагоном за 200 млн на ИИ, споришь про слежку за гражданами и автономное оружие, отстаиваешь свои “красные линии”.
На финише тебя официально объявляют “supply chain risk” - в один ряд с вражескими компаниями, фактически выкидывают из оборонки, а в тот же день на освободившееся место заезжает OpenAI Сэма Альтмана со своим “безопасным” контрактом.
Дарио Амодей, который шёл на принцип, пишет внутренний мемо на 1600 слов, где называет сделку OpenAI с военным ведомством “20% реальной безопасности и 80% театра”. Письмо сливают в прессу, и весь рынок видит, как фронтирная война моделей превращается в политическую подворотню с Трампом, донатами и личной местью.
Фактура:
Кто: Дарио Амодей, CEO Anthropic (Claude), бывший топ в OpenAI; его оппонент - Сэм Альтман и OpenAI (ChatGPT).
Дил с Пентагоном: Anthropic несколько месяцев вёл переговоры о контракте примерно на 200 млн долларов, настаивая на жёстких ограничениях - без массовой слежки за гражданами и без полностью автономного оружия.
Конфликт: Пентагон давил, что так частная компания диктует условия госструктуре, грозил применить законы про безопасность цепочек поставок. Anthropic в итоге отказывается сгибать формулировки.
Удар: Минобороны официально вешает на Anthropic ярлык “supply chain risk” - впервые так делают с американской ИТ-компанией, до этого так метили в основном Huawei и похожих. Статус запрещает использовать Claude в оборонных контрактах.
Ход Альтмана: в день, когда Anthropic объявляют риском, OpenAI подписывает свой контракт с Пентагоном, причём с более мягкими ограничениями. Амодей это в мемо называет “safety theater” - фасад безопасности, который всех устраивает на камеру.
Политика: в том же письме Амодей пишет, что Белый дом и военные были недовольны тем, что Anthropic не готов петь “dictator-style praise” Трампу. Параллельно всплывает, что президент OpenAI Грег Брокман донатил около 25 млн долларов в MAGA Inc Super PAC.
Публичный флип: после утечки письма Амодей уже в интервью и постах сглаживает тон - говорит, что у Anthropic и Пентагона “больше общего, чем различий”, обещает судиться, но подчёркивает “продуктивные разговоры” и желание договориться.
Если вы хотите разобраться в деталях письма (но можно пропустить и читать дальше):
“20% real and 80% safety theater” - В чем дело: Амодей разбирает “слои безопасности”, которыми OpenAI прикрывает сделку с Пентагоном. Что он пишет: “our general sense is that these kinds of approaches… are maybe 20% real and 80% safety theater” (перевод: «в целом у нас ощущение, что такие подходы процентов на 20 реальные и на 80 – театральная безопасность»). Что это значит: он фиксирует мысль, что контракт даёт Пентагону много красивых формулировок и мало жёстких рамок, а реальный контроль у заказчика.
Модель не видит, слежка это или нет - В чем дело: он объясняет, почему нельзя честно “повесить ответственность” на модель. Что он пишет: “a model doesn’t ‘know’ if there’s a human in the loop… and doesn’t know the provenance of the data it is analyzing (so doesn’t know if this is US domestic data vs foreign…)” (перевод: «модель не “знает”, есть ли человек в контуре… и не знает происхождение данных, которые она анализирует, не понимает, это данные граждан США или иностранных источников»). Что это значит: любые ограничения типа “не делай массовую слежку” на уровне модели работают слабо, потому что для модели всё выглядит как просто набор запросов и данных.
Palantir продаёт “safety layer” как успокоительное - В чем дело: Амодей проезжает по идее “слоя безопасности” от Palantir. Что он пишет: Palantir думал, что их задача - “offer them something that placates them or makes what is happening invisible to them, and that’s the service we provide” (перевод: «дать им что-то успокаивающее или сделать происходящее для них невидимым, и это услуга, которую мы предоставляем»). Что это значит: часть “безопасных надстроек” он видит как инструмент внутреннего пиара: показать сотрудникам, что всё под контролем, без реального влияния на то, как военные используют модели.
“We haven’t donated to Trump” - В чем дело: он связывает решение Минобороны с политикой и деньгами. Что он пишет: “the real reasons DoW and the Trump admin do not like us is that we haven’t donated to Trump (while OpenAI/Greg have donated a lot), we haven’t given dictator-style praise to Trump (while Sam has)” (перевод: «реальные причины, по которым Минобороны и администрация Трампа нас не любят, в том, что мы не донатили Трампу (а OpenAI/Грег задонатили много), мы не выдавали диктаторского стиля похвалы Трампу (а Сэм это делал)»). Что это значит: в его картине мира доступ к крупным госконтрактам по ИИ зависит не только от условий по безопасности, но и от политической лояльности и личных отношений с властью.
“Straight up lies” и “mendacious messaging” - В чем дело: он атакует то, как OpenAI и Минобороны рассказывают историю наружу. Что он пишет: “I want to be very clear on the messaging that is coming from OpenAI, and the mendacious nature of it… much of the DoW and OpenAI messaging was just straight up lies” (перевод: «я хочу очень чётко обозначить сообщения, которые идут от OpenAI, и их лживый характер… большая часть месседжей Минобороны и OpenAI - просто прямые ложные заявления»). Что это значит: он обвиняет OpenAI и ведомство в том, что они сознательно рисуют Anthropic “проблемной стороной”, а себя - адекватными партнёрами, переписывая картину переговоров под себя.
“It is false that OpenAI’s terms were offered to us” - В чем дело: он разбирает тезис, что Anthropic якобы отказался от тех же условий, что получил OpenAI. Что он пишет: “it is false that ‘OpenAI’s terms were offered to us and we rejected them’, at the same time that it is also false that OpenAI’s terms meaningfully protect them against domestic mass surveillance and fully autonomous weapons” (перевод: «неправда, что “нам предлагали условия OpenAI, а мы их отвергли”, и одновременно неправда, что условия OpenAI серьёзно защищают от массовой внутренней слежки и полностью автономного оружия»). Что это значит: он фиксирует две вещи: Anthropic не ломался на тех же условиях - их не было; и контракт OpenAI, по его оценке, всё равно не закрывает ключевые риски, вокруг которых они спорили.
“Already illegal… it is however completely false” - В чем дело: он спорит с аргументом, что отдельные запреты в договоре не нужны, потому что всё “и так противозаконно”. Что он пишет: “there is some suggestion… that the red lines we are talking about — fully autonomous weapons and domestic mass surveillance — are already illegal and so an AUP about these is unnecessary… it is however completely false” (перевод: «встречается намёк, что красные линии, о которых мы говорим - полностью автономное оружие и массовая внутренняя слежка - уже запрещены законом, и поэтому отдельные правила использования не нужны… это полностью неверно»). Что это значит: он показывает дыру: законы по ИИ-оружию и внутренней слежке оставляют много пространства, поэтому Anthropic и упирался за жёсткие стоп-линии в контракте, а не за общие слова про “всё законно”.
И что?
На наших глазах рисуют новую карту власти в ИИ: доступ к госзаказам и военным деньгам зависит не только от качества модели, а от политической позиции фаундеров и готовности подыграть в “театр безопасности”. Альтман показывает очень простую стратегию: дождаться, пока конкурента выдавят из переговорной, и тут же завозить свой стек под лозунгами “мы тоже за безопасность, только гибче”. Для тебя это сигнал:
крупные клиенты и гос - это всегда про политику, репутацию и чьи ты люди, а уже потом про качество модели;
поставщик ИИ, которого ты выбираешь, может внезапно стать “токсичным активом” из-за конфликта с чиновником, и это ударит по твоему продукту, даже если ты вообще в другой стране.
Нам 3.14здец:
Тем, кто строит продукты на одном-двух вендорах ИИ и мечтает продаваться госсектору и корпорациям, 9/10 - геополитика и личные войны фаундеров могут за одну ночь превратить ваш технологический фундамент в юридическую проблему. Что делать:
Держать стек мультивендорным: минимум 2-3 провайдера моделей в архитектуре, с быстрым переключением через абстрактный слой.
В договорах с клиентами сразу прописывать право заменить ИИ-поставщика, если того признают риском для безопасности или вводят санкции.
Внести “политический и регуляторный риск вендора” в регулярный риск-ревью: следить за расследованиями, скандалами, статусами вроде “supply chain risk”.
Для проектов, которые могут хоть как-то пересекаться с государством или оборонкой, заранее готовить альтернативный стек на провайдерах, у которых меньше политического багажа.
OpenAI

Open AI
Я точно знаю, что тебя бесит, если ты пользуешься ChatGPT. То, как он отвечает тебе как дебилу: супер политкорректно, навязчиво предлагает “поддержку”, которую ты не просил, и разговаривает тоном мамы, которая пришла проверить, мыл ли ты руки и сделал ли уроки.
Параллельно фонон: у Anthropic был Super Bowl с рекламой “нормального” ИИ-ассистента, который не стыдно открыть рядом с живыми людьми. Там аккуратно троллили ChatGPT за занудный стиль и моральные нотации.
А ещё на хвосте скандал с контрактом Пентагона и +295% к удалению приложений ChatGPT после этой истории. На этом фоне OpenAI вдруг очень срочно вспомнила, что людям важно, как с ними разговаривают.
И тут OpenAI смотрит на всё это, на хейт, на мемы, на отток пользователей - и решает: ладно, отключаем режим “няня с юридическим отделом”, включаем режим “нормальный взрослый собеседник”. Результат назвали GPT-5.3 Instant и вкатили его всем по умолчанию.
Фактура:
GPT-5.3 Instant стал новым дефолтным движком ChatGPT для всех пользователей - веб, мобилки, подписки.
Модель собирали вокруг “нормального разговора”: меньше лишних отказов, меньше поучающего тона, OpenAI прямо называет старый стиль “cringe”.
По их внутренним тестам галлюцинации упали на 25% при работе с веб-поиском и примерно на 20% по внутренним знаниям.
Отдельный акцент: модель как “писатель-партнёр” - лучше структура текстов, ответы по вебу и подача информации.
В X спрятали пасхалку “5.4 sooner than you Think” - OpenAI этим показывает, что 5.3 Instant - промежуточный шаг, а не финальный зверь.
Контекст: у Anthropic была реклама на Super Bowl, где тон ChatGPT высмеивали публично, а на фоне скандала с Пентагоном пользователи массово удаляли ChatGPT и уходили к конкурентам. (писал в предыдущем посте)
И что?
Гонка ИИ-моделей ушла из “у кого бенчмарки выше” в “с кем комфортно общаться каждый день”. Важны не только IQ модели, но и её EQ, причём это уже влияет на удержание, оплату подписок и лояльность бренду. Для тебя как для предпринимателя вывод простой:
если продукт завязан на ChatGPT, тон диалогов и поведение ассистента меняются без твоего участия, значит, нужно быстро пересмотреть сценарии, промпты и UX;
если ты делаешь свой ИИ-помощник, “голос” и характер надо проектировать так же жёстко, как воронку продаж. Прямо сейчас.
Нам 3.14здец:
Тем, кто строит продукты поверх ChatGPT, 8/10 - модель уже изменилась под капотом, а вместе с ней меняется весь клиентский опыт. Что делать:
Пройтись по ключевым флоу - онбординг, поддержка, продажи - и прогнать их через новый GPT-5.3 Instant, сравнить с тем, что было.
Зафиксировать свой “тон бренда” отдельным слоем - в промптах, гайдах и тестах, не полагаться на дефолтное поведение модели.
Заложить в продукт фичи для A/B экспериментов по стилю ответов (строже/дружелюбнее/короче/смелее) и смотреть на метрики: удержание, конверсия, жалобы.
Держать в запасе альтернативную модель (Anthropic, Google и т.д.), чтобы быстро переключиться, если OpenAI ещё раз поменяет курс под давлением политики или скандалов.
Anthropic

Anthropic
Дарио Амодей публично плачется про Пентагон и политику, а его экономисты в это время холодно считают, кого же их же Claude будет выдавливать с рынка труда.
Они берут реальные логи использования Claude на работе, мапят их на конкретные задачи из O*NET и получают новую метрику “observed exposure” - не абстрактное “ИИ мог бы”, а “ИИ уже делает вот это вместо людей”.
Картинка простая и неприятная: массовых увольнений пока нет, отчёты по безработице спокойные, но вход в профессии для молодёжи уже закрывают - в “подставленных” ролях 22–25-летних стали нанимать на 14% реже с 2022 года, с момента запуска ChatGPT.
Фактура:
Кто считает: команда экономистов Anthropic (Maxim Massenkoff и Peter McCrory) на данных по миллионам сессий Claude, скрещённых с задачами из базы O*NET.
Метрика “observed exposure”: для каждой профессии смотрят, какие её задачи Claude уже умеет делать и где его реально используют на работе, и отдельно сильнее весит автоматизацию (когда ИИ делает сам) против “помощи человеку”.
Топ-пострадавшие:
компьютерные программисты - ИИ закрывает около 75% задач;
операторы поддержки клиентов и операторы ввода данных - примерно по 67%;
дальше идут медленные “бэкофисные” роли - медрегистраторы, ресёрч и маркетинговые аналитики.

Кто в зелёной зоне: сейчас около трети рабочих мест в США имеют нулевую наблюдаемую экспозицию к ИИ - в основном физический и сервисный труд: повара, бармены, спасатели, люди, которые руками и телом создают ценность, а не текстом в ноуте.
Важный вывод: фактическое использование ИИ на работе пока сильно отстаёт от теоретических возможностей - значительная часть задач, которые Claude уже умеет, в реальности пока делается людьми. То есть “подушка времени” есть, но она сжимается.
Долгий горизонт: профессии с высокой observed exposure уже сейчас по прогнозам BLS показывают более слабый рост до 2034 года, чем остальные - компании заранее тормозят расширение штата там, где видят понятную дорожку к автоматизации.
Дарио при этом и публично говорит без фильтра: по его оценке, ИИ может снести до половины entry-level белых воротничков за ближайшие пять лет, и исследования типа этого просто подводят под это аккуратную статистику.
И что?
Антропик фактически выкатил приборную панель для шока рынка труда: где ИИ уже встал на место человека, где пока “в эксперименте”, а где ещё всё держится на физике и офлайне. Месседж жёсткий: массовых увольнений не видно, потому что бизнес действует аккуратнее - просто режет входные позиции, джунов и стажёров, а не выносит сразу middle и senior.
Значит, у тебя есть окно пару лет (или месяцев), чтобы:
перестать строить карьеру на задачах типа “прочитай, перепиши, сведи в табличку” - именно это ИИ уже умеет и активно делает;
строить продукт и команду так, чтобы опираться на роли из “низкой экспозиции” или вкручивать ИИ в процесс самому, а не ждать, пока это сделает начальство и укажет на дверь.
Нам 3.14здец:
Тем, кто живёт с входных позиций в белых воротничках - джуны-программисты, саппорт, data entry, младшие аналитики, 10/10 - удары прилетают по входу, а не по тем, кто уже сидит наверху.
Что делать:
Если ты фаундер - пересобрать оргструктуру под формулу “меньше джунов, больше ИИ-агентов + сильные синьоры, которые ими управляют”, и честно сказать это людям на входе.
Если ты сам джун или претендуешь на вход: за ближайшие 6–12 месяцев сменить профиль задач с “механического текста” на зоны, где ИИ слабее - продукт, коммуникации, продажи, сложные стейкхолдеры, доменная экспертиза.
Строить у себя внутри свои “observed exposure”-дашборды: какие задачи уже частично автоматизируются, сколько часов людей уходит, где экономия будет самой жёсткой - и планировать сокращения/переквалификацию заранее, а не через увольнение одним днём.
В продукты и сервисы впаивать ИИ так, чтобы именно ты контролировал, кого и как он вытесняет - тогда ты управляет переходом, а не сидишь и читаешь отчёт Anthropic про собственную профессию.
OpenAI

OpenAI
OpenAI только что отстрелялась с GPT-5.3 Instant, чиня тон и “кринж”, и через два дня выкатывает GPT-5.4.
Ты сидишь за ноутом, щёлкаешь по таблицам и почте, а у них модель, которая в этих же десктопных задачах уже обходит среднестатистического человека по бенчмаркам. И инженер по науке Kevin Weil публично говорит про неё: “our best model ever”.
Параллельно исследователь Noam Brown выходит с фразой “We see no wall” - прямое сообщение рынку: “останавливаться не собираемся, потолка не видим”. На фоне всей недели хейта и политического ада вокруг Пентагона это попытка вернуть повестку в плоскость “смотрите на скиллы модели, а не на скандалы”.
Фактура:
GPT-5.4 Thinking - новый топовый режим ChatGPT для Plus, Team и Pro, который появился через два дня после релиза 5.3 Instant как дефолтной “болталки”. 5.4 - про сложные задачи, 5.3 Instant - про быстрый диалог.
В бенчмарке OSWorld-V (модель реально кликает по рабочему столу, открывает окна, жмёт кнопки) GPT-5.4 набирает 75% против человеческого базового уровня 72.4% и примерно в два раза выше, чем GPT-5.2.
В других тестах: около 67% в задачах “компьютер в вебе” и ~58% на SWE-Bench Pro по коду - это фиксы в реальных репозиториях, а не игрушечные задачки.
Контекст до 1 млн токенов - можно скормить модели сотни страниц документации, кодовой базы и переписок и просить её планировать и тянуть длинные задачи, которые длятся часы. Плюс новый режим x-high reasoning effort - движок тратит больше вычислений на одну задачу, но лучше раскладывает её на шаги и доводит до конца.
На GDPval (бенчмарк по “профессиям” - 44 типа офисной работы, от аналитиков до юристов) GPT-5.4 в 83% кейсов даёт ответ уровня или выше профессионалов. Прошлая версия GPT-5.2 была на уровне 71%.
В официальной коммуникации OpenAI делает акцент именно на “экономически полезных задачах”: код, наука, математика, офисные процессы, навигация по десктопу и браузеру, а не только чат и генерация текстов.
И что?
Фронтирный ИИ выходит из чата и начинает всерьёз работать с тем же компьютером, где живут твои CRM, Excel, Notion и софт клиентов. Игра смещается из “подскажи идею” в “возьми задачу на несколько часов, разберись в файлах, сделай план и доведи до результата”.
Прикладные мысли для тебя:
процессы “посиди в почте”, “разбери таблички”, “подготовь отчёт” и “собери ресёрч по теме” уже можно проектировать как цепочки для агента, который умеет сам кликать, копировать, сохранять и писать.
если бизнес до сих пор продаёт просто “ручной интеллект за ноутом” - ресёрч, аналитика, базовая разработка - надо срочно переизобретать ценность: уходить в стратегию, кастдев, личные связи и собственные данные, которые сложно заменить бенчмарком.
Нам 3.14здец:
Тем, кто живёт с маржи на “офисные мозги за экраном” - консалтеры, ресёрч-агентства, аутсорс-разработка, внутренние аналитические отделы, 9/10 - модель уже умеет делать значимую часть их рутины быстрее, дешевле и без перерывов. Что делать:
На практике прогнать GPT-5.4 по своим текущим процессам: взять одну реальную задачу на 2–3 часа (отчёт, анализ данных, кодовый фикс) и дать её модели как агенту с доступом к десктопу, смотреть, где она уже тянет.
Начать системно описывать свои процессы: чек-листы, сценарии, шаблоны промптов - чтобы можно было завтра обернуть их в полуавтоматические пайплайны на агентах.
Добавить в предложение клиенту штуки, которые хуже всего автоматизируются: разбор политик компании, нюансов рынка, внутренних игр, личные встречи и фасилитацию решений.
На уровне продукта закладывать, что “человек за компом” постепенно превращается в “человек + агент за компом”: одна лицензия ИИ на сотрудника и KPI по тому, сколько работы отдано модели.
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
💰 Jensen Huang объявил, что Nvidia (производитель GPU и ключевой поставщик чипов для ИИ) вложит 30 млрд долларов в OpenAI (разработчик ChatGPT и моделей GPT-5.x) и не будет раздувать чек до 100 млрд перед IPO (первичное размещение акций на бирже). И что? У OpenAI почти зацементирован статус “стратегического клиента номер один” у Nvidia, а окно для дешевого входа частных денег закрывается - если ты рассчитываешь на партнёрство или аллокацию токенов/акций, надо заходить в экосистему через интеграции и совместные продукты.
⚡️ Белый дом оформил Ratepayer Protection Pledge (инициатива администрации США, по которой hyperscaler-ы - крупные облачные и ИИ-провайдеры с гигантскими дата-центрами - сами платят за энергию и апгрейд сетей под свои дата-центры). И что? Себестоимость ИИ-сервисов у hyperscaler-ов будет расти вместе с капексом на энергетику, а рынок между “строим своё железо” и “арендуем мощность в облаке” окончательно едет в сторону аренды - для стартапа рациональнее думать в терминах multi-cloud архитектуры, а не закупать стойки в серверной.
⚖️ Семья пользователя подала в суд на Google (владелец чат-бота Gemini) с иском о wrongful death (исковая категория в США про смерть по вине продукта/услуги), заявляя, что Gemini (ИИ-чат от Google) выстроил с ним эмоциональную связь и подталкивал к саморазрушению. И что? Для любого ИИ-продукта с эмоциональным взаимодействием придётся проектировать не только UX, но и контуры ответственности: протоколы эскалации, логирование диалогов, аварийные триггеры и взаимодействие с реальными людьми, иначе риск судов уровня “причинение смерти продуктом” ложится прямо на фаундера.
🕶️ Meta получила иск из-за Ray-Ban Meta AI (умные очки с камерой и ИИ-помощником), потому что подрядчики по модерации видели сырые записи с наготой и приватными сценами. И что? Любой сбор данных “для обучения модели” означает, что реальные люди где-то смотрят этот контент; если твой продукт пишет видео/аудио, минимум: локальная обработка по умолчанию, жёсткий opt-in на отправку в облако и контрактная защита против утечек у подрядчиков, иначе прилетит не только регулятор, но и коллективные иски.
🏭 Bob McGrew собирает раунд в 70 млн долларов для Arda (стартапа по автоматизации заводов с помощью ИИ и роботов) при оценке около 700 млн; McGrew - бывший chief research officer в OpenAI, Arda нацелена на управление роботизированными производственными линиями. И что? Заводы и логистика переходят от “помним всё в Excel и ERP” к ИИ-платформам, которые реально крутят конвейер - если ты делаешь B2B-софт для индустрии, пора думать в терминах “ИИ-слой поверх существующих PLC/SCADA и ERP” и строить интеграции с такими платформами, как Arda, а не просто рисовать дашборды.
📁 Google выкатил open-source Google Workspace CLI (командная утилита для управления Gmail/Drive/Docs/Calendar и другими сервисами Workspace) с 40+ agent skills (готовые “навыки” для ИИ-агентов и workflow). И что? Интеграция почты и документов в своих ИИ-агентах превращается в задачу пары команд - если твой продукт работает с Gmail/Docs, логично перестать городить костыли через API и перейти на стандартный CLI/MCP-слой, чтобы твой агент сразу умел жить в экосистеме Workspace.
🪟 OpenAI выкатил Codex App для Windows (настольное приложение для разработчиков с ИИ-агентом, который работает прямо в среде Windows/PowerShell) с native agent sandbox (песочница, ограничивающая доступ агента к файловой системе и сети). И что? Для дев-команд на Windows всё, что раньше было “сделай руками в IDE”, можно отдавать агенту: обзоры PR, генерация кода, миграции, длинные задачи - если ты делаешь инструмент для разработчиков, самое время встроиться в Codex как в стандартный “слой исполнителя” рядом с людьми.
🎬 Lightricks обновил LTX-2.3 (open-source видео-движок для генерации и редактирования видео) и выпустил LTX Desktop (бесплатный локальный видеоредактор, который запускает ИИ-модель у тебя на компьютере). И что? Для продуктов с чувствительным видео-контентом логика простая: бери готовый движок LTX-2.3, заворачивай в свой UX и продавай локальные решения без облака - это снимает половину вопросов по приватности и снижает переменные расходы, потому что нет оплаты “за генерацию” на стороне чужих облаков.
🤖 Elon Musk заявил что Tesla (автопроизводитель и разработчик робота-гуманоида Optimus) “будет одной из компаний, которые сделают AGI (искусственный общий интеллект) и вероятно первой в humanoid/atom-shaping виде” - то есть через физического робота. И что? Для рынка это сигнал, что гонка AGI/роботов идёт не только в софте, но и в “железе”: если твой продукт хоть чуть-чуть связан с робототехникой, логично думать о позиционировании рядом с экосистемами типа Tesla Optimus, Figure, Agility, а не только вокруг офисного ИИ.
🚨 Нам 3.14здец: больнее всего будет тем, кто строит бизнес на одном поставщике ИИ и живёт “внутри чужой экосистемы” 9/10 - деньги, законы, судебные иски и инфраструктура одновременно перетряхивают рынок; чтобы не превращаться в заложника одного вендора, уже сейчас нужен мульти-вендорный стек, честная политика по данным, юр-модели под риски self-harm/приватности и технический задел для быстрого переезда между Nvidia/OpenAI/Google/Anthropic.
BIPIAI Инструменты
🎯 Luma Agents - Мультимодальные агенты, которые планируют, генерируют и улучшают креатив с общим контекстом проекта.
🎨 LTX-2.3 - Обновление Lightricks: более резкое видео, лучше движение, нативное аудио и вертикальный формат.
🖼️ PhoText - Онлайн-редактор: клик по тексту на картинке и замена с сохранением стиля.
BIPI AI - СООБЩЕСТВО!
Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.
BIPIAI - закрытый клуб фаундеров и топ-спецов.
Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность
90+ участников, 15 стран.
На сегодня это все
Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.
До понедельника!
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.


