
Что в выпуске?
🌇 Привет, это твой дневной ИИ-дайджест 03/03
Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать
🛡 OpenAI выкидывает Anthropic из оборонки и садится за стол с Пентагоном.
🧩 Perplexity обучает 19 моделей работать вместо команды автономно
🏢 Anthropic хоронит корпоративный софт под слоем своих Claude-агентов.
📚 ИИ уже учится и сдаёт домашку за школьников и скоро их заменит
И ещё +11 новостей - быстрых, как ИИ:
массовые сокращения в Block под флагом ИИ-оптимизации, гигантская GPU-сделка Meta и AMD, опенсорс-инструмент Darwinian Evolver от Imbue, новые embedding-модели Perplexity, исследование Pew про подростков и ИИ, сверхбыстрый Mercury 2 от Inception Labs, покупка музыкальной платформы ProducerAI лабораторией Google, заявление Андрея Карпаты про конец старого программирования, Remote Control для Claude Code, уход Дэвида Луана из Amazon и новый Chief People Officer в OpenAI.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
ИИ Исследования

Nano Banana
Американские подростки уже живут с ИИ в школе: списывают, делают домашку, спрашивают совета по жизни. А взрослые вокруг всё ещё спорят про правила и даже не удосужились с ними это обсудить.
Pew Research Center прошёлся по 1 458 тинейджерам и их родителям и получил картинку: ИИ в школе - уже обычный инструмент, а не “новая технология”. Подростки видят в нём личный плюс, учителя видят волну списывания, родители половину происходящего вообще не замечают.
На фоне этого звучат слова Sam Altman, что дети этого поколения “никогда не будут умнее ИИ, и для них это будет нормальная жизнь”. Вот эти самые дети уже сидят за партой - и Pew показывает, как они реально используют ИИ, а не как это рисуют регуляторы и стендап про “запретить ChatGPT в школе”.
Фактура:
Как они вообще используют ИИ
64 % американских подростков говорят, что уже используют чатботы.
Топ-3 применения:
поиск информации - 57 %,
помощь с учебой и домашкой - 54 %,
просто ради развлечения - 47 %.
Около 40 % используют ИИ, чтобы пересказать статьи, книги и видео или помочь с медиа-контентом. Примерно 12 % уже ходят к ботам за эмоциональной поддержкой и советами.
Что происходит с cheating
59 % подростков считают, что в их школе ИИ используют для списывания как минимум “иногда”, примерно треть говорит, что это происходит очень часто.
Среди тех, кто уже использует чатботы для учебы, 76 % уверены, что cheating с ИИ - обычная рутина в их школе.
При этом 10 % тинейджеров честно говорят: чатботы помогают им делать “всю или почти всю” учебу, ещё около 40 % используют ИИ для части заданий.
Как они сами это видят
Лично для себя подростки оценивают ИИ скорее в плюс: 36 % считают, что за 20 лет ИИ улучшит их жизнь, только 15 % ждут негативного влияния.
По поводу общества картинка более тревожная: 26 % считают, что для общества в целом эффект будет негативным, и говорят про потерю критического мышления, рабочих мест и креатива.
В открытых ответах “за что любят ИИ”: делает жизнь проще, помогает учиться, экономит время. В списке страхов - зависимость от ИИ, лень, уничтожение рабочих мест, сложность отличить правду от фейка и ощущение, что “мозг тупеет”.
Что знают и делают родители
Примерно половина родителей вообще думают, что их ребёнок пользуется чатботами, тогда как сами подростки говорят об этом в 64 % случаев - ощутимый разрыв по картине мира.
Около 4 из 10 родителей ни разу не разговаривали с ребёнком про ИИ и чатботы - ни про риски, ни про правила.
При этом большая часть родителей ок с тем, что дети используют ИИ для информации, учёбы и развлечения, но резко против эмоциональной поддержки от ботов: только 18 % готовы на это спокойно смотреть.
Контекст школьной системы
Исследователи и педагоги, с которыми говорит пресса, признают: школы не успевают за реальностью, правила по ИИ в образовании отстают, а проверки на cheating работают криво.
Параллельно растёт исследовательская повестка: работы про то, что зависимость подростков от ИИ-компаньонов и квазидружбы с чатботами бьёт по психике, критическому мышлению и офлайн-коммуникациям.
И что?
Поколение, о котором говорит Альтман, уже не “готовится” к миру с ИИ - оно в нём делает домашку и формирует учебные привычки. Для школы и EdTech вывод жесткий: ИИ перестал быть отдельным инструментом, он встроился в саму структуру обучения - от поиска информации до эмоциональной разгрузки. Правила уровня “запрещаем ChatGPT” превращаются в фикцию: дети уже адаптировались, взрослые ещё только обсуждают регламенты.
Для основателя это три быстрых вывода:
продукты и политики для подростков обязаны исходить из того, что ИИ-чтение, ИИ-подсказки и ИИ-пересказы уже норма, а не исключение;
грамотность по ИИ становится такой же базовой штукой, как медиаграмотность и цифровая гигиена - кто сумеет упаковать это в понятный формат для школ и родителей, получит устойчивый спрос;
окно для “детских” ИИ-продуктов узкое: или вы даёте реальную пользу и ясные границы, или подростки сами будут таскать в голову всё подряд из универсальных моделей.
Нам 3.14здец:
Школам, EdTech-проектам и родителям, которые продолжают жить по доковидным учебным правилам - 9/10 - потому что ИИ уже стал частью учебного процесса, при этом половина родителей даже не обсуждала это с детьми, а школы получают массовое списывание, зависимость от подсказок и ноль нормальной стратегии.
Что делать:
1) в любой образовательный продукт срочно добавлять явный режим “учим делать самому”, а не просто выдаём ответ, с пошаговыми объяснениями и ограничениями на прямое списывание;
2) если у тебя школа или онлайн-курс, прописать и донести до детей понятную политику по ИИ: где это помощь, а где нарушение, с конкретными примерами;
3) для родителей сделать простой скрипт разговора про ИИ и набор минимальных правил дома: какие задачи можно поручать ИИ, что никогда не грузим боту, как проверять ответы;
4) для новых продуктов думать не только про “ИИ помогает с учебой”, но и про отслеживание зависимости, защиту эмоциональных сценариев и прозрачность того, какие данные ребёнок отдаёт моделям.
BIPIAI CONF DAY1
📅 Программа конференции первого дня 3 марта (сегодня)
🧑🏿💻 19:00(CET) - Агентные системы: как собрать систему, которая делает работу И что? На воркшопе разберём, как устроены AI-агенты и как превратить их из “игрушки” в рабочую систему для бизнеса и личной продуктивности.
🧑🏿💻20:30(CET) - AGENTS: бизнес, рынок труда и новая продуктивность И что? AI-агенты как новая рабочая сила: кого и что они реально заменяют, как меняют экономику процессов и найм, сколько стоит внедрение и как за счёт агентности повышать продуктивность.
Спикеры: США/ЕВРОПА/ОАЭ
Хотите лучше разобраться в том что сейчас происходит? Приходите на конференцию.
Расписание в CET (Central European Time) — центральноевропейское время, как в Берлине и Мадриде, зимой это UTC+1.
⁉️ Для ориентира:
16:00 CET = 18:00 Москва, 07:00 Сан-Франциско, 09:00 Хьюстон, 10:00 Нью-Йорк, 00:00 следующего дня Токио.
17:00 CET = 19:00 Москва, 08:00 Сан-Франциско, 10:00 Хьюстон, 11:00 Нью-Йорк, 01:00 следующего дня Токио.
Смотреть можно в удобном месте
на YouTube | на Facebook | в Telegram
Antropic

Nano Banana
Представь: утром Дональд Трамп публично приказывает всем ведомствам выкинуть Anthropic из всех систем, а вечером OpenAI уже несёт свои модели в военный датацентр. На том же месте, где ещё вчера сидел Claude.
Anthropic упёрся: ребята согласны на военные контракты, но без массовой слежки за гражданами и без автономных систем поражения целей. Пентагону это не зашло, Трамп разозлился, оборонное ведомство повесило на Anthropic ярлык “риск для цепочки поставок” - такую бирку обычно клеят на китайские телекомы, а не на калифорнийские стартапы.
Через несколько часов в тот же кабинет заходит уже Сэм Альтман. OpenAI подписывает свой контракт с Министерство обороны США и публично говорит: у нас такие же красные линии, как у Anthropic. При этом Altman сам в AMA пишет, что сделка “точно была спешной” и что “картинка выглядит плохо”, а сам запрет Anthropic называет “очень плохим решением”.
Фактура:
Что сделал Трамп
Трамп подписал директиву: все федеральные ведомства и оборонные подрядчики в течение полугода выкидывают продукты Anthropic из своих систем.
Глава Пентагона Пит Хегсет официально пометил Anthropic как supply-chain risk - технический ярлык, который даёт право выжечь компанию из всей оборонной экосистемы. Обычно им бьют по компаниям из “враждебных стран”.
Позиция Anthropic
Anthropic уже работал с Пентагоном и допускался в закрытые сети, но потребовал в контракте две жёсткие вещи:
никаких сценариев массового слежения за гражданами США,
никакого использования моделей в полностью автономных системах поражения целей без человека в цикле.
После отказа смягчить ограничения компанию выкинули из всех госструктур разом.
Что подписал OpenAI
OpenAI заходит на то же место: Пентагонский контракт с доступом к моделям в закрытых и даже засекреченных сетях. В публичном описании - такие же красные линии: “не делаем массовую слежку по гражданам США” и “не помогаем автономным системам оружия”.
Юристы копают формулировки и находят нюансы: в тексте есть фраза про “all lawful purposes” и ссылка на Executive Order 12333 - тот самый юридический фундамент, который спецслужбы используют для определённых видов внешнего и трансграничного наблюдения. Насколько это реально ограничивает Пентагон - большой вопрос.
Сам Альтман на внутреннем all-hands и в AMA признаёт: контракт делали в спешке, чтобы “разрядить ситуацию”, и визуально всё выглядит плохо, но аргумент у него такой: если хотя бы один крупный игрок договорится с военными “на нормальных условиях”, давление на остальные компании ослабнет.
Что происходит в реальности
Медиа пишут, что военные подрядчики продолжали использовать Claude даже после официального бана - якобы в операциях против целей в Иран, потому что контракты на уровне субподрядчиков и интеграторов сразу не перепрошиваются.
На стороне потребителей всё взорвалось:
Claude вылетает на первое место в US App Store, ChatGPT уходит на вторую строчку.
Хэштеги #CancelChatGPT и им подобные разносят X и Reddit.
По оценкам аналитиков, uninstall ChatGPT в США подскочил почти в три раза за пару дней, Claude одновременно ловит пик установок и регистрации платных подписок.
На этом фоне госзаказ двигается своим ходом: всё больше ведомств объявляют, что переходят на GPT-4.1 и другие продукты OpenAI вместо Anthropic.
Кто такие эти ребята и за что борются
Anthropic - компания, которую учредили бывшие сотрудники OpenAI, делает Claude и строит имидж “самого осторожного” игрока на рынке ИИ.
OpenAI - крупнейшая ИИ-платформа для масс-маркета с ChatGPT, экосистемой плагинов, API и огромным бюджетом на инфраструктуру.
Пентагон - главный кошелёк и заказчик в оборонке США, контролирует миллиарды долларов на ИИ, разведку и автономные системы.
И что?
Госы официально начали раздавать “плюшки” за гибкость в вопросах слежки и оружия. Anthropic показал зубы - его вычеркнули из всех гос-систем одним движением. OpenAI говорит про те же принципы, но форму подал такую, что Пентагон подписал - и сразу получает жирный контракт плюс возможность закрепиться в оборонном бюджете на годы. Для основателя это сигнал:
Нужно заранее иметь чёткую публичную позицию по оборонке и surveillance и понимать, сколько денег ты готов за неё положить на стол.
Дилемма “этика против выручки” стала практической: твой пост на сайте политики использования ИИ теперь напрямую влияет на тендеры, риски санкций и отношения с регуляторами.
Пользовательский бойкот выглядит громко, но госзаказ может перекрыть его по деньгам, если ты играешь в верхнем сегменте.
Нам 3.14здец:
Независимым ИИ-компаниям, которые реально хотят и жёсткие ограничения по этике, и доступ к госденьгам - 9/10 - потому что кейс Anthropic показал: если ты упираешься по принципам, тебя могут вырубить из всего государственного сегмента целиком, а конкурент с похожими ценностями всё равно договорится и зайдёт на твоё место.
Perplexity

Nano Banana
Представь: ты приходишь к ИИ не с prompt'ом, а с задачей уровня "собери рынок, прикинь юнит-экономику, набросай код дашборда и подключи это к Notion". А дальше за тебя дерутся 19 разных моделей - Claude, GPT, Gemini, Grok и прочие - Perplexity сам раздаёт им работу и следит, чтобы всё не взорвалось.
CEO Perplexity Аравинд Сринивас при этом публично бьёт по Anthropic фразой: "самая большая слабость Claude в том, что он работает только с Claude". Это не просто подколка конкурента, а прям тезис: будущее за теми, кто умеет заставить модели из разных лагерей работать вместе.
Фактура:
Что запустили
Perplexity Computer - мультиагентная система, которая оркестрирует 19 моделей от разных вендоров (OpenAI, Anthropic, Google, xAI и другие) для сложных, длинных задач.
Внутри у них "общий мозг": Claude Opus 4.6 отвечает за разбор задачи, декомпозицию и сложное рассуждение, дальше подзадачи раздаются другим моделям под конкретные типы работ - ресёрч, код, картинки, видео и т.д.
Как это работает руками пользователя
Пользователь не пишет серию промптов, а описывает желаемый результат.
Computer под капотом создаёт “под-агентов”, которые могут:
ходить в веб,
писать код и деплоить,
дергать API подключённых приложений,
собирать документы и отчёты.
Каждый такой “job” живёт в отдельном облачном sandbox'е с реальным браузером, файловой системой и интеграциями - Perplexity обещает, что так можно безопасно держать процесс активным часами, неделями и даже месяцами.
Multi-model как фича
Система по умолчанию сама выбирает модель под каждую подзадачу, исходя из того, кто лучше пишет код, кто надёжнее ищет по вебу, кто быстрее отвечает на рутину.
Пауэр-пользователи могут вручную закреплять конкретные модели за конкретными задачами - пример: "код только на GPT, ресёрч только на Claude, быстрые ответы на Grok".
Сринивас в своём тексте проговаривает стратегию: одна модель семейства не выдаёт максимум без помощи других, а мульти-модельная оркестрация даёт заметный прирост качества против одиночной модели.
Цены и доступ
Computer доступен пользователям Perplexity Max - это примерно $200 в месяц за подписку.
Модель монетизации - почасово/поточечно за потребление:
Max-подписка даёт банк в 10 000 кредитов в месяц,
ранним пользователям добавляют ещё 20 000 бонусом на первые 30 дней,
можно ставить лимиты и выбирать, какие модели жрут бюджет, а какие нет.
Для кого это по замыслу
Perplexity продаёт продукт как “general-purpose digital worker” - цифровой сотрудник, который может исследовать рынок, собирать данные, писать код, запускать автомации и подключаться к 400+ приложений.
Отдельный фокус - дорогие B2B-сценарии и enterprise-решения, где важны длинные процессы и аккуратная работа с данными.
Кто такие Perplexity и почему это серьёзно
Perplexity - поисковый ИИ-сервис с оценкой вокруг $20 млрд, уже давно живёт как "поиск с ИИ-слоем" плюс подписки Pro/Max.
Компания давно пушит тезис, что выиграет не тот, у кого один самый мощный модельный стек, а тот, кто управляет зоопарком моделей и выдаёт пользователю единый слой “сделай работу под ключ”.
И что?
Perplexity первым из крупных ребят превращает “у нас есть выбор моделей” в продуктовую основу, а не в маленький селект в настройках. Для рынка это разворот: важнее не чья модель под капотом, а кто контролирует оркестрацию и кто владеет контекстом задач.
Для основателя вывод простой:
если ты делаешь агентного ассистента или "цифрового сотрудника", пользователь скоро будет ждать мульти-модель по умолчанию;
бренд конкретной LLM тухнет, бренд оркестратора и UX поверх стека - наоборот, набирает вес;
то, что раньше делали сами руками через n8n и OpenClaw, Perplexity пакует в готовый сервис для бизнеса.
Нам 3.14здец:
Продуктам и командам, которые строят агентные решения вокруг одной модели и жёсткого вендор-локина - 8/10 - потому что Perplexity публично поднимает планку: нормой становится “одна задача - много моделей под капотом”, а клиенты будут спрашивать, почему ваш ассистент это не умеет.
Что делать:
1) провести аудит - где в ваших сценариях реально нужна вторая и третья модель (код, поиск, структурирование, медиа) и добавить хотя бы базовую оркестрацию;
2) вытащить модель из центра позиционирования и продавать результат и SLA (скорость, надёжность, качество), а не “мы на GPT/Claude”;
3) заложить в архитектуру слой маршрутизации задач - чтобы завтра подменить провайдера без переписывания всего продукта;
4) если вы B2B, готовить историю “multi-model by design” для продаж и тендеров, потому что после таких релизов это превращается в чекбокс в RFP.
Antropic

Nano Banana
Представь: к тебе в компанию заходит Anthropic и говорит HR, банку, аналитикам и инженерам: у каждого теперь свой Claude-сотрудник, живущий прямо в тех сервисах, где вы и так варитесь. А IT-отделу сверху выдают панельку, где эти агенты включаются, режутся по доступам и раскладываются по командам, как софт по лицензиям.
Cowork ещё месяц назад был «ресёрч-превью» с одним громким юридическим плагином, который так напугал инвесторов, что по SaaS улетели миллиарды капитализации. Сейчас это уже дашборд из десятка отделов, коннекторы к Gmail, Excel, PowerPoint и куче профсофта, плюс private-store для своих агентов.
Фактура:
Что выкатили
Крупный апдейт Cowork: готовые агентные плагины сразу для 10 направлений - HR, инженерия, дизайн, операции, финанализ, инвестбанк, equity research, private equity, wealth management и бренд-маркетинг.
Каждый плагин делали с практиками из отрасли: словарь, формы, типовые задачи завязаны на реальный рабочий день, а не на абстрактный «помоги с отчётом».
Коннекторы и партнёры
Новый набор коннекторов: Google Workspace (Calendar, Drive, Gmail), DocuSign, CRM и sales-инструменты вроде Apollo и Outreach, данные от MSCI и LegalZoom, финансовые и контентные штуки вроде WordPress и FactSet, плюс юридический ассистент Harvey.
Сторонние партнёры принесли свои плагины: чат для работы – Slack, данные и индексы – S&P Global, биржевая инфраструктура – LSEG, плюс Apollo, Common Room, Tribe AI и другие.
Частные магазины агентов
Компании могут собрать свой внутренний marketplace агентов:
сделать набор плагинов под свои процессы,
раздать их по отделам,
жёстко ограничить, кто к чему имеет доступ.
Админке завезли нормальное управление: стартовые шаблоны плагинов, пер-пользовательные права, поддержку OpenTelemetry, чтобы считать, кто чем пользуется и куда утекает бюджет.
Excel + PowerPoint как единое поле боя
В режиме research preview Claude умеет прыгать между Excel и PowerPoint:
гонять расчёты в таблицах,
тут же собирать из них презентацию,
держать контекст между файлами.
Это уже очень похоже на живого аналитика: поднял данные, сверстал графики, потом за вечер сделал нормально упакованный deck.
Как это бьёт по рынку
Первый запуск Cowork с юридическим плагином уже устраивал мини-кризис: по оценкам, на панике по автоматизации юристов с рынка улетело до $800+ млрд капитализации софта, потом часть отросла назад.
Сейчас Anthropic смягчает месседж – говорит про помощь экспертам и рост продуктивности, но плагинами закрывает всё больше кусочков работы: от найма и онбординга до инвестиционных мемо и отчётов по рынкам.
Клиенты уровня Thomson Reuters и RBC Wealth Management уже гоняют эти агенты в проде, а у партнёров вроде Salesforce и FactSet после анонса аккуратно подросли акции.
Где тут OpenAI
Параллельно OpenAI пушит свой агентный стек Frontier - платформу, где компании управляют ИИ-агентами «как новыми сотрудниками», через партнёрства с McKinsey, BCG, Accenture и другими консультантами.
История превращается в гонку двух платформ: Claude Cowork против Frontier за роль базовой прослойки между людьми и корпоративным софтом.
И что?
Anthropic аккуратно превращает корпоративный офис в набор отделов, где у каждого сидит специальный Claude-агент, вшитый в привычные инструменты.
Для бизнеса это смена картинки:
вместо одного «универсального бота» компании получают дашборд из агентов по функциям,
IT и безопасность получают нормальные рычаги - кто к чему подключён, что видит и сколько стоит,
мужчины и женщины в Excel и PowerPoint получают реального «второго номера», который тащит рутину по отчётам и презентациям.
Если темп обновлений сохранится, рабочий день knowledge worker постепенно уедет в слой агентных платформ (Cowork / Frontier), а сами приложения станут фоном, куда эти агенты просто ходят за данными.
Нам 3.14здец:
B2B-SaaS в зонах HR/финансы/аналитика/юридические и любым «инструментам вокруг Excel/PowerPoint» - 9/10 - потому что ваш функционал начинают упаковывать в плагины под Claude и Frontier, а точкой входа в работу становится не ваш UI, а агентная платформа.
Что делать:
1) чётко решить, где вы хотите жить - отдельным продуктом или официальным плагином в Cowork/Frontier - и уже сейчас строить интеграции, а не ждать, пока вас обогнут партнёры;
2) вытащить «агента» в продуктовую стратегию - добавить сценарии, где ваш сервис управляется через ИИ, а не только вручную в интерфейсе;
3) делать продажи с акцентом на совместимость - «мы сразу работаем с Claude/OpenAI» - потому что для enterprise это превращается в обязательный чекбокс;
4) внутри своей компании поставить пилот Cowork или Frontier на одном отделе и руками померить, сколько времени и денег съедают такие агенты и какие процессы проще отдать им прямо сейчас.
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
📉 Block (финтех-компания Джека Дорси, владеет Square и Cash App) уволила больше 4 000 из 10 000 сотрудников, прямо сказав, что ИИ позволяет сделать ту же работу меньшими командами, и на этом фоне акции выросли больше чем на 20 %. И что? Это первый большой публичный кейс, где “оптимизация ИИ” официально превращается в обоснование массовых сокращений, значит твой борд и инвесторы тоже начнут спрашивать, сколько людей можно срезать под похожий нарратив и где у тебя план по AI-эффективности.
🧱 Meta (владелец Facebook/Instagram/WhatsApp) и AMD (производитель GPU-чипов Instinct) подписали многолетнее соглашение на до 6 ГВт GPU-мощностей для ИИ-кластеров Meta, с первым гигаватом уже в ближайшие месяцы. И что? Это заявка на альтернативу Nvidia в гипермасштабе: если у Meta получится вытянуть продакшен-нагрузку на AMD, для всех остальных компаний откроется больше вариантов по железу, а ценник на вычисления для крупных ИИ-проектов может поехать вниз.
🧬 Imbue (стартап по “агентам, которые реально думают”) выложил в опенсорс Darwinian Evolver (фреймворк, который эволюционирует код и промпты как в биологии), добившись 95 % на бенчмарке ARC-AGI-2 (задачи на абстрактное мышление) и уровня GPT-5.2 для этой задачи. И что? Появился бесплатный “авто-оптимизатор” для промптов и кода с результатами уровня топ-моделей, и это ускорит всё: от генерации пайплайнов до тюнинга агентов, так что через пару месяцев конкуренты смогут выжимать из тех же моделей сильно больше качества и скорости.
🧠 Perplexity (поисковый ИИ-сервис) открыл pplx-embed - свои embedding-модели (модели, которые превращают текст в вектор для поиска и RAG), которые по бенчмаркам обгоняют аналоги от Google и Alibaba и при этом в бинарном виде ужимаются до 32 раз по памяти. И что? Для тебя это дешевле и точнее векторное хранилище: можно держать гораздо больше документов в индексе, быстрее искать и не платить сумасшедшие счета за хранение, плюс конкуренты получат такой же буст “из коробки”.
📚 Pew Research Center (исследовательский центр про общество/цифру) показал, что американские подростки массово используют ИИ для учёбы и развлечения, сами считают это плюсом, при этом около 60 % уверены, что одноклассники постоянно списывают с ИИ, а 40 % родителей вообще ни разу об этом с детьми не говорили. И что? Поколение, которое придёт к тебе на работу через 3–7 лет, уже формирует мышление через ИИ-подсказки и авто-решения, так что твоим продуктам и внутренним политикам придётся исходить из “ИИ как базовый инструмент”, а не из старой школы с запретами и антиплагиатом. А подробнее читай в статье в этом дайджесте
⚡️ Inception Labs (стартап про быстрые модели для продакшена) выкатил Mercury 2 - “диффузионную модель рассуждений” (модель, которая генерирует ответы как диффузионка, но в токенах) со скоростью 1 009 токенов в секунду на Nvidia Blackwell и ценой от $0.25 за миллион входных токенов. И что? Это сдвиг кривой “качество/скорость”: для продуктовых команд появляется вариант строить умных агентов и чат-интерфейсы с приличным рассуждением, но по цене и латентности, которые раньше были доступны только тупым быстрым моделям.
🎵 Google Labs (песочница ИИ-экспериментов Google) купил ProducerAI (платформа, где музыканты собирают треки вместе с ИИ) и подключает её к модели Lyria 3 (музыкальный генератор Google DeepMind) плюс Gemini (чат-интерфейс) и другим моделям для обложек и клипов. И что? Google собирает полный вертикальный стек “музыка из текста” для продюсеров и артистов, и если твой бизнес где-то между продакшеном звука, стоками и лицензированием, придётся либо дружить с этим стеком, либо искать очень понятную нишу и ценность поверх.
⌨️ Andrej Karpathy (сооснователь OpenAI, бывший директор по ИИ в Tesla) сказал, что “программирование становится неузнаваемым: эпоха, когда мы набирали код в редактор, закончилась, теперь мы создаём ИИ-агентов, даём им задачи на английском и управляем их работой”. И что? Для твоей команды это сигнал, что ценность смещается от ручного кода к умению ставить задачи, собирать системы из агентов и проверять их работу, а с наймом разработчиков скоро придётся смотреть на “менеджера ИИ-рабочих”, а не только на “писателя промптов”.
💻 Anthropic (создатели Claude) запустил Remote Control для Claude Code (кодовый ассистент Claude), который позволяет продолжать локальную терминальную сессию с телефона или браузера, пока код и инструменты реально крутятся на твоей машине. И что? Разработчикам становится проще жить в гибриде “локально + облако”: можно уходить с ноутбука, но не обрывать долгие процессы и отладку, а для тебя как фаундера это ещё один кирпич в сторону постоянного “always-on” рабочего окружения для инженеров.
🧑🚀 David Luan (экс-основатель Adept и глава AGI-лаба Amazon в Сан-Франциско, курировал браузерного агента Nova Act) уходит из Amazon, чтобы “варить что-то новое” в AGI, спустя меньше двух лет после аквихайра. И что? Талант такого уровня снова уходит в стартап-зону, а для Amazon это минус ещё один заметный лидер по агентным системам, так что мы получаем ещё одного игрока на рынке независимых AGI-компаний и больше шансов увидеть агрессивный новый проект с фокусом на веб-агентов.
🏢 OpenAI (создатель ChatGPT и платформы GPT-моделей) нанял Arvind KC (HR/инженерный лидер с бэкграундом в Roblox, Google, Palantir и Meta) на позицию Chief People Officer (директор по людям и оргразвитию) как ключевого человека для масштабирования компании и подготовки к IPO/мега-раунду. И что? OpenAI явно собирает “машину управления людьми” под уровень десяти тысяч+ сотрудников и публичный рынок, а это значит, что стандарты по тому, как ИИ-компания может выглядеть организационно, будут задаваться ими - и инвесторы начнут ждать от тебя чуть более взрослой оргструктуры и процессов, чем просто “крутая техкоманда”.
🚨 Нам 3.14здец: фаундерам и руководителям цифровых бизнесов среднего и крупного масштаба - 9/10 - потому что ИИ стали официальным поводом для увольнений, драйвером многолетних сделок на железо и новой нормой в привычках подростков, а это сразу бьёт по структуре команд, себестоимости и будущему найму;
BIPIAI Инструменты
📊 Perplexity Computer - Система агентов Perplexity, которая оркестрирует несколько моделей и ведёт длинные workflow.
💻 Custom Agents - AI-агенты Notion, которые автоматически запускаются по триггерам и выполняют повторяющиеся задачи.
🔁 Seedream 5.0 Lite - Улучшенная модель генерации изображений с более сильным пониманием инструкций и визуальным качеством.
BIPI AI - СООБЩЕСТВО!
Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.
BIPIAI - закрытый клуб фаундеров и топ-спецов.
Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность
90+ участников, 15 стран.
На сегодня это все
Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.
До завтра!
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.



