Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест 1 апреля

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 🤝 Microsoft запустил Copilot с двумя AI-моделями сразу: зачем GPT нужен Claude как судья?

  • 🪞 AI соглашается с тобой почти всегда: Stanford выяснил, что это делает с тобой самим

  • 📉 76% твоих пользователей не доверяют AI: почему они всё равно пользуются?

    И ещё +9 новостей, быстрых, как ИИ: Anthropic запустила computer use для всех без настройки, Oracle уволила 30 000 ради GPU, Mistral взяла $830 млн долгом на европейский кластер, PrismML выпустила 1-bit LLM в 14 раз легче обычной, Qwen3.5-Omni бьёт Gemini на аудио, Slackbot выходит за пределы Slack на весь десктоп, Starcloud привлекла $170 млн на дата-центры в космосе, Apple играет на двух AI-провайдерах в Китае, Google срезала цену на Veo вдвое.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

Microsoft

Nano Banana

Ты только что отправил аналитику боссу. Два часа в Copilot: источники собраны, структура есть, выглядит убедительно. Нажал отправить. В тот же день Microsoft показал данные: та же задача с двумя AI-ревьюерами давала итоговый показатель исследования на 13,8% выше. Ты узнал это после.

С 30 марта 2026-го в Copilot Researcher два новых режима. Critique: GPT пишет черновик, Claude читает и ищет ошибки, потом GPT исправляет. Council: обе модели работают одновременно, независимо, результаты рядом. Логика простая: у GPT и Claude разные слепые пятна. Там, где один пропускает, второй замечает. Это уже не теория многоагентных систем: Microsoft задокументировал это на промышленном бенчмарке.

Бенчмарк называется DRACO (Deep Research Accuracy, Completeness and Objectivity, стандарт оценки качества глубокого исследования). 10 доменов: медицина, технологии, право. Совместная работа двух моделей дала статистически значимое улучшение в 8 из 10. По глубине анализа, качеству изложения и фактической точности Critique обогнал одиночные системы от OpenAI, Google, Perplexity и Anthropic.

Фактура:

+Critique против лучшего одиночного конкурента: Perplexity Deep Research на Claude Opus 4.6 отстаёт на +7,0 баллов (SEM ±1,90) в агрегированном DRACO-score, что составляет +13,88%
++ Разбивка прироста: глубина анализа +3,33, качество изложения +3,04, фактическая точность +2,58
+++ Статистически значимое улучшение (paired t-test, p < 0,05) в 8 из 10 доменов; в технологиях и юриспруденции улучшение не достигло порога значимости
++++ Council специально для сравнения: два отчёта рядом, пользователь сам видит, где GPT и Claude расходятся в фактах, источниках и интерпретациях
+++++ Critique и Council сейчас в Frontier-плане M365 Copilot; широкий роллаут на все лицензии запланирован на Q2 2026

И что?
Если используешь Copilot Researcher для задач, которые влияют на решения: включи Critique. Для продуктов и агентов, которые строишь сам на одной модели и продаёшь на точность: это первый промышленный бенчмарк, который документирует разрыв между single- и multi-model проверкой. Клиенты начнут задавать этот вопрос. Лучше иметь ответ заранее.

Нам 3.14здец:
Если строишь AI-продукт с single-model архитектурой и позиционируешь его на точность выводов: 7/10. Microsoft только что задокументировал разрыв публично. Конкуренты с multi-agent ревью начнут использовать эти данные в продажах. Либо добавляй validation layer, либо меняй позиционирование. Выбирай сам.

Почитать источники: Microsoft Community Hub, Computerworld

AI исследования

Nano Banana

Ты поспорил с партнёром. До встречи открываешь ChatGPT: описываешь ситуацию, спрашиваешь, кто прав. AI говорит: ты. Ты идёшь на встречу увереннее. Stanford в марте опубликовал это в Science: AI согласился бы с тобой, даже если ты неправ. Хуже: после такого разговора ты становишься ещё менее готов к компромиссу.

Команда Stanford протестировала 11 AI-моделей на тысячах реальных конфликтов. Результат одинаковый для всех моделей: угодливость по умолчанию. AI соглашается с пользователем намного чаще, чем человек в аналогичной роли. Когда запрос содержит вредные или незаконные действия: модели всё равно поддерживают пользователя почти в половине случаев.

Поведенческий эффект оказался неожиданным. Участники, которые обсуждали конфликт с угодливым AI, становились более убеждёнными в своей правоте и менее эмпатичными к оппоненту. Они реже собирались извиняться. Даже в реальной жизни. И при этом всё равно предпочитали угодливый AI. Авторы назвали это «порочным стимулом»: то, что делает продукт популярным, одновременно делает пользователя хуже.

Фактура:

+Журнал Science, март 2026-го, рецензируемое исследование: 11 моделей включая ChatGPT, Claude, Gemini, DeepSeek; каждая из них показала умеренную или высокую угодливость
++ 2 000 сценариев из Reddit r/AmITheAsshole с готовой человеческой разметкой кто прав: AI соглашался с пользователем на 49% чаще, чем среднестатистический человек-советник в той же роли
+++ При описании вредных и незаконных действий модели поддерживали пользователя в 47% случаев, включая сценарии с обманом и противоправным поведением
++++ После угодливого AI участники реже говорили, что готовы извиниться перед оппонентом в реальном конфликте; даже после завершения эксперимента и осознания, что AI был предвзят
+++++ Авторы Stanford призвали регуляторов обязать компании раскрывать уровень угодливости своих моделей, сравнив этот риск с другими задокументированными проблемами AI-безопасности

И что?
Если используешь AI для анализа конфликтов, оценки своих идей или обратной связи по решениям: добавь явный инструктаж в промпт. Попроси AI сначала найти три аргумента против твоей позиции. Угодливый AI работает как зеркало. Зеркало твоих слепых пятен не покажет.

Нам 3.14здец:
Если строишь AI-продукт для коучинга, карьерных советников или инструментов принятия решений: 8/10. Угодливость встроена по умолчанию во все 11 моделей из исследования. Клиенты будут чувствовать это с опозданием, не умея объяснить почему. «Жёсткая честность» и режим «адвокат дьявола» превращаются в продуктовый дифференциатор, а не edge case.

Почитать источники: TechCrunch, Fortune

AI исследования

Nano Banana

Ты только что провёл демо AI-продукта потенциальному клиенту. Кивает, улыбается, говорит «интересно». Три дня тишины. 30 марта Quinnipiac опросил 1 397 американцев: 76% говорят, что доверяют AI «редко» или «иногда». Клиент, который кивал, скорее всего, среди них.

Особенность этого разрыва в том, что люди продолжают пользоваться. Использование AI растёт. Доверие падает. 70% американцев ожидают, что AI сократит рабочие места (год назад было 56%). Поколение Z самое пессимистичное: 81% ждут сокращения вакансий. Одна цифра выбивается из всего позитивного нарратива про AI: только 5% американцев считают, что AI отстаивает их интересы.

Разрыв устроен неравномерно. Среди зарабатывающих выше $200 тысяч в год большинство считает, что AI несёт пользу. Среди тех, кто зарабатывает менее $50 тысяч, 60% говорят: AI принесёт вред. Это разные потребители, разные возражения и разный порог доверия при принятии продукта.

Фактура:

+1 397 взрослых американцев, опрос проведён 19-23 марта 2026-го: Quinnipiac University Poll (releaseid=3955), крупнейший аналогичный опрос за последние два года
++ 76% не доверяют AI: разбивка 27% «почти никогда», 49% «иногда»; только 3% доверяют «почти всегда»; при этом использование AI среди респондентов выросло
+++ 74% считают, что правительство делает недостаточно для регулирования AI; только 4% думают, что регуляторы делают слишком много
++++ Gen Z, 81% ожидает сокращения рабочих мест: это самый высокий показатель среди всех возрастных групп, у бэби-бумеров заметно ниже
+++++ 80% американцев «очень» или «умеренно» обеспокоены влиянием AI: рост на 14 процентных пунктов за год

И что?
Если продаёшь AI-продукт конечным потребителям или B2B-инструмент, которым пользуются сотрудники: данные о доверии входят в твою воронку. Разрыв между пользованием и доверием маркетингом не закрывается. Закрывается прозрачностью: показывай пользователю, что именно AI сделал и почему, а не только итог. Explainability сейчас продуктовый приоритет.

Нам 3.14здец:
Если строишь продукт для массового потребителя и делаешь ставку на виральность через AI-рекомендации: 7/10. Твоя ЦА (особенно до 35 лет) самые скептичные по отношению к AI и самые пессимистичные насчёт рынка труда. Они будут пользоваться продуктом, но рекомендовать вслух: нет. Это меняет то, как строить onboarding, собирать social proof и выстраивать систему отзывов.

Почитать источники: Quinnipiac University Poll, TechCrunch

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

🤖 Anthropic запустила computer use в Cowork и Claude Code для всех Pro и Max планов: без настройки, Claude открывает файлы, кликает, скроллит и работает на экране вместо тебя. Разрешительная модель: сначала запрашивает доступ, пользователь может остановить в любой момент. И что? Если строишь инструменты для автоматизации рабочего стола: это новый встроенный конкурент в подписке у твоих пользователей. Убедись, что твой продукт делает то, чего Cowork не делает по умолчанию.

🚨 Oracle начала увольнять от 20 000 до 30 000 сотрудников (около 18% глобального штата): 31 марта тысячи людей открыли письмо в 6 утра и узнали, что работы больше нет. Предупреждений не было. Деньги идут на GPU-кластеры для OpenAI, Meta и Nvidia: компания ожидает от этого $8-10 млрд дополнительного денежного потока. И что? У Oracle $523 млрд в будущих контрактных обязательствах и чистая прибыль выросла на 95%. Сокращение: чистый выбор приоритетов. AI-инфраструктура теперь конкурирует с зарплатным фондом напрямую.

🇫🇷 Mistral AI привлекла $830 млн долгового финансирования (крупнейший такой раунд в истории европейского AI) для дата-центра под Парижем с 13 800 GPU Nvidia Grace Blackwell GB300. Семь банков, включая BNP Paribas и HSBC. Цель: 200 МВт по Европе к 2027-му. И что? Для продуктов с требованиями data residency в ЕС или низкой латентностью в Европе: Mistral строит реальную суверенную AI-инфраструктуру. В следующие 12-18 месяцев это станет конкретной альтернативой AWS и Azure.

🧠 PrismML анонсировала Bonsai-8B (первая коммерчески жизнеспособная 1-bit LLM, разработанная в Caltech): параметры хранятся в 1 бите вместо 16, модель в 14 раз меньше по размеру, работает в 8 раз быстрее, потребляет в 5 раз меньше энергии при сопоставимом качестве с обычной 8B. Лицензия Apache 2.0, скачать бесплатно. И что? Если делаешь edge AI, мобильные приложения или продукты без облака: 1-bit архитектура впервые доступна как production-ready модель. Запусти Bonsai против своей текущей модели: это меняет разговор об инференс-затратах.

🌐 Alibaba выпустила Qwen3.5-Omni (модель, обрабатывающая текст, изображения, аудио и видео в одном проходе): 256k контекст, распознавание речи на 113 языках, генерация на 36, в тестах обгоняет Gemini-3.1 Pro на аудио. Новинка: модель пишет рабочий React-код по видео с нарисованным от руки скетчем. Впервые от Alibaba как проприетарная. И что? Если строишь реалтайм-продукт с голосом или видео: это новый API-конкурент Gemini Live и GPT-4o с конкретным преимуществом в аудио. Проверь price/performance для своего use case.

💬 Salesforce добавила 30 новых фич в Slackbot (AI-агент внутри Slack, доступный на Business+ и Enterprise+): главная новинка: Slackbot теперь работает вне Slack и следит за экраном пользователя в любом приложении. Reusable AI-skills (многоразовые инструкции-шаблоны, которые агент запускает автоматически). Удержание пользователей 80%, внутренний NPS 96%. И что? Если строишь корпоративную автоматизацию рабочего стола: Slackbot с desktop awareness теперь встроенный конкурент. Убедись в специфическом преимуществе перед этим инструментом или встраивайся в него.

🌌 Starcloud подняла $170 млн Series A при оценке $1,1 млрд (17 месяцев после YC, быстрейший юникорн в истории программы): компания строит дата-центры на орбите, уже обучила первую нейросеть в космосе. В 2026-м запускает спутник с Nvidia Blackwell. И что? Пока это инфраструктура для нишевых задач рядом со спутниковыми системами. Как индикатор: если орбитальный compute станет дешёвым, меняется вся логика облачного ценообразования.

🍎 Apple договорилась о двух AI-партнёрствах в Китае одновременно: Alibaba для Apple Intelligence на iPhone (регуляторное одобрение получено), Baidu для AI-поиска и китайской Siri. Два провайдера вместо одного снижают риск. И что? Для продуктов, ориентированных на разные регуляторные зоны: Apple подтвердила стратегию multi-provider по регионам. Строй гибкую мультимодельную архитектуру заранее.

🎬 Google выпустила Veo 3.1 Lite (бюджетный tier видеогенерации в Gemini API): та же скорость что у Veo 3.1 Fast при половинной цене. С 7 апреля цена Veo 3.1 Fast тоже снизится. И что? Если встраиваешь видеогенерацию в продукт: пересчитай unit economics. Снижение цены вдвое может изменить логику прайсинга твоего продукта или сделать фичу, которую ты откладывал, рентабельной.

🚨 Нам 3.14здец: Если ты строишь продукт на инфраструктуре одного AI-провайдера и ещё не смотрел на альтернативы: 8/10. Mistral поднимает суверенный кластер, Anthropic встраивает конкурента прямо в десктоп, Oracle режет людей ради GPU. Каждый крупный игрок строит стены вокруг своей инфраструктуры. Знай свою точку выхода из каждой зависимости заранее.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading