Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест 31 марта

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 📚 Почему крупнейший источник знаний в интернете запрещает то, чем Google и Meta кормят весь рынок?

  • 🔓 Anthropic случайно показал миру: их «самый безопасный AI» на самом деле их самый опасный

  • 🥊 WSJ потратил месяцы на расследование, почему два CEO не пожали руки в Нью-Дели

И ещё +9 новостей : быстрых, как ИИ: Anthropic выиграла суд у Пентагона, Eli Lilly поставила $2.75 млрд на AI-наркотики, Xiaomi провёл неделю под псевдонимом на OpenRouter и занял первое место, Altman признался в Slack что «спасал» конкурента пока подписывал их клиента, Пентагон называет Anthropic угрозой нацбезопасности, Musk потерял последнего сооснователя xAI, Google превращает любые наушники в переводчика на 70 языков, Midjourney V8 в 5 раз быстрее и в нативном 2K, Microsoft поглотил команду Cove.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

WIKI

Nano Banana

Ты готовишь материал для клиента. Один из ключевых фактов берёшь из Wikipedia. Через неделю клиент возвращается: источник не существует. Ты проверяешь. Wikipedia ссылается на статью, которой нет. Та статья, скорее всего, написана LLM, который обучился на предыдущих Wikipedia-текстах. 20 марта 2026-го английская Wikipedia проголосовала 44-2 за полный запрет LLM в написании статей.

Голосование прошло почти без сопротивления. Прошлые попытки установить широкие AI-правила заходили в тупик: редакторы не могли договориться. Накопление AI-ошибок сломало консенсус. Новая политика: LLM запрещены для написания или переработки статей. Разрешено: грамматические правки и первичный перевод с обязательной проверкой человека. Автор политики назвал происходящее pushback против enshittification (постепенного ухудшения качества сервисов под корпоративным давлением). Пока Wikipedia держит человеческую линию, Elon Musk двигается в обратном направлении: его Grokipedia (AI-созданная энциклопедия) к февралю 2026-го набрала 80% от числа статей английской Wikipedia.

Фактура:

+Голосование 44-2 прошло 20 марта 2026-го: LLM полностью запрещены для написания и переработки статей
++ Два исключения: грамматические правки и первичный перевод с обязательной проверкой человека
+++ StackOverflow и немецкая Wikipedia ввели аналогичные запреты; испанская Wikipedia запретила ИИ полностью, включая редактирование
++++ В 2025-м объём AI-текста в сети впервые превысил объём человеческого: Wikipedia закрывает ворота когда паводок уже пришёл
+++++ Grokipedia к февралю 2026-го набрала 80% от числа статей английской Wikipedia

И что?

Если пользуешься Wikipedia как источником для материалов, исследований или системных промптов: статьи, написанные до запрета, прошли без проверки. AI-галлюцинации в Wikipedia уже осели в базах данных, обучающих выборках и контентных стратегиях. Начни проверять ключевые факты по первоисточникам, а не по итоговой статье. Запрет хорошая новость, но он не чистит то, что уже попало в базу.

Нам 3.14здец:

Если строишь продукт на AI-генерации справочного или энциклопедического контента: 7/10. Wikipedia, StackOverflow, GitHub уже закрыли двери. Человеческая проверка превращается в качественный знак отличия. Следующий вопрос: твои пользователи скоро начнут спрашивать «написано человеком?» так же, как сейчас спрашивают «данные защищены?».

Почитать источники: TechCrunch, Engadget, Wikipedia: Grokipedia

Anthropic

Nano Banana

Ты выбрал Anthropic потому что они позиционируют себя как самую безопасную AI-компанию на планете. Constitutional AI. Медленные релизы. Никакого unsafe output. 25 марта 2026-го их CMS случайно открыл около 3 000 непубличных материалов. Среди них: черновик блога о новой модели Claude Mythos, которую Anthropic сам описывает как «беспрецедентный риск для кибербезопасности». Компания, которая строила репутацию на самом безопасном AI, случайно показала, насколько этот AI опасен.

Фактура:

+Конфигурационная ошибка CMS открыла около 3 000 неопубликованных материалов; обнаружили Roy Paz (LayerX Security) и Alexandre Pauwels (University of Cambridge)
++ Capybara: новый уровень выше Opus, «крупнее и умнее» по словам черновика; официальное название: Claude Mythos
+++ Черновик: «в настоящее время далеко впереди любой другой AI-модели в кибербезопасности» и «может помочь хакерам опережать защитников»
++++ Anthropic подтвердил Fortune: тестируют «новую модель со значимым прогрессом в рассуждении, программировании и кибербезопасности»
+++++ Модель дорогая в запуске и пока недоступна широкой аудитории; работа с ранними пользователями уже идёт

И что?

Если строишь продукт на API Anthropic: проверь страницу ранних пользователей Mythos и подпишись на обновления. Прогресс в кодировании и рассуждении выше уровня Opus означает новый потолок для агентных задач. Пройдись по списку ограничений своего продукта: какие из них технические, а какие просто потолок нынешних моделей. Они могут исчезнуть в одном релизе.

Нам 3.14здец:

Если строишь продукт в кибербезопасности на базе AI или инструменты для пентестинга: 9/10. Если Anthropic прав и Mythos реально далеко впереди в кибербезопасности, это меняет и атаку, и защиту одновременно. Лаборатории начали явно признавать dual-use риски своих моделей. Рынок AI-кибербезопасности ускоряется независимо от того, выйдет Mythos в этом квартале или нет.

Почитать источники: Fortune, Futurism, Euronews

VS

Nano Banana

Ты видел фото из Нью-Дели в феврале. Все AI-лидеры держатся за руки для общего снимка. Кроме двух: Sam Altman и Dario Amodei поднимают кулаки в воздух. Отдельно. Ты пожал плечами. WSJ не пожал. Расследование заняло несколько месяцев. Вывод: стратегические решения двух самых дорогих AI-компаний мира управляются личными обидами, которые накапливались с 2016-го.

Фактура:

+Дом на Delano Avenue в Сан-Франциско, 2016-й: отправная точка личного разрыва между Dario Amodei и Sam Altman по версии WSJ (Тогда Dario и Daniela Amodei жили в групповом доме на Delano Avenue в Сан-Франциско. Greg Brockman, один из сооснователей OpenAI, дружил с Daniela и часто бывал там.)
++ Greg Brockman однажды предложил продать AGI Совету Безопасности ООН ядерным державам: Dario Amodei посчитал это «равносильным государственной измене»
+++ Altman обвинил Amodei в заговоре против него перед советом директоров OpenAI, затем отрицал при очной встрече
++++ В частных переписках Dario сравнивал конфликт Altman/Musk с Hitler vs Stalin; взнос Brockman в проTrump-фонд назвал «злом»; OpenAI уподобил Big Tobacco
+++++ Февраль 2026-го: Altman и Amodei стоят рядом на сцене в Нью-Дели, поднимают кулаки вместо рукопожатия пока другие лидеры держатся за руки

И что?

Сними с публичных заявлений Anthropic и OpenAI ореол чистой рыночной стратегии. Когда одна из компаний объявляет партнёрство, меняет продуктовый курс или выступает против другой: ищи личную логику за корпоративной. Это позволит точнее оценивать риск зависимости от конкретного провайдера и видеть, какие их решения долгосрочные, а какие реакция на личный конфликт.

Нам 3.14здец:

Если строишь продукт на API и ещё не диверсифицировал между Anthropic и OpenAI: 7/10. Личный конфликт двух CEO уже конвертируется в корпоративные решения: Пентагон, публичные заявления, стратегические ставки. Когда управление крупнейшими AI-лабораториями частично определяется личными обидами, это операционный риск для всех, кто от них зависит. Держи план миграции между провайдерами как часть архитектуры. Ну и не стоит забывать про Илона Маска, который только и делает что судится с Альманом.

Почитать источники: WSJ, The Currency, Fortune

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

🏛️ Anthropic (AI-лаборатория, разработчик Claude) выиграла предварительный судебный запрет против Пентагона: федеральный судья заблокировал решение Минобороны пометить компанию как «риск цепочки поставок». Судья назвал действия правительства «классической незаконной местью за реализацию Первой поправки». И что? Если строишь AI-продукт для B2G-рынка: прецедент важен. Государство попытались использовать административный ярлык как оружие против компании за её публичную позицию. Суд остановил. Следи за апелляцией.

💊 Eli Lilly (американский фармгигант, производитель Ozempic и Zepbound) заключил сделку на $2.75 млрд с Insilico Medicine (AI-платформа для разработки лекарств, Гонконг): исключительная лицензия на 28 AI-разработанных препаратов, почти половина уже на стадии клинических испытаний. И что? Для medtech и biotech команд: барьер «у нас слишком чувствительная область для AI» больше не аргумент. Если Lilly с их регуляторными ограничениями ставит $2.75 млрд на AI-разработанный pipeline, твоя область скорее всего тоже готова.

🤖 Xiaomi выпустил MiMo-V2-Pro: триллионный MoE-агент (модель с 1T+ параметров, оптимизированная для агентных задач), который неделю торговал на OpenRouter под псевдонимом Hunter Alpha, занял первое место по популярности и был принят за DeepSeek V4. Бесплатно на сайте Xiaomi, $0.30/1M токенов через OpenRouter. Производительность: обходит Claude Sonnet 4.6 в коде, приближается к Opus 4.6 в агентных задачах. И что? Если платишь за Claude API или GPT-4-класс для coding-задач: прямо сейчас проверь MiMo-V2-Pro на своих тестовых кейсах. Соотношение цены и качества может оправдать миграцию.

🐦 Sam Altman сообщил сотрудникам OpenAI через Slack, что пытался «спасти» Anthropic во время пентагонского противостояния: пока OpenAI одновременно подписывал контракт с Пентагоном, который Anthropic только что потерял. По словам Axios, Altman в тех же Slack-сообщениях обвинял Amodei в многолетних попытках его подставить. И что? Публичные заявления о взаимопомощи и внутренние сообщения о претензиях: это разные документы. При оценке партнёрств и публичных позиций крупных AI-компаний всегда ищи расхождение.

⚔️ Минобороны США подало 40-страничный ответ на иск Anthropic: «красные линии» компании делают её «неприемлемым риском для национальной безопасности» во время боевых операций. Anthropic отказалась предоставить Пентагону неограниченный доступ для «всех законных военных целей». И что? Для AI-компаний с корпоративными ограничениями использования: правительственные контракты требуют явного разговора об условиях доступа до подписания. После: поздно.

🛸 Elon Musk лишился последнего сооснователя xAI: Ross Nordeen покинул компанию на этой неделе. Nordeen был последним из 11 оригинальных сооснователей xAI, остававшихся в компании. Уход случился через два месяца после того, как SpaceX формально поглотила xAI, и после публичного заявления Musk, что xAI «изначально был построен неправильно» и требует перестройки с нуля. И что? Для тех, кто строит на Grok API: смена всей основательской команды при смене корпоративной структуры: сигнал пересмотреть уровень зависимости.

🌐 Google развернул Live Translate на iOS: любые наушники превращаются в синхронного переводчика в реальном времени на 70+ языков через Google Translate. Работает на базе Gemini 2.5 Flash Native Audio. И что? Для продуктов с международной аудиторией или голосовыми интерфейсами: Live Translate через Google Translate API уже доступен. Проверь, можно ли встроить его вместо дорогого кастомного решения.

🎨 Midjourney запустил альфа-версию V8 на alpha.midjourney.com: скорость генерации в 4-5 раз выше, нативное разрешение 2K, улучшенный рендеринг текста. Пока только на отдельном сайте, в основном интерфейсе и Discord недоступно. И что? Для команд, которые используют Midjourney в продуктовом цикле: протестируй V8 Alpha на своих типовых промптах. Особенно если работаешь с текстом внутри изображений.

💼 Microsoft поглотил команду Cove (AI-стартап на бесконечном canvas для совместной работы, бэкированный Sequoia): acqui-hire без раскрытия суммы. Cove закрывает продукт 1 апреля, команда переходит в Microsoft CoreAI. И что? Microsoft методично поглощает команды, которые строят следующие AI-интерфейсы. Если строишь collaborative AI canvas или рабочее пространство: Microsoft смотрит на этот рынок активно.

🚨 Нам 3.14здец: Если строишь AI-продукт и думаешь, что регуляторный риск тебя не касается: 8/10. За одну неделю Пентагон объявил AI-компанию угрозой нацбезопасности, суд это остановил, Xiaomi вышел в топ OpenRouter под псевдонимом, а Musk потерял последнего сооснователя. Рынок переходит в фазу, где государства активно формируют правила, а не наблюдают. Если нет юридического слоя в архитектуре продукта: добавь.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading