Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест 30 марта

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 🧩 Почему лучшие AI-модели планеты решают 0% задач, с которыми справится любой ребёнок?

  • 💾 Google опубликовал алгоритм, который режет расходы на AI-инфраструктуру в 6 раз : и обвалил рынок памяти на $90 млрд

  • 🧠 Meta открыла AI, который знает твой мозг лучше реального МРТ-сканера

И ещё +10 новостей : быстрых, как ИИ: OpenAI добирает $10 млрд к рекордному раунду, Google генерирует полные 3-минутные треки с интро и припевами, Sierra Брета Тейлора научила агентов строить других агентов, Минтруда США запускает AI-грамотность через SMS, Gemini 3.1 Flash Live ускоряет голосовой AI, Mistral клонирует любой голос из 3-секундного клипа, OpenAI заморозил эротический режим под давлением инвесторов, Novo Nordisk сажает агентов на клинические испытания, Suno v5.5 обучается твоему стилю, Cohere Transcribe занял первое место по точности распознавания речи на 14 языках.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

ИИ Исследования

Nano Banana

Среда, утро. Ты на созвоне с инвестором. «Наш продукт использует frontier-модели с продвинутыми reasoning-способностями»: стандартная строчка из питч-дека. Инвестор кивает. После звонка открываешь новости. ARC-AGI-3 только что опубликовал результаты. Твоя модель набрала 0.25%. Человек без подготовки решает 100% задач с первого раза. В ту же неделю Jensen Huang заявил публично, что AGI уже достигнут.

Идея ARC-AGI-3 проста до неприличия. Агент попадает в игровую среду без правил, без инструкций, без цели. Нужно самому разобраться, поставить задачу, придумать стратегию, выполнить её. 135 таких сред. Люди справляются с первой попытки всегда. Gemini 3.1 Pro набрал 0.37%, GPT-5.4 High 0.26%, Claude Opus 4.6 0.25%, Grok-4.20 0%. Провальный факт, разнёсшийся по Hacker News: когда Opus 4.6 дали визуальный интерфейс (как у людей) вместо JSON-данных, он набрал 97.1%. Та же модель. Другой формат входа. Labs потратили миллионы, чтобы поднять ARC-AGI-2 с 3% до 50% за год. V3 сбросил всех обратно. Потому что сжечь деньги на конкретный тест можно. Научить модель работать без человека в петле: другой вопрос.

Фактура:

+Все frontier-модели ниже 1%: Gemini 3.1 Pro 0.37%, GPT-5.4 High 0.26%, Claude Opus 4.6 0.25%, Grok-4.20 0%
++ Claude Opus 4.6 с визуальным вводом набирает 97.1% вместо 0.25% на JSON: разрыв в формате, а не в интеллекте
+++ 135 игровых сред; 110 из 135 закрыты от публикации, чтобы исключить меморизацию
++++ ARC-AGI-2 прошёл путь от 3% до ~50% за год после миллионов, вложенных в подготовку
+++++ Призовой фонд: $1M за финального победителя; Milestone 1 (дедлайн 30 июня 2026): $25K за первое место

И что?

Если у тебя есть агент, который «рассуждает самостоятельно», проверь прямо сейчас, что стоит за этим утверждением. ARC-AGI-3 открытый и бесплатный. Прогони свой стек через несколько сред без scaffolding, без подсказок, без человека в петле. Это займёт день. Ответ покажет реальный потолок твоего продукта до того, как его проверит рынок.

Нам 3.14здец:

Если ты продаёшь AI-продукт как «автономный агент» или «reasoning system»: 8/10. ARC-AGI-3 приходит именно за этим утверждением. Frontier-модели при 0.25%: системная картина. Сегодняшний AI умеет делать то, на что его обучили, и ломается, когда среда меняется без предупреждения. Когда лаборатории преодолеют V3, рынок получит первый реальный критерий автономии. Пока: калибруй заявления о возможностях продукта под эту реальность.

Google

Nano Banana

Ты держишь в голове одну цифру: стоимость токена. Каждый запрос к API, каждая генерация, каждый длинный контекст: деньги. Чем дольше разговор, тем дороже: модель хранит в памяти каждый предыдущий токен, и эта память растёт линейно. Это называется KV cache. Теперь Google опубликовал алгоритм, который сжимает эту память в 6 раз: без переобучения, без потери точности, с ускорением в 8 раз на стандартных H100.

TurboQuant первый раз появился на arXiv 28 апреля 2025-го. Девять месяцев пролежал в академической тишине. 25 марта 2026-го Google оформил это в официальный блог и пресс-релиз. На следующий день акции производителей памяти рухнули: SK Hynix потерял 6%, SanDisk 5.7%, Samsung 4.9%, Western Digital 4.7%, Micron 3%. Итого около $90 млрд капитализации за сутки. Алгоритм лежал год. Wall Street отреагировал только когда Google официально объявил.

Фактура:

+KV cache (память разговора): TurboQuant сжимает её с 16-бит до 3-бит, в 6 раз меньше памяти на запрос
++ 8x ускорение attention computation на Nvidia H100 без дополнительных расходов на запуск
+++ Нулевые потери точности на long-context тестах: модель находит ключевой факт в длинном тексте с той же точностью
++++ Акции памяти упали на 3-6%: SK Hynix, Samsung, Micron, WDC, SanDisk. Около $90 млрд капитализации за сутки
+++++ Сообщество портирует алгоритм в llama.cpp: первые форки появились через 24 часа после публикации

И что?

Если ты платишь за inference-API или держишь GPU-инфраструктуру, TurboQuant меняет твою юнит-экономику. Но не сегодня. Начни отслеживать реализации в llama.cpp и у облачных провайдеров: Cloudflare, Fireworks, Together AI. Первые конкретные цифры по снижению стоимости появятся в течение 2-3 месяцев. Это момент переговорить с провайдером о тарифах до того, как рынок переоценился.

Нам 3.14здец:

Если ты держишь акции производителей памяти или строишь бизнес на продаже GPU-времени: 6/10. TurboQuant снижает потребление памяти на inference, не на обучение. Спрос на чипы для тренировки моделей никуда не денется. Но если подобные алгоритмы начнут массово внедряться, inference-слой подешевеет. Это первый из многих. Следи за Jevons Paradox: дешевле inference значит больше запросов, а не меньше железа.

Meta

Nano Banana

Год назад ты подал заявку на 40 часов сканера. Получил 12. Из них 4 пришлось вернуть: участники не пришли. Из оставшихся 8 часов треть данных зашумлена сердцебиением и движением. Написал статью на основе 34 валидных участников. Рецензент ответил: «выборка слишком мала». 26 марта 2026-го Meta открыла модель, обученную на 700 участниках и 1115 часах сканирования. И выложила её бесплатно.

TRIBE v2 умеет предсказывать активность 70 000 участков мозга в ответ на видео, аудио и текст. fMRI измеряет кровоток: нейроны работают, кровь приливает к участку, сканер фиксирует изменение: уровень сигнала 1% от общего, в шуме сердца и дыхания. Именно поэтому синтетические предсказания TRIBE v2 оказались чище реальных записей. Модель выдаёт сигнал без физиологического шума. Коррелирует с групповой активностью лучше, чем большинство индивидуальных участников. Предыдущая версия работала с 4 добровольцами и 1000 участками. Теперь в 175 раз больше людей и в 70 раз больше зон мозга.

Фактура:

+700+ участников, 1115+ часов fMRI, 70 000 участков мозга: в 175 раз больше людей и в 70 раз больше зон, чем в v1
++ Предсказания TRIBE v2 коррелируют с групповыми данными лучше медианного индивидуального участника (Human Connectome Project)
+++ Модель воспроизводит десятилетия нейронауки без сканирования: правильно локализует зоны для лиц, речи и текста
++++ Открытые веса на Hugging Face, код на GitHub, интерактивное демо на atmeta.com без регистрации
+++++ Лицензия CC BY-NC: бесплатно для академических исследований

И что?

Если работаешь в нейротехе, медтехе или строишь продукт на интерпретации поведения: открой репозиторий сегодня. TRIBE v2 можно дообучить на собственных данных. Для команд без доступа к fMRI-оборудованию это первый шанс запустить пре-скрининг нейрологических гипотез до того, как тратить бюджет на реальные эксперименты.

Нам 3.14здец:

Если ты сейчас строишь продукт для нейроисследований или продаёшь доступ к дорогому оборудованию как главный барьер входа в науку: 7/10. TRIBE v2 пока подходит для скрининга гипотез, клиническая диагностика: отдельный вопрос. Но вектор понятен: через 2-3 года лаборатории без сканеров смогут конкурировать с теми, у кого MRI стоит. Начинай думать, какую ценность ты создаёшь помимо доступа к железу.

Почитать источники: Meta AI Blog, GitHub, HuggingFace

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

💰 OpenAI (разработчик ChatGPT и GPT-5.4) привлекает ещё $10 млрд поверх рекордного раунда: итого $120 млрд+. Microsoft, a16z и T. Rowe Price входят в новую часть. И что? OpenAI переходит от стартапа к финансовому инструменту с гарантированной доходностью для PE-фондов. Следи, как это изменит продуктовые решения: когда за спиной стоят такие деньги, монетизация становится приоритетом.

🎵 Google обновил свою музыкальную AI Lyria до версии 3 Pro: теперь генерирует полные 3-минутные треки с интро, куплетами и припевами. Доступно в Gemini, Vertex AI и Google Vids. И что? Для контент-команд это новый стандарт скорости: от идеи до готового звукового сопровождения за секунды без роялти. Тест на своём следующем проекте.

🤖 Sierra (компания Брета Тейлора, бывшего co-CEO Salesforce) представила Ghostwriter: AI-агент, который строит других AI-агентов. Компании создают клиентских ботов для голоса, чата и 30+ языков без написания кода. И что? Для B2B-команд без AI-инженеров это первый способ запустить агентную поддержку самостоятельно. Проверь, можно ли заменить часть customer service воронки через Ghostwriter до найма.

📱 Министерство труда США запустило «Make America AI-Ready»: бесплатный 7-дневный AI-курс, который доставляется через SMS. Никаких приложений, никакой регистрации. И что? Для HR и L&D команд это сигнал: базовая AI-грамотность становится государственным приоритетом. Если твоя команда ещё не прошла никакого обучения, начинай с этого: порог входа нулевой.

🎙 Google выкатил Gemini 3.1 Flash Live: голосовой AI с улучшенными скоростью, точностью выполнения задач и реализмом. Работает в Search, Gemini Live и через API. И что? Для разработчиков голосовых интерфейсов: Flash Live стал новым baseline. Если строишь voice-продукт, протестируй против него свои задержки и качество распознавания.

🔊 Mistral выпустил Voxtral TTS: лёгкая модель клонирования голоса из 3-секундного клипа на 9 языках. И что? Для продуктов с персонализированным голосовым UX (аудиокниги, нарративные игры, обучение) это готовый движок без дорогой записи студийных сессий. Проверь, можно ли встроить Voxtral вместо существующего TTS-провайдера.

🚫 OpenAI отложил запуск режима эротических чат-ботов в ChatGPT бессрочно после давления сотрудников и инвесторов. И что? Для тех, кто строил продукты в расчёте на adult-контент через OpenAI API: это сигнал пересмотреть зависимость от одного провайдера. OpenAI всё охотнее режет направления под внешним давлением.

💊 Novo Nordisk (датский фармгигант, производитель Ozempic) разворачивает AI-агентов в операционке клинических испытаний. По словам компании, технология сокращает сроки одобрения и снижает потребность в подрядчиках. И что? Для медтех-команд: если Novo Nordisk с их регуляторными ограничениями уже внедрил агентов в core-процессы, барьер «у нас слишком чувствительные данные» больше не аргумент.

🎸 Suno (AI-музыкальный генератор) запустил версию 5.5: клонирование голоса, кастомная настройка модели и персонализированное обучение стилю для Pro-подписчиков. И что? Для брендов с устоявшимся звуковым идентитетом: теперь можно обучить модель звучать как твой бренд. Проверь, можно ли заменить библиотеку готовой музыки на персональный Suno-стек.

🎧 Cohere (AI-компания специализирующаяся на enterprise-инструментах) выпустил Transcribe: бесплатная open-source модель распознавания речи, которая заняла 1-е место на лидерборде HuggingFace по точности в 14 языках. И что? Если платишь за Whisper API или другой speech-to-text: Transcribe бесплатный, открытый и точнее. Проверь, стоит ли миграция сэкономленных денег.

🚨 Нам 3.14здец: Если ты сейчас строишь продукт на одном AI-провайдере и не следишь за альтернативами: 8/10. За эту неделю Google выпустил лучший TTS, Cohere выиграл speech-to-text, Mistral клонирует голоса, OpenAI режет направления под давлением. Рынок перестраивается быстро. Держи мультивендорный стек и план миграции как часть архитектуры, а не план Б.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading