Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест 7 мая

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 🔬 Снимок «чистый». Что AI видел на нём за три года до того, как врачи нашли рак поджелудочной?

  • 🍳 Шеф с 20 годами на кухне и модель на рецептах пришли к одному выводу. Как интуиция стала датасетом?

  • 🏥 Harvard дал AI карты из скорой. 67% правильных диагнозов против 50% у дежурного врача. Кто теперь дежурит?


    И ещё +5 новостей, быстрых как ИИ: OpenAI субсидирует агентов через подписку, Anthropic нет, Мэриленд запретил персональные цены в продуктовых сетях, китайский суд решил что AI не повод для увольнения, SAG-AFTRA добилась явного согласия на цифровых актёров, OpenAI выпустила питомцев для Codex.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

ИИ Медицина

Nano Banana

Твоему родственнику делают обычное КТ. Живот болит, думают желчный. Читают снимок, говорят: чисто. Через три года: рак поджелудочной, стадия 3. Значит, три года назад рак уже был. Просто никто не увидел.

Mayo Clinic опубликовал данные по REDMOD (Radiomics-based Early Detection Model, модели раннего выявления рака на основе радиомики), которая видит то, что специалисты-рентгенологи в принципе не способны заметить. REDMOD анализирует сотни количественных характеристик текстуры и структуры ткани: паттерны, которые появляются до того, как опухоль становится видимой. Для валидации модель прогнали по 1 462 КТ-снимкам, из которых 219 были сделаны до постановки диагноза. Все эти снимки специалисты изначально сочли нормальными.

REDMOD нашёл рак в 73% случаев, в среднем за 16 месяцев до диагноза. Это почти вдвое лучше специалистов. За два года до диагноза разрыв шире: модель видит 68% случаев, рентгенологи показали 23%. Грубо в три раза больше на том же снимке. Пока модель не развёртывается в клиниках. Mayo запустил AI-PACED, проспективное исследование для пациентов из группы риска (в первую очередь с новым диабетом). REDMOD работает на тех самых рутинных КТ, которые люди и без того делают при болях в животе.

Фактура:

+Модель обрабатывает стандартные КТ брюшной полости: те же снимки, которые назначают при болях в животе, контроле почек или желчного пузыря
++ Pancreatic ductal adenocarcinoma: 5-летняя выживаемость ниже 15%; 85% случаев диагностируют после метастазов
+++ К 2030-му рак поджелудочной прогнозируется как вторая причина смерти от онкологии в США
++++ 12% ложноположительный сигнал: при охвате 500 тыс. пациентов в год это 60 тыс. лишних дообследований. Каждое из них включает дополнительное КТ или эндоскопическое УЗИ
+++++ Критики: без снижения ложноположительных результатов ниже 5% массовое клиническое развёртывание перегрузит эндоскопические службы

И что? Если ты строишь медтех-продукт в области ранней диагностики или анализа изображений: pyradiomics (открытый Python-пакет) для извлечения тех же радиомических признаков, что читает REDMOD. Открытый датасет TCIA (The Cancer Imaging Archive) содержит верифицированные КТ. Прототип на этих данных реалистичен за 1-2 месяца. Собирай ранние соглашения с клиниками до того, как AI-PACED задаст промышленный стандарт и поднимет планку входа.

Нам 3.14здец: Если ты рентгенолог, чья основная работа: первичное чтение рутинных снимков: 7/10. Именно эта способность: видеть патологию в текстуре ткани. Теперь у модели точнее в три раза на горизонте двух лет. Специалист останется нужным для клинического контекста, разговора с пациентом и решений. Но первичная интерпретация рутинного снимка уже автоматизируется.

Почитать источники: Mayo Clinic, NBC News, ASCO Post

ИИ на кухне

Nano Banana

Ты шеф-повар. У тебя 20 лет на кухне. Ты знаешь, что белый трюфель с яйцом работает. Что цитрус убивает вкус артишока. Что пять основных вкусов можно читать в сочетаниях ещё до приготовления. Эту интуицию нельзя объяснить: её нарабатывают годами. Теперь модель прочитала рецепты и пришла к тем же выводам.

KAIKAKU AI (стартап в области ресторанной робототехники) опубликовал исследование Epicure. Суть: модель, обученная только на рецептах (без лабораторного анализа вкуса, без химии, без сенсорных меток), самостоятельно восстановила структуру вкуса. Исследователи взяли 6 653 записи ингредиентов из разных датасетов, очистили их до 1 032 пригодных продуктов и запустили AI на паттернах их сочетаний.

Результат: модель идентифицировала все пять базовых вкусов, ранжировала острый перец по жгучести, определила региональную кухню по составу блюда. Команда называет это «ChatGPT-моментом для пищевого AI»: впервые модель получила вкусовую карту из чистых поведенческих данных. Дальше KAIKAKU собирается соединить Epicure со своим роботизированным производством и предложить коммерческим кухням как «автономную пищевую инфраструктуру».

Фактура:

+Технически Epicure использует word embedding: тот же принцип, что в языковых моделях, но вместо слов берутся ингредиенты. Контекст продукта определяется по тому, с чем он чаще встречается в рецептах
++ Три заявленных применения: разработка меню, рецептурные инновации, паттерны сочетания вкусов (flavor pairing). Всё это сейчас держится на интуиции шефа
+++ Epicure доступен как публичный инструмент на epicure.kaikaku.ai. Можно тестировать прямо сейчас
++++ Исследование опубликовано на arXiv (2604.22776), открытый доступ
+++++ KAIKAKU позиционирует связку Epicure плюс роботизированное производство как замену ручного труда на коммерческой кухне; стартап целится в сегмент, где одна смена из 8-10 человек

И что? Если ты разрабатываешь продукт в пищевом сегменте, от ресторанного ПО до сервисов подбора рецептов: рецептурные базы данных, которые у тебя уже есть, могут стать обучающим датасетом для вкусовой модели. Epicure показывает, что для этого не нужна лабораторная химия. Зайди на epicure.kaikaku.ai и посмотри, как работает модель: это 15 минут и готовый ориентир для собственного MVP.

Нам 3.14здец: Если ты шеф-повар или food scientist, чья ценность: вкусовая интуиция и знание что с чем работает: 6/10. Именно эта способность: читать паттерны сочетаний без явного анализа. Теперь вычислима из данных. Механика вкусового мышления стала моделируемой.

Почитать источники: arXiv Epicure paper, KAIKAKU AI, Epicure Tool

ИИ Медицина

Nano Banana

Ночная смена. Скорая. Врач смотрит на твою карту: жалобы, анализы, история. У него ещё пятеро в коридоре. Он ставит диагноз. В 50% случаев: правильный. Та же карта у модели. В 67% случаев: правильный.

Harvard Medical School совместно со Stanford опубликовал исследование в Science: OpenAI o1-preview (модель 2024 года, первая с пошаговым рассуждением) сравнивали с двумя дежурными врачами на 76 реальных кейсах скорой помощи. Три этапа оценки: сортировка при поступлении, диагностика, ведение пациента. AI получал только электронные медкарты, без изображений, без аудио, без невербальных сигналов.

При первичной сортировке модель дала правильный диагноз в 67,1% случаев. Оба врача показали 55,3% и 50,0%. Два независимых эксперта-оценщика, которые проверяли работу, не смогли отличить ответы AI от человеческих. Отдельный случай: пациент с трансплантацией, AI распознал редкую некротизирующую фасциит (бактериальную инфекцию, разрушающую мягкие ткани) примерно за 12-24 часа до того, как лечащий врач поставил диагноз.

Фактура:

+Исследование в Science: институты Harvard Medical School и Beth Israel Deaconess Medical Center совместно со Stanford
++ Критика метода: оппоненты указывают, что для сравнения взяли врачей внутренней медицины, а не специалистов скорой. Это некорректное сравнение для заголовков «AI бьёт ER doctors»
+++ AI опередил врачей на всех трёх стадиях оценки: не только при первичной сортировке, но и при промежуточной диагностике, и при составлении плана ведения пациента
++++ Авторы специально оговаривают: исследование не предполагает немедленного клинического применения, нужны проспективные испытания
+++++ o1-preview вышел в 2024-м: за полтора года появились o3, o4-mini и другие поколения с кратно более высокими бенчмарками. Это исследование уже об устаревшей модели

И что? Если ты строишь продукт для клиник или медицинского ассистирования: o1-preview 2024 года уже бьёт средний показатель ER-врача по текстовым данным. AI-второе мнение по данным карты: реалистичная функция прямо сейчас. FHIR API для доступа к EHR задокументирован: ближайшие 6 месяцев, чтобы делать интеграцию и собирать ранние партнёрства с клиниками до того, как стандарт устоится.

Нам 3.14здец: Если ты врач, чья основная ценность: дифференциальная диагностика по данным карты: 8/10. Именно эта способность: читать текстовые симптомы и приходить к диагнозу. Теперь у модели точнее. Осмотр, разговор с пациентом, клинический контекст остаются. Но диагностическое суждение по записям уже автоматизируется.

Почитать источники: TechCrunch, Fortune, NPR

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

⚔️ OpenAI (разработчик ChatGPT) открыл пользователям OpenClaw (самый популярный открытый AI-агентный фреймворк: 346 тыс. звёзд на GitHub, 3,2 млн пользователей) доступ к ChatGPT-подписке внутри агентного инструмента. Сэм Алтман объявил об этом в Twitter в 2:33 ночи 2 мая: «Happy lobstering». OpenAI нанял создателя OpenClaw Питера Стейнбергера ещё раньше. Теперь ставит на дистрибуцию через него. Anthropic в апреле заблокировала использование Claude Pro и Max в OpenClaw, сославшись на стоимость вычислений. И что? Если ты выбираешь AI-провайдера для агентного продукта: прямо сейчас OpenAI субсидирует агентное использование через подписку. Anthropic нет. Это влияет на unit-экономику при масштабировании. Проверь, изменилась ли уже твоя стоимость агентного вызова.

🛒 Мэриленд стал первым штатом США, запретившим «surveillance pricing» (персонализированное повышение цен на основе личных данных покупателя) в продуктовой рознице. Губернатор Уэс Мур подписал закон HB 895: торговые сети площадью от 15 тыс. кв. футов и сервисы доставки не смогут использовать персональные данные для повышения цен конкретному покупателю. Штраф: $10 тыс. за первое нарушение, $25 тыс. за повторное. Закон вступает в силу 1 октября 2026-го. И что? Если ты разрабатываешь AI-ценообразование для ритейла или продуктового сегмента: Мэриленд уже создал прецедент. Следующие штаты смотрят на этот закон как на шаблон. Аудит своей pricing-логики по критерию «использует ли она персональные данные покупателя» обязателен до конца Q3.

⚖️ Китайский суд в Ханчжоу постановил: замена работника на AI не является законным основанием для увольнения. Компания уволила сотрудника Чжоу (супервайзер по QA с зарплатой 300 тыс. юаней в год), предложив взамен позицию с понижением на 40%. Чжоу выиграл арбитраж, компания подала в суд и снова проиграла. Суд указал: компания перекладывает издержки технологической трансформации на работника. Это второй прецедент в апелляционной инстанции. И что? Если ты фаундер или HR-директор в компании, которая планирует AI-автоматизацию: этот прецедент ещё в Китае, но Western рынки труда уже смотрят сюда за аргументами. Документируй экономику решения, а не только технику.

🎬 SAG-AFTRA (гильдия актёров и телевизионных деятелей) подписала четырёхлетний договор с голливудскими студиями (AMPTP). Переговоры завершились 2 мая: после того как гильдия добилась конкретных AI-ограничений, студии не смогут использовать цифровые копии актёров без явного согласия. Главный переговорщик гильдии отказался подписывать без уступок по AI. Пакет также включает повышение взносов в пенсионный фонд и остаточные выплаты со стриминга. И что? Если ты разрабатываешь инструменты для генерации цифровых актёров или голосов: рамочный договор SAG-AFTRA теперь создаёт прецедент для определения «явного согласия». Следи за финальным текстом контракта, он задаст юридический стандарт для рынка.

🐾 OpenAI выпустила Codex Pets: анимированных питомцев-компаньонов для Codex (AI-агент OpenAI для программирования), которые плавают поверх рабочего стола и показывают статус задачи без переключения окон. 8 встроенных вариантов, плюс команда /hatch для генерации своего через AI. Уже доступно на Windows и macOS, заблокировано в Великобритании, ЕС и Швейцарии. И что? Пока Anthropic и OpenAI воюют за агентный рынок, OpenAI добавляет питомцев. Это либо продуманный виральный механизм удержания, либо самое честное объяснение приоритетов.

🚨 Нам 3.14здец: Если ты специалист, которого компания планирует заменить AI-инструментом: 7/10. Китайский прецедент создаёт юридический аргумент, но не защиту: суды в каждой юрисдикции решат по-своему. Пока стандарт не устоялся, единственная реальная страховка: незаменимость в задачах, которые AI пока не может закрыть полностью.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading