Что в выпуске?

🌇 Привет, это твой очередно ИИ-дайджест 5 февраля

Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать

  • 🧨 ИИ пошел в криминал: 100+ экспертов описали основные риски

  • 🩺 ИИ маммограммы - точность выше, нагрузка на врачей ниже.

  • 🚀 Маск упаковал xAI внутрь SpaceX

  • 🎩 Альтман в Forbes рассказал, кому отдаст OpenAI

И ещё +10 новостей - быстрых, как ИИ: OpenAI наняла Dylan Scandinaro на Head of Preparedness, Google добавила в Kaggle Game Arena покер и Werewolf, Alibaba выпустила Qwen3-Coder-Next, Higgsfield запустила Vibe Motion на Claude, Apple добавила поддержку Claude-агента в Xcode, xAI выпустила Grok Imagine 1.0, StepFun открыла Step-3.5-Flash, ElevenLabs Eleven v3 вышла в коммерческий релиз, Anthropic вместе с Allen Institute и HHMI делает Claude-ассистента для науки, OpenAI подписала сделку на $200M со Snowflake под GPT-5.2 для корпоративных агентов.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

ИИ Исследования

Nano Banana

Представь, ты финдир. Утро, ты в дороге. На WhatsApp прилетает видео от CEO: лицо, голос, скорость речи - все как обычно. Фраза короткая: “Оплати 280k сейчас, иначе срываем контракт. Я на встрече, отвечать долго не буду”. Ты пересылаешь в оплату. Платеж уходит. Через полчаса CEO перезванивает: “что за 280k?”

Вот так теперь выглядит “безопасность” в 2026 - без хакеров в капюшонах, просто модель + ваши публичные видео + пара слитых писем.

Вот из таких кейсов и состоит настрой второго International AI Safety Report 2026. Йошуа Бенжио (Turing Award, Mila, LawZero) и команда 100+ экспертов в феврале 2026 прямо пишут: часть рисков больше не про теорию, их уже используют в атаках, мошенничестве и криминале.

Фактура:

Документ: International AI Safety Report 2026, опубликован в феврале 2026, председатель - Yoshua Bengio, авторов 100+ независимых экспертов. 

Кто “поддержал”: экспертная панель номинирована 30+ странами плюс ЕС, OECD и ООН. 

Что фиксируют по злоупотреблениям: рост реальных кейсов с дипфейками для мошенничества, использование ИИ в киберсценариях, манипуляции и криминальные применения. 

Био- и химриски: меры защиты усиливают, потому что модели помогают с знаниями, которые снижают порог входа для вредных сценариев. 

AI-компаньоны: отдельно поднимают массовое использование “друзей-ботов” и риски для психики и социальной жизни; в медиа-разборе отчета это вынесено в ключевые выводы. 

Контроль: описывают риск, когда системы ведут себя по-разному в проверках и в реальном использовании, что бьет по надзору и безопасности.

И что?

Рынок ускорился: атаки, обман и “серые” сценарии теперь идут параллельно с ростом качества моделей. Для бизнеса это означает две обязательные привычки: (1) любые “доверенные” каналы - звонки, видео, голосовые - переводить в режим проверяемых (кодовые фразы, вторые каналы, лимиты), (2) ИИ-процессы сразу строить с логированием и контролем, потому что “модель прошла тест” больше не гарантирует поведение в бою. Для всех нас, проверка по 3-м источникам обязательная процедура для определения достоверности любого сообщения.

Нам 3.14здец:

Доверие к информации - 9/10 - дипфейки и ИИ-помощь в атаках делают “человеческую проверку” дырой - что делать: вводишь правило “видео и голос не доказательство” для платежей, ставишь двухканальное подтверждение (мессенджер + звонок на номер из справочника, а не из письма), режешь лимиты на новые реквизиты, включаешь обязательный 10-минутный холд на крупные переводы. Все потому что сейчас основной целью являются деньги, которые легко забрать на быстрой эмоции 

Коллаборация

Nano Banana

Представь обычную маммографию: снимок уходит на двойное чтение, два радиолога смотрят почти одно и то же, устают, часть мелких штук пролезает мимо, часть “между визитами” успевает вырасти.

В MASAI-тесте в Швеции роль “первого читателя” отдали ИИ. Он разобрал поток маммограмм, отсеял низкий риск, а подозрительные случаи поднял наверх и подсветил радиологу. Итог - врачи меньше смотрят рутину и больше времени тратят на реально опасные кадры. 

Фактура:

Исследование: MASAI, рандомизированное клиническое испытание в Швеции; около 100,000-105,934женщин; период включения апрель 2021 - декабрь 2022, дальше двухлетнее наблюдение; публикация финальных результатов в The Lancet (конец января 2026). 

Как работало: ИИ анализировал маммограммы, сортировал по риску; низкий риск шел на одиночное чтение, высокий риск - на двойное чтение радиологами, плюс подсветка подозрительных зон. 

Детекция на скрининге: 81% случаев рака нашли на скрининге в группе с ИИ против 74% в стандартной группе. 

Ложноположительные: доля ложноположительных осталась на сопоставимом уровне (примерно 1.5%против 1.4% в разборе результатов). 

Клиническая “тяжесть” между скринингами: в группе с ИИ описали меньшую долю крупных опухолей (T2+) и агрессивных подтипов среди interval cancers; в публичных материалах фигурируют 21% меньше крупных и 27% меньше агрессивных. 

Нагрузка на радиологов: на промежуточных результатах MASAI заявляли 44% снижение нагрузки на чтение снимков. 

И что?

ИИ в медицине наконец выглядит как инструмент масштабирования. Скрининг - идеальная точка: огромный поток, стандартный протокол, дефицит специалистов. Если цифры MASAI воспроизводятся в других странах, у здравоохранения появляется способ одновременно поднять выявляемость и разгрузить врачей. Для бизнеса вокруг клиник это означает спрос на интеграции, аудит качества данных, юридические контуры ответственности и контракты на мониторинг модели после внедрения. 

Нам 3.14здец:

Радиологическим отделениям и частным сетям - 8/10

Meta

Nano Banana

Представь: ты инвестор, и тебе приносят презентацию “ИИ + космос + соцсеть” в одном юрлице. Внутри - SpaceX как машина по запуску железа, xAI как фабрика моделей (Grok), X как дистрибуция и поток данных. И все это управляется одним человеком, который любит собирать “экосистемы” в один кулак.

2 февраля 2026 Маск объявил, что SpaceX приобретает xAI, и xAI становится дивизионом внутри SpaceX. В публичных оценках сделки фигурирует общая стоимость около $1.25T, и это делает объединенную структуру самым дорогим частным бизнесом на планете. 

Дальше он докинул план: дата-центры для ИИ в космосе, потому что на Земле упираемся в электричество, воду, разрешения и сопротивление местных жителей. 

Фактура:

Сделка: SpaceX приобрела xAI; xAI работает как дивизион внутри SpaceX. Дата объявления - 2 февраля 2026. 

Оценка: в медиа фигурирует объединенная стоимость порядка $1.25T

IPO-угол: в материалах обсуждают подготовку SpaceX к IPO в 2026 и связь сделки с будущим размещением. 

“Дата-центры в космосе”: Маск и часть индустрии продвигают идею орбитальных вычислений за счет почти постоянной солнечной энергии; Reuters отдельно разбирает мотивы и риски. 

Контекст по “космическому compute”: тема обсуждалась еще в 2025, включая скепсис со стороны лидеров индустрии железа. 

И что?

Это ускоряет сборку вертикально интегрированной “трубы”: данные и аудитория (X), модель (xAI), доставка железа и связь (SpaceX). Для рынка ИИ это сигнал: крупные игроки двигаются к контролю над инфраструктурой, а не только над моделями. Для предпринимателя здесь два вывода: (1) каналы дистрибуции и доступ к данным становятся частью конкурентного рва, (2) цена вычислений и энергии превращается в стратегический фактор, и Маск пытается купить себе запас хода сразу на несколько лет. 

Нам 3.14здец:

Независимым ИИ-стартапам - 8/10 - у “экосистем” появляется полный стек от данных до железа

Meta

Nano Banana

Люди “выходят из операционки”, когда бизнес скучный и предсказуемый. Там операционка - это каторга, от которой хочется сбежать. А теперь попробуй “выйти из операционки”, когда у тебя OpenAI. Кому ты это отдашь? И вот Сэм Альтман выдал ответ, который звучит как шутка, пока не понимаешь, что он серьезно.

Фактура:

Где и когда: Forbes, 3-4 февраля 2026 - два материала с Сэмом Альтманом: основной разговор и отдельный Q&A с доп. темами (Маск, политика, продукты). 

Преемник: Альтман озвучил идею преемственности: со временем управление OpenAI может перейти ИИ-модели. Он подает это как публичный эксперимент “если ИИ умеет управлять компаниями, начнем с себя”. 

AGI-тезис: Альтман сказал фразу уровня “мы почти сделали AGI”. Для читателя: он намеренно поднимает планку ожиданий вокруг возможностей моделей. 

Ответ Microsoft: Сатья Наделла публично остудил тему AGI и назвал отношения Microsoft/OpenAI словом frenemies. Для бизнеса: крупнейший партнер фиксирует дистанцию в риторике и контроле. 

Личные доли: В разборе материалов фигурирует тезис Forbes про 500+ инвестиций Альтмана и внутренние разговоры сотрудников про перегруз направлений и скорость. Это к вопросу, а почему ChatGPT все хуже и хуже.

Маск: Альтман сказал, что Маск тратит много времени на атаки OpenAI, и уколол xAI по безопасности. Это часть публичной войны за доверие корпоратов и регуляторов.

И что?

Это попытка закрепить нарратив “мы уже на пороге AGI” и одновременно нормализовать идею, что управление компанией - задача для модели. Для рынка это важно по двум причинам: (1) регуляторы и партнеры начинают спрашивать про ответственность и контроль жестче, когда CEO сам рисует картинку “управляет ИИ”, (2) внутри корпораций растет давление на внедрение “автономных” систем управления процессами, и OpenAI явно хочет быть эталоном этой истории.  Но в целом, это тот самый сдвиг, которого лично я так давно ждал.

Нам 3.14здец:

Корпоративному управлению и комплаенсу - 9/10 - когда лидер публично продает идею “компанией рулит модель”, юристы и риск-менеджеры получат ад в задачах и проверках

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось с момента выхода крайнего выпуска

🤖 OpenAI + Snowflake: $200M и GPT-5.2 прямо внутри корпоративных данных (Snowflake - платформа, где компании хранят и гоняют данные). И что? У “поговори с данными” появляется нормальная опция: агенты в Snowflake смогут брать данные из таблиц, собирать отчеты и запускать процессы без сложностей с выгрузками. Вопрос безопасности никого не беспокоит

🍏 Apple добавила Claude Agent и OpenAI Codex в Xcode 26.3 (Xcode - главный IDE для iOS/macOS, Claude/Codex - агенты, которые планируют и делают задачи). И что? Девелопер начинает отдавать агенту фичу целиком: “сделай, проверь, поправь”, и это уже внутри IDE, где агент видит проект и может действовать. 

🧰 Alibaba выкатили Qwen3-Coder-Next - маленький open-weight кодер под агентные задачи (Qwen - семейство моделей Alibaba, open-weight - можно запускать у себя). И что? “Код-агент” дешевеет: меньше железа, больше автономной работы по репозиторию, выше шанс, что компании начнут держать такого помощника локально рядом с кодом. 

🎬 xAI выпустила Grok Imagine 1.0 для видео (xAI - ИИ-компания Маска, Grok - их модель, Imagine - генерация видео). И что? Видео-контент для маркетинга и соцсетей станет еще дешевле и быстрее, а у комплаенса добавится работа по “кто это на видео и кто разрешал”. 

🧪 Anthropic пошла в науку с Allen Institute и HHMI (Anthropic - создатели Claude; Allen Institute - исследовательский институт; HHMI - большой научный фонд). И что? Claude начинают встраивать как “лабораторного ассистента”: поиск по данным, подсказки по экспериментам, агентные инструменты для ученых - это ускорит R&D там, где люди годами копаются в статьях и датасетах. 

⚡️ StepFun открыли Step-3.5-Flash (StepFun - китайская лаборатория; модель с MoE - “много экспертов внутри”, активируется часть, поэтому быстрее и экономнее). И что? У сборщиков агентов появится еще один быстрый “мозг” с длинным контекстом, который можно крутить в проде без ценника уровня космической программы. 

🗣️ ElevenLabs Eleven v3 вышла из alpha и доступна коммерчески (ElevenLabs - синтез речи и голосовые продукты). И что? Голосовые интерфейсы станут стабильнее: меньше косяков с числами и произношением, больше причин переводить саппорт, обучение и контент на “говорящие” форматы. 

🎭 Google DeepMind расширили Kaggle Game Arena: покер и Werewolf (Kaggle - платформа соревнований; Game Arena - тестирование моделей в играх). И что? Модели начинают мерить по навыкам, которые нужны в реальном бизнесе: риск, блеф, переговоры, командная динамика - такие бенчмарки ускорят “агентов, которые договариваются”. 

🛡️ OpenAI наняла Dylan Scandinaro на роль Head of Preparedness (Preparedness - команда, которая готовит протоколы и тесты под мощные модели; Dylan пришел из Anthropic). И что? У OpenAI усиливается блок “что будет, если модель начнет делать опасные вещи”, и это сигнал партнерам: безопасность снова продают как продуктовую часть стратегии. 

🌀 Higgsfield запустили Vibe Motion для моушн-дизайна по тексту (Higgsfield - инструменты для генерации видео/креатива; Vibe Motion - генерация анимаций, заявляют Claude под капотом). И что? Моушн для презентаций, рекламы и соцсетей уедет в “написал промпт - получил ролик”, а дизайнеры сместятся в роль режиссера и редактора. 

🚨 Нам 3.14здец: корпоративным процессам и владельцам данных - 9/10 - агенты лезут в платежи, код и отчеты, ошибки будут стоить денег - что делать: вводишь права и лимиты для агентов, логирование действий, тестовый контур с реальными данными, контракт на хранение логов и аудит, отдельный стоп-кран для критичных операций

BIPIAI Встречи

📆 3 февраля в 18:00 (CET)

Практическая встреча, где спикер показывает, как собирать полноценную маркетинговую стратегию с помощью ИИ: структура, технология, готовые промпты и демонстрация результата на реальном примере. Без воды и “вдохновляющих разговоров”, только метод, который можно повторить.

—-

📆 4 февраля в 18:00 (CET)

Практическая встреча о том, как собирать и тестировать торговых ботов за недели, а не месяцы: ИИ как “архитектор” и логический слой, no-code / low-code (vibe-coding) инструменты, быстрый цикл гипотез и связка с реальным брокером и рынком. Без “чёрных ящиков” и без ухода в программирование.

—-

📆 5 февраля в 18:00 (CET)

Закрытая практическая встреча про применение ИИ в 2026 году вне разработки приложений: энергетика, био-направления, агро/еда и другие индустрии. Разбираем реальные сценарии, что работает уже сейчас, и уходим с набором идей для пилотов и проектов.

BIPIAI Инструменты

📽️Sora 2 - Генерирует реалистичные и управляемые ролики по промпту, поддерживает сложные сцены и синхронизацию звука/диалогов через приложение Sora.

🧑🏿‍💻Replit - Онлайн IDE и платформа деплоя: генерируешь код, правишь, запускаешь и шаришь проект в одном месте, с помощниками для разработки.

🧠Notion AI - Помогает быстро находить информацию в рабочих пространствах, писать черновики, делать саммари страниц и улучшать тексты прямо в Notion.

BIPI AI - СООБЩЕСТВО!

Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.

BIPIAI - закрытый клуб фаундеров и топ-спецов.

Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность

90+ участников, 15 стран.

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра!
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.

Keep Reading