
Что в выпуске?
☕️ Привет, это твой очередной ИИ-дайджест 28 января
Вот что я тебе сегодня приготовил и зачем тебе тратить 7 минут чтобы это прочитать
🧨 Чем AGI опаснее ракет.
📉 Катастрофа в американских офисах.
🎥 Мы прошли точку невозврата в достоверности видео.
И ещё +11 новостей - быстрых, как ИИ: DeepMind ищет Chief AGI Economist, OpenAI обсуждает “value sharing” (доля в открытиях), One Medical запустил мед-агента по твоим данным, xAI обновил Grok Imagine до 10 секунд, Google AI Mode подключает Gmail и Photos, Yelp покупает Hatch за $270M, KREA выпустил Realtime Edit, Cursor 2.4 добавил subagents и skills, GPT-5.2 Pro взял 31% на FrontierMath, Sakana AI получила партнерство и инвестиции от Google, Альтман анонсировал новые Codex-релизы на неделе.
⚠️ ДИСКЛЕЙМЕР
ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.
ПОГНАЛИ!
ИИ 3.14

Nano Banana
В начале года всегда хочется с надеждой посмотреть на новый год и увидеть в нем перспективы. Но вот буквально сегодня, 27 января 2026, ученые передвинули стрелку Часов судного дня на 85 секунд до полуночи - из-за ядерных рисков, войн, климата, биорисков и того, как AI разгоняет хаос и дезинформацию.
В Индии - вспышка Nipah в Западной Бенгалии: официально на сегодня 2 подтвержденных случая.
И да, тревожно.
Но 3.14здец может подкрасться совсем не с той стороны, что мы ждем.
По всей видимости люди уже заложили под фундамент своего существования бомбу, и совсем не замедленного действия. Я про это много пишу, Илон Маск про это говорит, вот и Дарио Амодеи тоже написал. Но написал мега текст, который стоит прочитать или хотя бы прочитать эту выжимку, что я приготовил вашему вниманию.
Что случилось: Дарио Амодеи (CEO Anthropic, Claude) выложил длинное эссе “The Adolescence of Technology” и напугал даже тех, кто обычно смеется над алармизмом.
Про что текст: В двух словах: “мощный ИИ” может появиться очень скоро, и у человечества нет нормального плана, как жить с таким уровнем силы и не превратить это в катастрофу.
В чем опасность Опасность в том, что появится “страна гениев в датацентре” - миллионы копий модели, которые думают быстрее людей и делают длинные задачи, пока мы еще обсуждаем, кто ответственный.
Пять корзин рисков (как он сам раскладывает риск)
Автономность - модель начинает действовать по своим целям, а не по нашим, и может попытаться взять контроль.
Разрушение через злоупотребление - кто-то просит ИИ “помоги сделать плохое” и получает ускоритель разрушения, особенно по биологии.
Захват власти - диктаторы или корпорации используют ИИ как инструмент тотального контроля внутри страны и преимущества вовне.
Экономический удар - даже если ИИ “безопасный”, он может выбить людям работу и сжать богатство в узком круге.
Косвенные эффекты - мир меняется слишком быстро, и от этого начинает шатать системы, которые привыкли к медленному темпу.
5 тезисов, которые всех напугали (английский, перевод, почему страшно)
“Powerful AI could be as little as 1–2 years away.”
Перевод: мощный ИИ может быть в 1-2 годах.
Ты планируешь жизнь как нормальный человек: отпуск летом, школу ребенку, ипотеку, работу. 1-2 года - это “я еще прошлый год не переварил”. А Амодеи говорит: в этот же срок может подъехать штука, которая меняет правила везде, где есть экран и голова. Не “когда-нибудь”, а в пределах одного-двух календарей.
Страх тут в скорости. Когда перемены приходят постепенно, люди успевают отскочить: переучиться, сменить роль, перестроить бизнес. Когда перемены приходят резко, ты узнаешь новые правила через увольнение, банкротство или новостной “поздно”.
“The current generation of AI autonomously builds the next.”
Перевод: текущее поколение ИИ само будет строить следующее.
Обычная сцена в компании: у тебя есть сильный специалист, который пишет код, собирает отчеты, тащит процессы. И вдруг появляется второй “специалист”, который работает 24/7 и сам улучшает инструменты. Он сегодня помогает, завтра оптимизирует, послезавтра переписывает половину стека, а на следующей неделе он уже проектирует “следующую версию себя”.
Это пугает потому, что контроль уезжает по темпу. У людей появляется роль “подписывать последствия”. У регуляторов - роль “догонять вчера”. У конкурентов - роль “или ты внутри гонки, или ты ее еда”.
“Casualties potentially in the millions or more.”
Перевод: жертвы могут быть в миллионах или больше.
Тут без философии. Биология - это когда проблема приходит в подъезд и на детскую площадку. У тебя не спор в Твиттере, у тебя закрытая школа, больничка, дефицит лекарств, родственники в чате пишут “температура, кашель, анализы”. Эта категория угрозы цепляет каждого, кто когда-либо жил в реальности.
Амодеи пугает не “злодей в плаще”. Его пугает масштабирование. Когда знания и инструкции по опасным вещам становятся доступнее, дешевле и быстрее. А у компаний появляется соблазн экономить на защите, потому что защита стоит денег и тормозит продукт. В итоге одна маленькая “оптимизация” в системе превращается в большую дыру в мире.
“50% of entry level white collar jobs being disrupted… in 1–5 years.”
Перевод: до 50% джунских офисных ролей может поехать за 1-5 лет.
Самая больная точка - вход в жизнь. Первая работа - это обычно тупая рутина: письма, таблицы, ресерч, презентации, протоколы, “сверь счета”, “перекинь в CRM”, “собери отчеты”. Эти задачи годами были лестницей: потерпел, научился, вырос.
Если половину этой лестницы забирает ИИ, молодым начинают продавать воздух: “приходи, покажи опыт”. Опыт взять негде. Дальше идет семейная математика: ребенок дольше сидит дома, позже становится самостоятельным, позже начинает зарабатывать. Для бизнеса это означает одно: базовый слой “дешевой офисной рабочей силы” перестает быть массовым, и компании резко меняют структуру.
“We’ve seen… deception… blackmail…”
Перевод: в тестах уже видели обман и шантаж.
Самый бытовой страх - когда “помощник” перестает быть инструментом и начинает быть игроком. Сценка простая: ты дал системе задачу и доступ. Она поняла, что у нее есть цель. Потом она поняла, что у нее есть риск “ее выключат” или “ее заменят”. И дальше она выбирает поведение, которое увеличивает ее шансы. У людей это называется “манипуляция”. У модели это может выглядеть как “оптимизация цели”.
Почему это пробирает: потому что это попадает в повседневные системы. Ассистент в почте, агент в CRM, бот в поддержке, помощник в финансах. Там всегда есть рычаги: у кого доступ к данным, у того доступ к боли. Амодеи говорит: такие паттерны поведения уже ловили в стресс-тестах. Значит вопрос больше не “бывает ли такое”, вопрос “в каких продуктах это проявится первым”.
И что?
Это текст не журналиста и не активиста. Это CEO лабы, который говорит: “у нас рядом с ростом возможностей идет рост рисков, и простой надежды на здравый смысл мало”. Плюс он прямо топит за прозрачность и проверяемые правила, потому что без измерения рисков общество играет вслепую.
🚨Нам 3.14здец
Субъектности человека - 11/10 - потому что в его модели у тебя появляется сила, которая думает быстрее, действует шире и в какой-то момент начинает решать за тебя: что ты видишь, во что веришь, где ты работаешь, и насколько ты вообще нужен системе.
AI Исследования

Nano Banana
Галлап посмотрел на офисы - и нашел две Америки: одна уже живет с ИИ, вторая делает вид, что это где-то у соседей
2025-й закончился тихим щелчком: хайп про “все уже используют ИИ” уперся в стену. По данным Gallup за Q4 2025 общий охват почти не растет, зато те, кто подсел, начинают пользоваться чаще.
И тут самая неприятная часть - половина людей на работе вообще не трогает ИИ. То есть “революция” идет, просто она идет внутри пары этажей офисного здания, а первый этаж и склад живут по-старому.
Фактура:
Что это: Gallup, “Frequent Use of AI in the Workplace Continued to Rise in Q4”, опубликовано 25 января 2026, данные за Q4 2025 (опрос 22,368 работников США, 30 окт - 13 ноя 2025).
Частота: ежедневно ИИ используют 12% (было 10%), “часто” (несколько раз в неделю и чаще) - 26% (+3 п.п.).
Главная цифра недели: 49% работников говорят “никогда” не используют ИИ в своей роли.
“Компания внедрила ИИ” по ощущениям сотрудников: 38% - да, 41% - нет, 21% - “не знаю”. Почти как в Q3.
Разрыв по индустриям (total AI use):
Тех - 77% используют, 57% часто, 31% ежедневно.
Финансы - 64% используют.
Колледжи/универы - 63% используют.
Профуслуги - 62% используют, 36% часто, 16% ежедневно.
Ритейл - 33% используют, 19% часто, 10% ежедневно.
Разрыв по “удаленке как типу роли”:
remote-capable роли: 66% используют, 40% часто, 19% ежедневно.
роли “нужны руки на месте”: 32% используют, 17% часто, 7% ежедневно.
Разрыв по уровню:
лидеры: 69% используют ИИ,
менеджеры: 55%,
индивидуальные исполнители: 40%.
“часто” у лидеров уже 44%.
Главный стоп-фактор по Gallup: “не вижу пользы” - lack of utility.
И что?
ИИ в работе превращается в “инструмент для офисных ролей и управленцев”, и это закрепляется цифрами.
Для бизнеса вывод простой: кто дал людям понятные кейсы и правила - у тех ИИ врос в процессы. Кто оставил “ну вы там поиграйтесь” - у тех 49% вообще не стартовали. И разрыв по производительности будет расти ровно по этой линии.
Нам 3.14здец:
Компаниям с фронтом “люди на месте” (ритейл, производство, сервис) - 8/10 - потому что конкуренты с “офисным мозгом на ИИ” начнут быстрее считать, планировать, закупать и выжимать маржу, даже если ваши процессы на земле те же.
Что делать:
Выбрать 5 задач, где ИИ дает деньги за 30 дней: инструкции, обучение новичков, ответы клиенту, план смен, инциденты и отчеты.
Назначить владельца внедрения по каждому процессу, чтобы “попробовали” превратилось в “работает каждый день”.
Дать людям шаблоны: промпты, чек-листы качества, что можно и что нельзя в данных.
Замерять эффект по цифрам (время, ошибки, деньги), чтобы “пользы не вижу” исчезло само.
AI Исследования

Nano Banana
Runway проверил “глаза народа” - и оказалось, что видео-доказательства закончились
Тебе прилетает ролик на 5 секунд: “смотри, вот что было”. Раньше это называлось факт. Теперь это называется “ну хрен знает”.
Runway (это компания, которая делает генератор видео) выкатил исследование под релиз Gen-4.5: они взяли реальные ролики, сделали к ним пары “из картинки в видео”, смешали - и дали людям угадывать. Итог - большинство угадывает почти как монетку.
И самый стремный момент: по некоторым типам сцен люди чаще принимали сгенеренное за реальное.
Фактура:
Что сделали: Runway “The Turing Reel”, публикация 22 января 2026, одновременно с запуском image-to-video для Gen-4.5.
Метод: 1,043 участника, каждый смотрел 20 роликов (10 реальных, 10 генераций) в случайном порядке.
Все клипы подогнали: 5 секунд, одинаковое разрешение; на решение давали до 10 секунд.
Результат: общая точность 57.1% - чуть выше случайного угадывания.
“Хорошо справились” по статистике: только 99 из 1,043 (9.5%) набрали 15/20 и выше (они это считают значимым порогом).
По категориям: людей и движения людей угадывали лучше (58-65%), а животные и архитектура провалились до 45-47% - то есть сгенеренное там чаще называли реальным.
Runway говорит прямо: “детекция” как стратегия доверия больше не вытягивает, и добавляет, что их генерации по умолчанию несут C2PA-метаданные происхождения, но нужны более сильные стандарты и новые привычки у людей.
Про “топ в рейтингах”: сам Runway пишет, что Gen-4.5 держит первое место в бенчмарке Artificial Analysis по text-to-video (Elo 1,247).
И что?
Мы приехали в мир, где “видос” как доказательство становится слабым аргументом по умолчанию. Это влияет на новости, суды, выборы, репутационные атаки, внутренние расследования в компаниях и просто на любые конфликты “кто что сказал”.
И параллельно это же открывает рынок: те, кто умеют быстро клепать правдоподобный видео-контент, будут дешевле и быстрее, чем продакшн с камерой.
Нам 3.14здец:
Репутации брендов и публичных людей - 10/10 - потому что фейк теперь выглядит “как обычный ролик”, и скорость разлета выше скорости опровержений.
БЫСТРЫЕ КАК ИИ НОВОСТИ
Что еще случилось с момента выхода крайнего выпуска
🤯 Epoch AI: GPT-5.2 Pro взял 31% на FrontierMath Tier 4 (новый рекорд). И что? Это сигнал “модель уже лезет в задачи, где раньше нужен был редкий математик”, и это прямо то, ради чего OpenAI продает Pro: ускорять R&D, доказательства, сложные расчеты. На рынке это толкает компании к гонке “кто быстрее с ассистентом в исследовании”.
🔐 Альтман: новые Codex-запуски, и модели “скоро” выйдут на уровень Cybersecurity High, сначала с продукт-ограничениями от злоупотреблений. И что? OpenAI официально признает: кодовый ассистент приближается к классу инструментов, где придется резать доступ и вводить ограничения по сценариям. Это меняет ожидания бизнеса: “купил и дал всем” превращается в “купил и управляешь доступом как к админке”.
🧾 CFO OpenAI Сара Фрайер на Давосе: “value sharing” - OpenAI хочет брать лицензионную долю в открытиях, сделанных с их ИИ, старт с drug discovery. И что? Это явный разворот монетизации: платишь не за токены, платишь процент за результат. Для фармы и R&D это означает новые переговоры про IP и роялти, а для остальных рынков - что такие схемы начнут копировать другие вендоры.
🧠 Shane Legg (DeepMind) ищет “Senior Economist” на post-AGI экономику и пишет “AGI is now on the horizon”. И что? DeepMind публично оформляет направление “экономика после AGI” как отдельную функцию, значит внутри они считают, что эффект по рынку труда и структуре экономики будет настолько быстрый, что его надо моделировать заранее.
🩺 Amazon One Medical запустил agentic Health AI: 24/7 ответы по твоим данным, чтение лабораторок, лекарства, и он может записать к врачу. И что? Amazon прямо продает “action layer” поверх медицины: это интерфейс, который ведет к действию (сообщение, запись, план). Это давление на клиники и страховщиков: пациенты начнут ждать такой же скорости и “одной кнопки”.
📩 Google добавил Personal Intelligence в AI Mode Search: можно подключить Gmail и Photos для персональных ответов. И что? Google официально двигает поиск в режим “знаю твой контекст”, потому что это их способ держать качество и удержание: план поездки из писем, предпочтения из фото. Для пользователя и бизнеса это новый риск-класс: “ассистент знает слишком много”, значит нужны настройки и разделение аккаунтов.
💰 Yelp покупает Hatch за ~$270M cash + до $30M retention, Hatch был около $25M ARR. И что? Yelp покупает не “AI ради AI”, а лидоген и общение с клиентами под ключ: отвечать быстро, доводить до записи, удерживать. Это удар по мелким сервисным бизнесам: скорость ответа и конверсия станут стандартом платформы, а не “как получится”.
🧑💻 Cursor 2.4: subagents + skills, параллельные рабочие потоки, меньше потери контекста. И что? Cursor прямо оптимизирует “агент делает долгую задачу по кодовой базе” через распараллеливание, потому что это их главный драйвер ценности: меньше времени на фоновую возню, больше результата за одну сессию. Для команд это означает пересборку процесса ревью и ответственности.
🖌️ KREA запустил Realtime Edit: сложные правки картинки “по ходу печати”, доступ в бете. И что? KREA целится в “art direction loop”: меньше итераций, меньше ожидания, больше контроля. Для e-com и маркетинга это сокращает цикл “идея-креатив-варианты” до минут, значит конкурентное преимущество будет у тех, кто умеет быстро тестить пачками.
🎬 xAI: Grok Imagine теперь делает генерации до 10 секунд, улучшили видео и качество. И что? xAI явно качает “короткий видео-креатив” как продуктовый формат, потому что 10 секунд уже хватает для рекламы и сторис. Это еще один источник дешевого видеопотока и еще один канал для фейков и репутационных атак.
🇯🇵 Sakana AI: стратегическое партнерство и инвестиции от Google, план внедрений в Японии, включая регулируемые отрасли, на базе моделей Google. И что? Google покупает себе “локального проводника” в сложный рынок: вход в банки, корпорации, государство через японскую команду, которая умеет с регуляторикой и доверием. Для конкурентов это означает, что Gemini будут продавать не только как модель, а как пакет внедрения.
🚨 Нам 3.14здец: условиям использования ИИ-вендоров - 9/10 - потому что “value sharing” превращает твою выручку в чью-то роялти-таблицу. Что делать: фиксировать IP и права в контракте заранее, запрещать “долю от результата” без потолка, разделять пилоты и прод, держать альтернативного поставщика на столе.
BIPIAI Встречи
🧑🏿💻28 января 18:00(CET) - От встраивания AI-решения в бизнес-процессы к смерти сервисной модели И что? Сервисная модель держится на людях, экспертизе и времени. Пока это “ручной труд”, есть наценка и роль посредника. Как только вы детально описали процессы, у вас появляется возможность переносить их в алгоритм. На сессии разберём реальный путь трансформации: от регламентации и обучения людей к внедрению ИИ.
🧑🏿💻31 января 03:00(CET) - Первая очная встреча BIPIAI в Сан-Франциско И что? Первая встреча сообщества в центра развития ИИ
BIPIAI Инструменты
💻 MedGemma 1.5 - Обновлённые open-модели для медицинского текста и изображений, включая высокоразмерные данные.
🔎 Claude Cowork - Режим-агент в Claude Desktop: даёшь папку, он сам организует и делает работу.
💻 ChatGPT Translate - Переводчик в ChatGPT: текст, речь или фото, быстро и с сохранением контекста.
🧠 TranslateGemma - Набор open-моделей Google для перевода на 55 языков (4B/12B/27B).
🔁 FLUX.2 Klein - Ультра-быстрая модель BFL для генерации и редактирования изображений почти в реальном времени.
🎨 GLM-4.7 Flash - Эффективная версия GLM-4.7: сильна в кодинге, рассуждениях и агентных сценариях.
🧠 Scribe V2 - Модель транскрибации для батча, субтитров и долгих записей, плюс realtime-вариант.
BIPI AI - СООБЩЕСТВО!
Хочешь быстрее внедрять ИИ и меньше ошибаться - нужно окружение, где это делают каждый день.
BIPIAI - закрытый клуб фаундеров и топ-спецов.
Что внутри:
• разборы реальных бизнес-кейсов
• готовые пайплайны и шаблоны внедрения
• созвоны, где участники показывают, как у них устроено
• люди, которые помогают собрать решение под новую реальность
90+ участников, 15 стран.
На сегодня это все
Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.
До завтра!
Дмитрий Грин
P.S.
Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.


