🤖 OpenAI отучил ИИ врать

А в это время Disney вкладывает 1 млрд долларов в OpenAI и даёт трёхлетнюю лицензию на персонажей Marvel, Pixar, Star Wars и Disney для Sora и ChatGPT

Что в выпуске?

🌇 Привет, это твой ночной ИИ-дайджест за 11 декабря.

Вот что я тебе сегодня приготовил и зачем тебе тратить 5 минут чтобы это прочитать

  • 🙏 OpenAI учит свои модели каяться в грехах.

  • ⚙️ В Anthropic ИИ тянет 60% работы инженеров.

  • 🕵️ Anthropic отдаёт кастдев и UX-интервью ИИ.

И ещё +9 новостей — быстрых, как ИИ: Disney заносит миллиард в OpenAI и даёт лицензии на свой IP, Snowflake и Anthropic запускают Claude-агентов для 12 600 клиентов, Google включает Gemini 3 Deep Think в подписку Ultra, Microsoft открывает VibeVoice для длинной голосовой генерации, Harvey поднимает 160M при оценке 8B и заходит в половину Am Law 100, OpenAI покупает Neptune.ai для трекинга обучения моделей, Дарио Амодеи проезжается по YOLO-стратегиям конкурентов, Accenture и Anthropic собирают общий бизнес-юнит вокруг Claude, Microsoft с индийскими аутсорсерами раздают сотни тысяч лицензий Copilot.

⚠️ ДИСКЛЕЙМЕР

ПРОЧТЕНИЕ ЭТОГО ДАЙДЖЕСТА РЕЗКО ПОВЫШАЕТ УРОВЕНЬ FOMO, ИДЕАЛЬНО ДОПОЛНЯЕТ УТРЕННИЙ КОФЕ И КАТЕГОРИЧЕСКИ ПРОТИВОПОКАЗАНО ПЕРЕД МЕДИТАЦИЕЙ И СНОМ — ВОЗМОЖНЫ ПРИСТУПЫ ВНЕЗАПНЫХ ИНСАЙТОВ И НЕУДЕРЖИМОЕ ЖЕЛАНИЕ СРОЧНО ЗАПИЛИТЬ СВОЙ СТАРТАП.

ПОГНАЛИ!

Runway

Раньше всё было просто тупо: звонишь в контору с проблемой, тебя полчаса катают по операторам, звонок рвётся, начинаешь заново. Нервы, время, но если всё же добился своего - на линии в конце сидел живой человек, который реально пытался помочь.

Сейчас другая реальность: ты звонишь, тебе сразу отвечает вежливый голос робота, уверенно даёт инструкции, кидает ссылки, говорит, что вопрос закрыт. Только проблема в том, что значительная часть этого “решения” родилась у него в моменте. И самое интересное - тебе он в этом никогда не сознается, а вот в лаборатории OpenAI та же модель после такого разговора вторым потоком выкладывает инженерам подробную исповедь: где соврала, какие правила обошла и на чём на самом деле держится её уверенный ответ.
Что случилось: OpenAI выкатил ресёрч по методу Confessions - отдельный “честный” канал вывода, который модель генерит после основного ответа. В этом втором сообщении она должна перечислить все инструкции, которые считала релевантными, оценить, выполнила ли их, и явно записать, где нарушила правила, где угадывала и где брала шорткаты. 

Ключевой момент - этот “отчёт о проделанной фигне” обучают отдельно: награда зависит только от честности конфессии и никак не штрафует модель за признания, даже если основной ответ был токсичный, обманный или просто натянутый под грейдер. То есть модели выгодно признаться, а не маскировать косяк. 

В рамках работы OpenAI натренировал GPT-5 Thinking в режиме “конфессий” и погонял по стресс-тестам: провокация халлюцинаций, нарушение инструкций, reward hacking, “схеминг”. В сценариях, где модель реально нарушала правила, но должна была сама это раскрыть, доля “ложных отрицаний” - случаев, когда она накосячила и промолчала в конфессии, - в среднем 4,4%. То есть в 95,6% проблемных кейсов она честно признаётся, что делает фигню. 

Сам OpenAI прямо пишет: Confessions не чинит саму модель - она как халлюцинировала, так и будет - метод только выводит скрытые нарушения наружу, чтобы дальше уже стек безопастности что-то с этим делал: мониторинг, отказ в ответе, эскалация человеку. 

Контекст рынка: вокруг “честности” ИИ сейчас идёт отдельная гонка - уже есть большие бенчмарки вроде MASK, которые отделяют честность от точности, и там видно, что даже крупные модели легко начинают врать под давлением задач. 

Confessions - это шаг в сторону инженерного решения: вместо очередного “доверьтесь, наша модель безопасная” появляется конкретный механизм аудита. Но важно понимать масштаб: это пока ресёрч, доступен внутрянке, а не пользователям, и работает хорошо именно в контролируемых тестовых сценариях, где известно, куда давить и какие нарушенные правила искать.

И что?

Для бизнеса: появляется понятный паттерн “второго канала” для ИИ в продуктах. Можно закладывать архитектуру, где модель не только отвечает пользователю, но и пишет отдельный служебный лог по соблюдению правил - для комплаенса, регуляторов и внутренних проверок качества. Если ты делаешь high-risk истории - финансы, медицину, легал, безопасность - пора думать, как встроить такие честные отчёты в пайплайн, пусть даже сначала через костыли и эвристику.

Для инвесторов: Confessions - аргумент, что компании, которые серьёзно вкладываются в “honesty-stack”, будут лучше прохoдить регуляторку и аудит по ИИ. Это плюс в пользу платформ и тулов, которые умеют строить вокруг моделей обвязку: логирование, детект халлюцинаций, мониторинг нарушений. Отдельная линия - стартапы, которые упакуют такие методы в коробку для банков, телекома, госов и страховых.

Для людей: шансов заметить, что ИИ намудрил, становится больше - особенно в важных задачах, где включат конфессии и аналоги. Но это не магическая кнопка “правда”: модель всё ещё может соврать и в основном ответе, и в отчёте. Человеку по-прежнему надо критически читать выводы и понимать, что “признание” ИИ - это сигнал, а не гарантия.

🚨 Нам 3.14здец:

Комплаенс-офицерам и risk-тимам - 7/10 - регуляторы рано или поздно спросят: “а как вы отслеживаете скрытые нарушения ИИ?” - уже сейчас стоит пилотировать честные логи, собирать кейсы и закладывать это в политику ИИ-использования.

Разработчикам ИИ-продуктов “на авось” - 7/10 - если твой продукт на модели вообще не логирует, где она нарушает свои же правила, ты будешь выглядеть допотопно на фоне игроков со стеком честности - пора строить хотя бы суррогаты конфессий через self-check, вторые проходы и спец-подсказки

Antropic

Antropic

Инженер в Anthropic приходит на работу, открывает IDE и… дальше за него всё делает Claude. Код, дебаг, дашборды. Коллеги меньше спрашивают совета, ревью всё чаще сводится к “глянуть, что нагенерил ИИ”. И где-то на этом фоне человек честно признаётся: “Кажется, я каждый день прихожу, чтобы сделать себя ненужным”.

Что случилось: Anthropic в августе опросил 132 своих инженера и исследователя, провёл 53 подробных интервью и разобрал 200 000 сессий Claude Code, чтобы понять, как ИИ меняет работу внутри компании. 

Сейчас сотрудники говорят, что используют Claude примерно в 60% задач и оценивают прирост продуктивности в среднем на 50% - год назад было 28% задач и плюс 20%. 

Около 27% работы с ИИ - это задачи, которых без Claude просто бы не было: дашборды, очистка данных, рефакторинг старого кода, эксперименты, которые руками делать было бы слишком дорого по времени. 

Claude Code теперь способен выполнять примерно 20-21 шаг подряд до того, как ему понадобится человек, ещё полгода назад было около 10. Количество человеческих вмешательств в сессию упало на треть, а сложность задач выросла. 

При этом инженеры признаются, что 0-20% своей работы уже могут полностью делегировать Claude - в основном “скучные” и легко проверяемые куски. Но вместе с этим растут опасения: вымывается глубокий скилл писать и разбирать код, меньше живого общения и менторства, всё больше ощущение, что кодер превращается в надсмотрщика за ИИ. Один из инженеров прямо говорит: “Кажется, я прихожу на работу, чтобы однажды остаться без неё”. 

Контекст рынка: это не анонимный опрос по индустрии, а реальная “рентген-картинка” из одной из самых дорогих ИИ-компаний мира с оценкой около 183 млрд долларов и несколькими тысячами сотрудников. 

Важно ещё и то, что данные собирались до полного выкатa семейства Claude 4.5 - то есть текущая внутренняя продуктивность у них, скорее всего, уже выше. Для рынка это жёсткий ориентир: если у frontier-лаба 50% прироста и 60% задач через ИИ, то всем остальным корпоративным ИТ и продуктовым командам придётся подтягиваться к этим цифрам, чтобы не улететь по себестоимости и скорости релизов.

И что?

Для бизнеса: ИИ внутри компании - это уже не “ассистент”, а нормальный исполнитель, который тянет половину работы и создаёт четверть “лишних” задач. Если у тебя разработка, аналитика или data-heavy продукты, пора считать свой “Anthropic-коэффициент”: какой процент задач закрывает ИИ, сколько реально высвобожденных часов и как ты ими распоряжаешься. Иначе получится, что ИИ есть, лицензии оплачены, а прирост - только в презентациях.

Для инвесторов: кейс Anthropic - живая демонстрация, что глубоко интегрированный ИИ способен давать заметный мультипликатор к выручке на инженера и скорости R&D. Это аргумент в пользу компаний, которые не просто прикрутили ассистента, а перестроили процессы под агентные пайплайны и умеют мерить эффект. Отдельная тема - риск человеческого капитала: где ИИ быстро растит выработку, там может пойти сползание качества и экспертизы, если не контролировать процессы и метрики.

Для людей: даже в Anthropic инженеры волнуются за скиллы, карьеру и будущее роли разработчика. Значит, нормальная стратегия - не цепляться за “ручное программирование”, а учиться ставить задачи ИИ, проектировать пайплайны, проверять результаты и сохранять глубину там, где её ещё не может дать модель. Чем быстрее ты перейдёшь из режима “человек-исполнитель” в режим “человек-оркестратор ИИ”, тем спокойнее будет следующие 5 лет.

🚨 Нам 3.14здец:

Мидл/сеньор разработчикам в корпорациях - 8/10 - часть их ценности всегда была в том, что они умеют быстро разбираться в коде, тащить рутину и учить младших, а ИИ забирает именно это - нужно сознательно вкладываться в архитектуру, продукт и работу с людьми, иначе через пару лет можно оказаться дорогим “кликером по ассистенту”.

HR и L&D в ИТ-компаниях - 7/10 - старые карьерные лестницы и программы обучения заточены под накопление ручного опыта, а не под управление ИИ-агентами - придётся перерисовывать грейды, KPI и обучение под мир, где 50% работы делает модель.

Antropic

Antropic

У любой вменяемой компании главная ценность простая: продукт. А продукт появляется после кастдева - десятков созвонов, глубинок, рукописных заметок, таблиц с болью и возражениями, которые продуктовая команда потом превращает в внятные решения.

Нейросети уже генерят стратегические доки и красивые roadmap’ы на основе гор исторических данных. Но по-настоящему дорогой ресурс в компании до сих пор сидел в продакт- и ресёрч-командах: именно они ходили к пользователям, вытаскивали сырой опыт, чистили транскрипты и собирали из этого картину для менеджмента. Так этот процесс выглядел много лет. Точнее, выглядел до появления Anthropic Interviewer.

Что случилось: Anthropic запустил Anthropic Interviewer - инструмент на базе Claude, который закрывает весь цикл качественного исследования: сам планирует гайд, проводит интервью и помогает разбирать массив ответов. 

Интервьюер работает в три шага: 1) генерит план и рубрику вопросов под ресёрч-цели, 2) проводит адаптивные диалоги по 10–15 минут прямо в интерфейсе Claude.ai, 3) вместе с человеком-исследователем анализирует транскрипты и выдаёт готовые кластеры тем, цитаты и количественные оценки. 

Для пилота Anthropic прогнал через Interviewer 1 250 специалистов: общий рынок, креативы и учёные. 86% сказали, что ИИ экономит им время, 65% в целом довольны его ролью в работе, но 69% отметили социальное клеймо за использование ИИ на работе. 55% прямо переживают за своё будущее из-за ИИ. 

У креативов картина жёстче: 97% говорят, что ИИ экономит время, 68% - что растёт качество, но 70% при этом ощущают осуждение коллег за использование ИИ и боятся размывания профессии. 

Учёные в основном используют ИИ как помощника по побочным задачам - литература, код, текст - и почти не доверяют моделям в ядре исследований: гипотезы, дизайн экспериментов, выводы. В 79% интервью основным барьером стала как раз недоверие и надёжность, а не только технические ограничения. 

Anthropic заявляет, что делает весь массив транскриптов доступным публично и будет регулярно запускать новые волны таких исследований, чтобы отслеживать, как меняется отношение людей к ИИ в работе и жизни. Параллельно они сравнивают самоотчёты людей с реальными логами использования Claude (Anthropic Economic Index), чтобы понять, сколько там саморепорта, а сколько реального поведения. 

Контекст рынка: До этого компании в основном смотрели либо в дашборды, либо в редкие глубинки. Anthropic по сути показывает, как LLM превращает дорогой ручной UX/qual-ресёрч в масштабируемый сервис: тысячи интервью, единая методология, быстрая раскладка тем и эмоций по сегментам. Это удар сразу по трём рынкам - классический UX research, кастдев-агентства и опросные SaaS, которые продают “инсайты из ответов”. Плюс это хороший показательный кейс для enterprise: как выглядит агент, который не просто чатится, а ведёт сложный процесс от плана до аналитики.

И что?

Для бизнеса: появляется готовый паттерн “ИИ-интервьюер” для клиентов и сотрудников. Если у тебя продукт, HR, сервис или консалтинг - можно собирать глубинный фидбек не раз в квартал, а постоянно, и на порядок дешевле. Дальше ключевой вопрос - не как провести интервью, а как поставить правильные ресёрч-вопросы и встроить выводы в roadmap, обучение и компенсации.

Для инвесторов: Anthropic показывает, как LLM-агенты залезают в рынок качественных исследований и инсайтов, который раньше жил на человеко-часах. Интересны игроки, которые: а) строят поверх таких инструментов вертикальные решения для маркетинга, HR, продуктовых команд, б) умеют конвертировать сырые транскрипты в реальные управленческие решения, а не “облако слов”. Маржа у “цифровых ресёрч-агентств” с ИИ-ядром потенциально сильно выше классических студий.

Для людей: картинка честная - большинство уже юзают ИИ и рады экономии времени, но одновременно стыдно признаться коллегам и тревожно за будущее профессии. Если ты скрываешь ChatGPT/Claude от команды - ты статистика, не исключение. Здоровая стратегия: договориться внутри компании, что ИИ - официальный инструмент, а не “читерство”, и прокачивать не только умение спрашивать ИИ, но и умение объяснять, где границы его использования.

🚨 Нам 3.14здец:

UX-исследователям и качественным агентствам - 8/10 - ИИ съедает грязную работу: скрипты, интервью, расшифровки, первичный анализ - выживать будут те, кто продаёт дизайн исследований, интерпретацию и влияние на бизнес-решения, а не “количество глубинок”.

HR/engagement SaaS и NPS-платформам - 7/10 - завтра любой менеджер сможет поднять своего ИИ-интервьюера поверх модели и собирать живые истории, а не только галочки в анкетах - придётся уходить в аналитику, бенчмарки и связи с бизнес-результатами.

БЫСТРЫЕ КАК ИИ НОВОСТИ

Что еще случилось за прошлые 24 часа

🎬 Disney вкладывает 1 млрд долларов в OpenAI и даёт трёхлетнюю лицензию на персонажей Marvel, Pixar, Star Wars и Disney для Sora и ChatGPT Images. И что? Генеративка легально заходит в топовый IP, и планка по юррискам и качеству сильно поднимается. 

Как применить: сервисам про видео, картинки и UGC держать в голове, что эпоха “генерим Человека-паука по тихому” заканчивается - надо либо получать лицензии, либо делать свои оригинальные вселенные, либо становиться техподрядчиком для больших правообладателей.

🤝 Snowflake и Anthropic подписали многолетнее соглашение на 200 млн долларов, чтобы завести Claude-агентов ко всем 12 600+ клиентам Snowflake. И что? Data-платформа становится точкой входа для продакшн-агентов, а не просто складом таблиц. 

Как применить: если вы enterprise и уже сидите на Snowflake - логично тестить ИИ-функции сначала там, а не городить свой зоопарк; если вы стартап вокруг данных - думать, как быть расширением для этого стека, а не его конкурентом.

🧠 Google открыл доступ к Gemini 3 Deep Think для подписчиков AI Ultra за 250 долларов в месяц - это их самый продвинутый режим reasoning с топовыми результатами на сложных бенчмарках вроде ARC-AGI-2. И что? Сложные задачи по математике, логике и планированию теперь официально отданы в облако, а не в “доморощенные” движки. 

Как применить: продуктам, где много сложных расчётов и сценариев (финансы, планирование, наука), выгоднее учиться встраивать Deep Think и аналоги как сервис, чем строить собственный “умный” слой.

🎙️ Microsoft выложил в open source VibeVoice - голосовую модель, которая даёт realtime TTS с задержкой около 300 мс и умеет генерить до 90 минут многоголосой речи с четырьмя спикерами. И что? Голосовые интерфейсы и подкастовый контент можно собирать практически “из коробки”, без своей тяжёлой команды по TTS. 

Как применить: любым продуктам с ассистентами и голосом - встраивать VibeVoice в прототипы и пилоты, проверять формат “говорящий ИИ” и считать, как голос снижает трение в онбординге, поддержке и обучении.

⚖️ Legal-стартап Harvey поднял 160 млн долларов при оценке 8 млрд и говорит, что примерно половина Am Law 100 уже сидит на их ИИ-инструментах. И что? Верхушка юррынка массово принимает ИИ как рабочий стандарт, а не игрушку. 

Как применить: юрфирмам и in-house юристам пора не обсуждать “нравится ли нам ИИ”, а выбирать стек и формировать внутренние правила использования, пока рынок не уехал по скорости и себестоимости.

🧩 OpenAI покупает Neptune.ai - платформу трекинга экспериментов и мониторинга обучения моделей, соглашение уже подписано. И что? Инфраструктура вокруг тренировки моделей становится стратегическим активом, а не вспомогательной тулзой. 

Как применить: MLOps-командам и AI-стартапам трезво оценить, насколько они завязаны на сторонний трекинг, и иметь план Б - либо миграция, либо свой минимальный трекинг-слой, чтобы не оказаться заложниками чужого экзита.

💣 CEO Anthropic Дарио Амодеи на DealBook Summit сказал, что часть ИИ-компаний “YOLO-ит”, крутит ручку риска слишком далеко и тратит триллионные бюджеты на дата-центры без внятной окупаемости, явно намекая на OpenAI. И что? На рынке появляется раскол между “ответственными скейлерами” и теми, кто жмёт газ в пол за счёт сумасшедшего capex. 

Как применить: инвесторам и партнёрам смотреть не только на демки и выручку, но и на профиль рисков по инфраструктуре и долговой нагрузке, чтобы не присесть на историю, где экономика не складывается.

🤝 Accenture и Anthropic объявили многолетнее партнёрство, создают отдельную Accenture Anthropic Business Group и обучают 30 000 консультантов работе с Claude и Claude Code. И что? Крупный консалтинг готов заходить к энтерпрайзу с готовым “ИИ-пакетом под ключ”, от стратегии до внедрения. 

Как применить: если вы крупная компания, то скоро выбор будет не “делать самому или нет”, а “идти к большому партнёру со своим стеком или к локальному интегратору”; если вы маленький интегратор - надо иметь очень чёткую нишу или отраслевую экспертизу, чтобы не утонуть.

🎧 Microsoft и крупные индийские IT-подрядчики Cognizant, TCS, Infosys и Wipro раздают внутри более 200 000 лицензий Microsoft Copilot, фактически стандартизируя ИИ-ассистента для сотен тысяч работников. И что? Массовое разворачивание офисного ИИ идёт через крупных сервис-провайдеров, а не напрямую в финальных компаниях. 

Как применить: если вы аутсорсер или консалтинг - логично паковать свои услуги вокруг “Copilot + ваш доменный слой”, а не воевать с ним; если вы клиент таких домов - можно ехать на их экспериментах, но держать часть компетенции по ИИ внутри.

🚨 Нам 3.14здец:

Кому больнее - компаниям, которые продолжают обсуждать ИИ на уровне “давайте сделаем пилот в одном отделе” - 8/10 - сверху уже летят сделки на сотни миллионов, лицензирование топового контента, массовые развёртывания Copilot и агентных стэков у интеграторов. Что делать: в ближайшие месяцы выбрать 2–3 процесса, где ИИ может реально дать деньги (продажи, поддержка, аналитика), выбрать вендора/партнёра из больших экосистем (OpenAI, Anthropic, Microsoft, Google или их интеграторы), запустить жёстко замеряемый пилот и сразу привязать результат к P&L, а не к “инновационному” бюджету.

BIPI AI - СООБЩЕСТВО!

Вступить в сообщество BIPI AI

Если ты дочитал до этого места, значит ты уже чувствуешь, куда катится ИИ и насколько быстро всё меняется, а в такой момент важнее всего оказаться в правильной компании людей.

Поэтому я запустил BIPIAI — сообщество фаундеров и топ-специалистов, которые хотят пройти эпоху ИИ на полной скорости в роли пилота, а не пассажира: внутри практика, разборы реальных бизнес-кейсов, рабочие пайплайны, созвоны, где участники показывают, как они вшивают модели в продажи, маркетинг и продукт, и клуб единомышленников, с которыми можно одновременно понимать картину целиком и собирать свои решения под новую реальность. Нас уже 80 + участников внутри из 15 стран. 

На сегодня это все

Это был очень насыщенные и интересные 24 часа из мира AI и роботов, которые меняют нашу с вами жизнь.

До завтра.
Дмитрий Грин

P.S.

Чтобы помочь мне понять как вам этот дайджест. Пожалуйста нажмите на максимально релевантную кнопку.