Майкл Бьюрри заработал состояние, поставив против рынка в 2008-м. Теперь он смотрит на триллионы, текущие в ИИ-инфраструктуру, и видит знакомые признаки пузыря. Джек Кларк строит этот самый ИИ в Anthropic. Дваркеш Патель – популярный подкастер, берущий интервью у ключевых фигур индустрии – задает обоим неудобные вопросы. Патрик Маккензи, финансовый аналитик и автор рассылки Bits About Money, модерирует дискуссию. Четверо экспертов с разными позициями собрались, чтобы разобраться: мы инвестируем в будущее или повторяем ошибки доткомов?
История ИИ
Патрик Маккензи: Представьте, что вас наняли историком последних нескольких лет. Кратко расскажите, что было создано после "Attention Is All You Need" (статья 2017 года, с которой началась эра трансформеров). Что в 2025 году удивило бы аудиторию 2017 года? Какие прогнозы осведомленных людей не оправдались? Расскажите эту историю так, как рассказали бы специалисту в вашей области – исследователям, политикам или участникам рынка.
Джек Кларк: В 2017 году большинство людей делали ставку на то, что путь к по-настоящему универсальной системе лежит через обучение агентов с нуля на учебной программе из все более сложных задач, и через это – создание универсально способной системы. Это прослеживалось в исследовательских проектах всех крупных лабораторий – DeepMind, OpenAI – которые пытались обучить сверхчеловеческих игроков в играх вроде Starcraft, Dota 2 и AlphaGo. Я называю это ставкой на "tabula rasa" (чистый лист) – начинаешь с чистого агента и "выпекаешь" его в какой-то среде (или средах), пока он не станет умным.
Конечно, как мы теперь знаем, это не привело к созданию общего интеллекта – но привело к появлению сверхчеловеческих агентов в рамках тех конкретных задач, на которых они обучались.
В то же время люди начали экспериментировать с другим подходом – масштабным обучением на датасетах и попытками строить модели, которые могли бы предсказывать и генерировать на основе этих распределений. Это оказалось чрезвычайно эффективным и было ускорено двумя ключевыми факторами:
- архитектура Transformer из "Attention Is All You Need", которая сделала такое масштабное предобучение намного более эффективным, и
- примерно параллельное развитие "законов масштабирования" – базового понимания того, что можно моделировать связь между возможностями предобученных моделей и вложенными ресурсами (данными, вычислениями).
Объединив Transformer и понимание законов масштабирования, несколько человек правильно сделали ставку на то, что можно получить универсальные системы путем массивного масштабирования данных и вычислений.
Сейчас, что довольно забавно, все возвращается на круги своя: люди снова начинают строить агентов, но на этот раз они наделены всеми инсайтами, полученными от предобученных моделей. Отличный пример – статья SIMA 2 от DeepMind, где они создают универсального агента для исследования 3D-сред, и он опирается на базовую предобученную модель Gemini. Другой пример – Claude Code, кодинг-агент, чьи базовые возможности происходят от большой предобученной модели.
Патрик Маккензи: Благодаря тому, что большие языковые модели (LLM) программируемы и широко доступны, включая версии с открытым кодом, которые ограничены, но все равно мощны по сравнению с 2017 годом, мы сейчас находимся в точке, когда никакие дальнейшие разработки в области возможностей ИИ (или чего-либо еще интересного) никогда не будут строиться на худшем когнитивном субстрате, чем тот, что у нас есть сейчас. Это "то, что вы видите сегодня – это пол, а не потолок" – одна из вещей, которую лучше всего понимают инсайдеры и хуже всего – политики и широкая публика.
Каждый будущий ИИ для Starcraft уже прочитал "Искусство войны" в оригинале на китайском – если только его разработчики не решат, что это делает его хуже в защите от зерг-рашей.
Джек Кларк: Да, мы часто говорим политикам в Anthropic: "Это худшее, что когда-либо будет!" – и очень трудно донести до них, насколько это в итоге важно. Другая неинтуитивная вещь – как быстро улучшаются возможности. Текущий пример: многие сейчас играют с Opus 4.5 в Claude Code и говорят что-то вроде "Ого, это настолько лучше, чем было раньше". Если вы последний раз работали с LLM в ноябре, вы сейчас сильно отстали от понимания текущих возможностей.
Майкл Бьюрри: С моей точки зрения, в 2017 году под ИИ подразумевались не LLM. Под ИИ подразумевался искусственный общий интеллект (AGI). Думаю, люди тогда не считали LLM искусственным интеллектом. Я вырос на научной фантастике, и там много чего предсказано, но ни в одной книге "ИИ" не представлялся чем-то вроде поискового чат-бота.
Что касается "Attention Is All You Need" и введения архитектуры Transformer – это все были инженеры Google, использовавшие Tensor, и в середине 2010-х ИИ не был чужеродной концепцией. Нейросети, стартапы машинного обучения были обычным делом, и ИИ часто упоминался на встречах. У Google уже была большая языковая модель, но она была внутренней. Один из главных сюрпризов для меня – что Google не лидировал все это время, учитывая их доминирование в Search и Android, и в чипах, и в софте.
Еще один сюрприз – я думал, что специализированные интегральные схемы (ASIC) будут приняты намного раньше, и малые языковые модели (SLM) будут приняты намного раньше. То, что Nvidia остается чипом для ИИ так далеко в эпоху инференса (выполнения моделей) – шокирует.
Самый большой сюрприз для меня – что ChatGPT запустил бум расходов. Сценарии использования ChatGPT с самого начала были ограничены – поиск, студенты списывают, кодинг. Сейчас есть LLM получше для кодинга. Но именно чат-бот запустил траты на триллионы.
Говоря о расходах, я считаю одним из лучших моментов интервью Дваркеша с Сатьей Наделлой признание того, что все крупные софтверные компании теперь – хардверные компании, капиталоемкие, и я не уверен, что аналитики, следящие за ними, вообще знают, что такое капитальные затраты на поддержание.
Дваркеш Патель: Отличные замечания. Действительно удивительно, насколько недолговечными пока оказывались преимущества в ИИ. Конечно, в 2017 году Google был далеко впереди. Пару лет назад OpenAI казался намного опережающим остальных. Есть какая-то сила (возможно, переманивание талантов, слухи или реверс-инжиниринг), которая пока нейтрализовала любые убегающие преимущества отдельной лаборатории. Вместо этого большая тройка каждые несколько месяцев меняется местами на подиуме. Мне любопытно, сможет ли "рекурсивный сверхинтеллект" реально это изменить, или нам стоит просто ожидать сильную конкуренцию навсегда.
Джек Кларк: По поводу рекурсии – все фронтирные лаборатории ускоряют своих разработчиков с помощью инструментов ИИ, но это не очень гладко. Похоже, что это имеет свойство "ты быстр лишь настолько, насколько самое слабое звено в цепи" – например, если ты теперь можешь производить в 10 раз больше кода, но твои инструменты код-ревью улучшились только в 2 раза, ты не видишь массивного ускорения. Большой открытый вопрос – возможно ли полностью замкнуть этот цикл, и тогда можно увидеть какое-то накапливающееся преимущество в R&D (исследованиях и разработках).
Действительно ли инструменты ИИ повышают продуктивность?
Дваркеш Патель: Вопрос на миллион долларов – что является лучшим измерителем реального ускорения исследователей и инженеров в лабораториях: исследование продуктивности METR (которое показывает, что разработчики, хорошо знающие свои кодовые базы, имели примерно 20%-ное снижение по мерджу пулл-реквестов при использовании инструментов кодинга) или человеко-эквивалентные временные горизонты самодостаточных задач кодинга (которые уже в диапазоне многих часов и удваиваются каждые 4-7 месяцев). У меня нет прямого опыта здесь, но я бы предположил, что ближе к первому, учитывая, что нет хорошего цикла обратной связи для верификации, а критерии открытые (поддерживаемость, вкус и т.д.).
Джек Кларк: Согласен, это критический вопрос – и данные противоречивы и скудны. Например, мы провели опрос разработчиков в Anthropic и увидели самооцененный прирост продуктивности на 50% у 60% опрошенных, которые использовали Claude в работе. Но потом такие вещи, как исследование METR, вроде бы противоречат этому. Нам нужны лучшие данные и, конкретно, инструментирование для разработчиков внутри и вне ИИ-лабораторий, чтобы понять, что происходит. Если смотреть шире, массовое и беспрецедентное принятие инструментов кодинга предполагает, что люди видят какую-то значительную субъективную пользу от их использования – было бы очень неинтуитивно, если бы растущий процент разработчиков с энтузиазмом делал себя менее продуктивными.
Дваркеш Патель: Не хочу углубляться в это, но то, что самооцененная продуктивность намного выше – и потенциально даже в противоположном направлении – чем реальная продуктивность, предсказывается исследованием METR.
Джек Кларк: Да, согласен. Не раскрывая слишком много, мы конкретно думаем об инструментировании и выяснении того, что здесь "истина", потому что то, что люди сообщают о себе, может отличаться от реальности. Надеюсь, у нас будут какие-то исследовательские результаты по этому в 2026 году!
Кто выигрывает?
Майкл Бьюрри: Думаете, подиум продолжит вращаться? По тому, что я слышу, Google выигрывает среди разработчиков и у AWS, и у Microsoft. И похоже, инерция старого поискового бизнеса в компании была преодолена.
Дваркеш Патель: Интересно. Мне кажется, конкуренция сильнее, чем когда-либо. Настроения в Twitter отличные и для Opus 4.5, и для Gemini 3.5 Pro. Не имею мнения, какая компания победит, но точно не выглядит, что это решено.
Джек Кларк: Мне тоже кажется, конкуренция сильнее, чем когда-либо!
Дваркеш Патель: Интересно мнение всех по этому поводу: сколько провальных тренировочных запусков/неудачных моделей могут пережить Anthropic, OpenAI или Google? Учитывая постоянную необходимость привлекать средства (побочный вопрос: на что именно?) на основе выручки и настроений рынка.
Майкл Бьюрри: Секрет поиска Google всегда был в том, насколько он дешев, так что информационные запросы, которые не монетизируются (а это 80% или больше), не накапливались как убытки для компании. Думаю, это фундаментальная проблема генеративного ИИ и LLM сегодня – они очень дорогие. Трудно понять, какова модель прибыли, или каким будет конкурентное преимущество любой конкретной модели – сможет ли она брать больше или работать дешевле?
Возможно, Google в итоге сможет работать дешевле всех и победит, когда ИИ станет обычным товаром.
Дваркеш Патель: Отличная мысль. Особенно если думать, что многие/большинство улучшений за последний год стали результатом масштабирования инференса, что требует экспоненциального роста переменных затрат для поддержания.
В конечном счете цена чего-либо ограничена сверху стоимостью его замены. Так что компании фундаментальных моделей могут брать высокую маржу (что они сейчас вроде бы делают) только если прогресс продолжает быть быстрым и, к замечанию Джека, в итоге становится самоусиливающимся.
Почему ИИ не отобрал всю нашу работу?
Дваркеш Патель: Действительно удивительно, сколько всего требуется для автоматизации работы и выполнения того, что делают люди. Мы только что прошли через столько интуитивных определений AGI – тест Тьюринга уже даже не стоит комментировать; у нас есть модели, которые могут рассуждать и решать сложные, открытые задачи по кодингу и математике. Если бы мне показали Gemini 3 или Claude 4.5 Opus в 2017 году, я бы подумал, что это оставит без работы половину белых воротничков. И тем не менее влияние ИИ на рынок труда настолько мало, что его нужно искать под лупой в таблицах – если оно вообще есть.
Я также нашел бы удивительными масштаб и скорость частных инвестиций в ИИ. Еще пару лет назад люди говорили, что AGI должен быть государственным проектом в стиле Манхэттена, потому что это единственный способ превратить экономику в двигатель вычислений и данных. И пока похоже, что старые добрые рынки вполне могут поддерживать инвестиции в ИИ в несколько процентов ВВП.
Майкл Бьюрри: Хорошее замечание, Дваркеш, про тест Тьюринга – это точно было предметом обсуждения какое-то время. В прошлом, например, во время Промышленной революции и Революции услуг, влияние на труд было настолько велико, что обязательное школьное образование было введено и расширено, чтобы дольше держать молодых людей вне рабочей силы. Мы определенно не видели ничего подобного.
Джек Кларк: Да, Дваркеш и Майкл, общее место для ИИ-сообщества – они продолжают строить якобы сложные задачи, которые будут измерять истинный интеллект, потом ИИ-системы пролетают эти бенчмарки, и ты обнаруживаешь себя с чем-то, что поверхностно очень способно, но все еще вероятно делает ошибки, которые любой человек признал бы странными или неинтуитивными. Недавний пример: LLM показали "сверхчеловеческие" результаты на ряде якобы сложных когнитивных задач по бенчмаркам, но были неспособны к самокоррекции при ошибках. Сейчас это улучшается, но это иллюстрация того, насколько неинтуитивными могут быть слабости моделей ИИ. И часто обнаруживаешь их одновременно с массивными улучшениями.
Дваркеш Патель: Интересно, верно ли и обратное – люди надежно делают классы ошибок, которые LLM признала бы странными или неинтуитивными, лол. LLM реально более "зубчатые" (с неровными возможностями), чем люди, или просто неровные по-другому?
Патрик Маккензи: Заимствуя наблюдение из книги Дваркеша, банальный способ, которым LLM сверхчеловечны – они говорят на большем количестве языков, чем любой человек, на порядок, который поражает воображение, и с большей легкостью, чем почти все полиглоты когда-либо достигают. Невероятно, что это происходит случайно, даже без того, чтобы лаборатории специально тренировали на это. Одна из самых поразительных демонстраций, которые я видел – LLM, обученная на корпусе, который должен был содержать только документы на английском, смогла перевести новостную статью CNN на японский примерно на уровне профессионального переводчика. С этой перспективы, LLM, в которую не вбили вежливость, могла бы сказать: "Люди странные и неровные; посмотрите, сколько из них не говорят по-японски, несмотря на жизнь в мире с книгами".
Почему многие работники не используют ИИ (пока)
Патрик Маккензи: Кодинг, похоже, является передним краем широкого промышленного принятия ИИ, с метеорным ростом выручки у таких компаний, как Cursor, технологами со вкусом, перешедшими на инструменты вроде Claude Code и OpenAI Codex, и хайпом вокруг "вайб-кодинга" (программирования через описание задачи на естественном языке). Это создает выраженную асимметрию энтузиазма по поводу ИИ, поскольку большинство людей – не кодеры. Какой сектор изменится следующим? Какое изменение сделает это видимым в отчетности, занятости или ценах, а не в демо?
Джек Кларк: У кодинга есть хорошее свойство – он относительно "замкнутый цикл": ты используешь LLM для генерации или доработки кода, который потом валидируешь и пушишь в продакшн. Реально потребовалось появление более широкого набора инструментов, чтобы LLM получили это свойство "замкнутого цикла" в областях за пределами кодинга – например, создание возможностей веб-поиска и появление таких вещей, как подключение по Model Context Protocol (MCP – протокол контекста моделей), позволило LLM массивно расширить их полезность в режиме замкнутого цикла за пределами кодинга.
Например, я недавно исследовал кривые затрат на разные вещи (например, доллар за массу на орбиту, или доллары за ватт от солнечной энергии), и это такие вещи, которые можно было исследовать с LLM и до этих инструментов, но с огромным трением и необходимостью ходить туда-сюда между LLM и всем остальным. Теперь это трение убрано, и мы видим большее принятие. Поэтому я ожидаю, что мы скоро увидим, как то, что случилось с кодерами, случится с работниками знаний в целом – и это должно проявиться диффузно, но широко в таких областях, как научные исследования, право, академия, консалтинг и другие области.
Майкл Бьюрри: В конце концов, ИИ должен быть кем-то куплен. Кто-то там платит за товар или услугу. Это ВВП. И эти расходы растут темпами ВВП, 2-4% – возможно, с некоторым подъемом для компаний с ценовой властью, что не выглядит вероятным в будущем ИИ.
У экономик нет магически расширяющихся пирогов. У них арифметически ограниченные пироги. Ничего фантастического. Весь пирог софта – SaaS (облачный софт по подписке), запускающий все виды корпоративных и креативных функций – это меньше $1 триллиона. Вот почему я все время возвращаюсь к соотношению инфраструктуры к приложениям – Nvidia продает чипов на $400 миллиардов при менее чем $100 миллиардах выручки от ИИ-продуктов для конечных пользователей.
ИИ должен вырастить продуктивность и создать новые категории расходов, которые не каннибализируют другие категории. Это все очень трудно сделать. Вырастит ли ИИ продуктивность достаточно? Это дискуссионно. Цикл капитальных расходов основан на вере и FOMO (страхе упустить выгоду). Никто не указывает на цифры, которые работают. Пока.
Есть намного более простой нарратив, что ИИ сделает все настолько лучше, что расходы взорвутся. Скорее он их сожмет. Если ИИ заменит лицензию за $500 на место на $50, это отлично для продуктивности, но дефляционно для расходов на продуктивность. И этот прирост продуктивности вероятно будет разделен всеми конкурентами.
Дваркеш Патель: Майкл, разве это не заблуждение "фиксированного количества труда"? Что есть фиксированный объем софта, который нужно написать, и мы можем ограничить сверху влияние ИИ на софт этим объемом?
Майкл Бьюрри: Новые рынки возникают, но они развиваются медленнее, чем думают заинтересованные футуристы. Так было всегда. Демография и общий адресуемый рынок (TAM) слишком часто – маркетинговые уловки, не основанные на реальности. Население Китая сокращается. Население Европы сокращается. США – единственная крупная западная страна с ростом, и то из-за иммиграции, но она тоже политизирована. FOMO – чертовски сильный наркотик. Если посмотреть на некоторые комментарии Apple или Microsoft, кажется, они это понимают.
Дваркеш Патель: Кстати, забавно, что ИИ появляется именно тогда, когда он нам нужен, чтобы спасти нас от демографической ямы, в которую наши экономики иначе провалились бы в ближайшие десятилетия.
Майкл Бьюрри: Да, Дваркеш. В медицине, где есть реальный дефицит, нет надежды на то, что человеческих врачей будет достаточно в будущем. Хорошая медицинская помощь должна стать дешевле, и нужны технологии, чтобы расширить охват и покрытие реальной медицинской экспертизы.
Инженеры останутся без работы?
Патрик Маккензи: AppAmaGooFaceSoft [Apple, Amazon, Google, Facebook, Microsoft] сейчас нанимают порядка 500 000 инженеров. Назовите цифру на 2035 год и объясните свое мышление – или аргументируйте, что численность персонала – неправильная переменная, и назовите балансовую или продуктивностную метрику, которую вы бы отслеживали вместо этого.
Майкл Бьюрри: С 2000 года Microsoft добавил 18 000 сотрудников, пока акции никуда не двигались 14 лет. Фактически численность едва изменилась в Cisco, Dell и Intel, несмотря на большие обвалы акций. Так что я думаю, это неправильная переменная. Она ничего не говорит о создании стоимости, особенно для богатых наличными компаний и компаний в ситуациях монополии, дуополии или олигополии. Думаю, она будет ниже или не намного выше, потому что я думаю, мы движемся к очень долгому спаду. Гиперскейлеры уволили сотрудников в 2022, когда их акции упали, и наняли большинство обратно, когда акции выросли. Это за пару лет.
Я бы отслеживал полную стоимость компенсации на основе акций (SBC), прежде чем говорить, что продуктивность бьет рекорды. В Nvidia я подсчитал, что примерно половина прибыли уничтожается компенсацией, привязанной к акциям, которые передали стоимость этим сотрудникам. Ну, если половина сотрудников теперь стоит $25 миллионов, то какой прирост продуктивности на этих сотрудниках? Не говоря уже о том, что маржа с точными затратами на SBC была бы намного ниже.
Мера, которая бьет все меры – это рентабельность инвестированного капитала (ROIC), и ROIC был очень высоким у этих софтверных компаний. Теперь, когда они становятся капиталоемкими хардверными компаниями, ROIC точно упадет, и это будет давить на акции в долгосрочной перспективе. Ничто не предсказывает долгосрочные тренды на рынках лучше, чем направление ROIC – вверх или вниз, и с какой скоростью. ROIC падает очень быстро у этих компаний сейчас, и так будет до 2035 года.
В интервью с Дваркешем Сатья Наделла сказал, что он хочет, чтобы софт сохранил ROIC через тяжелый цикл капитальных расходов. Я не вижу этого, и даже для Наделлы это звучит только как надежда.
Дваркеш Патель: Наивный вопрос, но почему ROIC важнее абсолютных возвратов? Я бы предпочел владеть большим бизнесом, который может продолжать расти и расти (пусть как меньшая доля инвестиций), чем маленьким бизнесом, который по сути печатает деньги, но ограничен сверху по размеру.
Столько крупных технологических компаний имеют более низкий ROIC, но их адресуемый рынок на следующие два десятилетия увеличился от рекламы ($400 миллиардов выручки в год) до труда (десятки триллионов выручки в год).
Майкл Бьюрри: Рентабельность инвестированного капитала – и, что важнее, ее тренд – это мера того, сколько возможностей осталось в компании. С моей точки зрения, я видел много roll-up'ов (консолидаций через поглощения), где компании становились больше в основном через покупку других компаний в долг. Это делает ROIC критически важным показателем. Если возврат на эти покупки оказывается ниже стоимости долга, компания терпит неудачу подобно WorldCom.
В какой-то момент эти расходы на строительство ИИ должны иметь возврат на инвестиции выше стоимости этих инвестиций, иначе просто нет добавленной экономической стоимости. Если компания больше, потому что она заняла намного больше или потратила весь свой денежный поток на что-то низкодоходное, это не привлекательное качество для инвестора, и мультипликатор упадет. Есть много нетехнологических компаний, печатающих деньги без реальных перспектив роста кроме его покупки, и они торгуются примерно по 8x прибыли.
Куда идут деньги?
Патрик Маккензи: С точки зрения цикла капитала, где мы находимся в строительстве ИИ – раннее переинвестирование, середина цикла с отсевом, или что-то структурно отличное от прошлых технологических бумов? Что изменило бы ваше мнение?
Майкл Бьюрри: Я вижу это отличным от предыдущих бумов, за исключением того, что капитальные расходы замечательно недолговечны. Чипы сменяются каждый год; дата-центры сегодня не будут справляться с чипами через несколько лет. Можно почти аргументировать, что многое из этого должно списываться как расходы, а не капитализироваться. Или амортизироваться за два-три-четыре года.
Другое большое отличие – частный кредит финансирует этот бум настолько же, если не больше, чем публичные рынки капитала. Этот частный кредит – мутная зона, но несоответствие сроков бросается в глаза – многое из этого секьюритизируется, как будто активы служат два десятилетия, при этом давая гиперскейлерам выходы каждые 4-5 лет. Это просто напрашивается на проблемы. Застрявшие активы.
Конечно, те, кто тратит – самые богатые компании на земле, но из наличных или с рынков капитала, большие расходы – это большие расходы, и запланированные расходы подавляют балансы и денежные потоки даже сегодняшних массивных гиперскейлеров.
Также незавершенное строительство (CIP) теперь стало бухгалтерским трюком, который, я считаю, уже используется. Капитальное оборудование, еще не "введенное в эксплуатацию", не начинает амортизироваться или учитываться в расходах. И может находиться там вечно. Я представляю, что много застрявших активов будет прятаться в CIP для защиты прибыли, и я думаю, мы уже видим этот потенциал.
В интервью Дваркеша Наделла сказал, что он отступил от некоторых проектов и замедлил строительство, потому что не хотел застрять с 4-5 годами амортизации на одном поколении чипов. Это красноречивое признание проблемы.
Мы сейчас в середине цикла – прошли точку, где акции будут вознаграждать инвесторов за дальнейшее строительство, и входим в период, когда реальные затраты и отсутствие выручки начнут проявляться.
В прошлых циклах акции и рынки капитала достигали пика примерно на полпути, а остальные капитальные расходы происходили по мере того, как все более пессимистичный или реалистичный взгляд опускался на активы.
Дваркеш Патель: Думаю, это настолько зависит от того, продолжит ли ИИ улучшаться быстрыми темпами. Если бы можно было реально запустить самые продуктивные человеческие умы на B200 (GPU Nvidia B200), то мы очевидно массивно недоинвестируем. Думаю, выручка от прикладного слоя пока менее информативна, чем сырые прогнозы о прогрессе в возможностях ИИ.
Джек Кларк: Согласен с этим – объем прогресса в возможностях за последние годы был глубоко удивительным и привел к массивному росту использования ИИ. В будущем могут быть дальнейшие скачкообразные увеличения возможностей моделей, и они могут иметь чрезвычайно значительные эффекты на экономику.
В чем рынок ошибается
Патрик Маккензи: Где аккумулируется стоимость в цепочке поставок ИИ? Чем это отличается от недавних или исторических технологических прорывов? В чем, по вашему мнению, рынок сейчас больше всего ошибается?
Майкл Бьюрри: Ну, стоимость аккумулируется, исторически, во всех отраслях, у тех, кто имеет устойчивое конкурентное преимущество, проявляющееся либо как ценовая власть, либо как недостижимое преимущество в затратах или дистрибуции.
Не ясно, что расходы здесь приведут к этому.
Уоррен Баффетт владел универмагом в конце 1960-х. Когда универмаг через дорогу поставил эскалатор, ему тоже пришлось. В итоге ни один не выиграл от этого дорогого проекта. Никакого устойчивого улучшения маржи или затрат, и оба оказались в том же самом месте. Так будет с большинством внедрений ИИ.
Вот почему триллионы долларов расходов без ясного пути к использованию реальной экономикой так беспокоят. Большинство не выиграет, потому что их конкуренты выиграют в той же степени, и ни у кого не будет конкурентного преимущества из-за этого.
Думаю, рынок больше всего ошибается по двум главным символам ИИ: Nvidia и Palantir. Это две самые удачливые компании. Они хорошо адаптировались, но им повезло, потому что когда все это началось, ни одна не разрабатывала продукт для ИИ. Но их используют как таковой.
Преимущество Nvidia не устойчиво. SLM и ASIC – это будущее для большинства сценариев использования ИИ. Они будут обратно совместимы с CUDA [параллельная вычислительная платформа и модель программирования Nvidia], если вообще понадобится. Nvidia – это энергозатратное, грязное решение, держащее форт, пока конкуренция не придет с совершенно другим подходом.
CEO Palantir сравнил меня с [плохими актерами] из-за воображаемой ставки на миллиард долларов против его компании. Это не уверенный CEO. Он маркетирует изо всех сил, чтобы поддерживать это, но это соскользнет. Практически нет прибыли после компенсации на основе акций.
Дваркеш Патель: Еще предстоит увидеть, смогут ли ИИ-лаборатории достичь устойчивого конкурентного преимущества от эффектов типа рекурсивного самоулучшения. Но если Джек прав и ИИ-разработчики уже должны видеть огромные приросты продуктивности, то почему сейчас все более конкурентно, чем когда-либо? Либо такое внутреннее "поедание собственной еды" (тестирование продукта на себе) не может поддержать конкурентное преимущество, либо приросты продуктивности от ИИ меньше, чем кажутся.
Если окажется, что (1) никто во всем стеке ИИ не может делать сумасшедшие прибыли и (2) ИИ все равно окажется большим делом, тогда очевидно, что стоимость достается клиенту. Что, на мой слух, звучит отлично.
Майкл Бьюрри: В примере с эскалатором единственная стоимость досталась клиенту. Так всегда бывает, если производители или провайдеры не могут взимать монопольную ренту.
Что изменило бы их мнение
Патрик Маккензи: Какой заголовок 2026 года – технологический или финансовый – удивил бы вас и заставил бы пересмотреть общие взгляды на прогресс ИИ или оценки? Ретроспективно, что было самым большим сюрпризом или пересмотром на сегодняшний день?
Майкл Бьюрри: Самый большой сюрприз, который заставил бы меня пересмотреть взгляды – автономные ИИ-агенты, вытесняющие миллионы рабочих мест в крупнейших компаниях. Это шокировало бы меня, но не обязательно помогло бы понять, где устойчивое преимущество. Опять тот пример с эскалатором Баффетта.
Другой – выручка прикладного слоя, достигающая $500 миллиардов или больше благодаря распространению прорывных приложений.
Прямо сейчас мы увидим одно из двух: либо чипы Nvidia служат 5-6 лет и людям поэтому нужно меньше, либо они служат 2-3 года и прибыль гиперскейлеров обвалится, а частный кредит будет уничтожен.
Ретроспективно, самые большие сюрпризы на сегодня:
- Google не лидировал все время – восемь авторов "Attention Is All You Need" были сотрудниками Google; у них был Search, Gmail, Android, и даже LLM и чипы, но они упустили это и дали шанс конкурентам с намного меньшим. Google догоняет стартап в ИИ: это поразительно.
- ChatGPT – чат-бот запустил инфраструктурную гонку на много триллионов долларов. Это как если бы кто-то построил прототип робота и каждый бизнес в мире начал инвестировать в роботизированное будущее.
- Nvidia сохраняла доминирование так далеко в эпоху инференса. Я ожидал, что ASIC и SLM будут доминировать к этому моменту, и что мы уже давно ушли бы за пределы prompt engineering. Возможно, увлечение Nvidia реально сдерживало игроков. Или антиконкурентное поведение Nvidia.
Дваркеш Патель: Самые большие сюрпризы для меня были бы:
- Совокупная выручка ИИ-лабораторий за 2026 год ниже $40 миллиардов или выше $100 миллиардов. Это бы означало, что все значительно ускорилось или замедлилось по сравнению с тем, что я ожидал.
- Непрерывное обучение решено. Не так, как GPT-3 "решил" обучение в контексте, но так, что GPT-5.2 реально почти человекоподобен в способности понимать из контекста. Если работа с моделью – как репликация опытного сотрудника, который работает с тобой полгода, а не получение его труда в первый час работы, думаю, это составляет огромный скачок в возможностях ИИ.
- Думаю, сроки до AGI значительно сузились с 2020 года. В тот момент можно было присвоить какую-то вероятность масштабированию GPT-3 в тысячу раз и достижению AGI, и какую-то вероятность тому, что мы полностью на неправильном пути и придется ждать до конца века. Если прогресс отклонится от линии тренда и укажет на появление истинных человекозаменяемых интеллектов в ближайшие 5-20 лет, это было бы самым большим сюрпризом для меня.
Джек Кларк: Если "масштабирование упрется в стену", это было бы действительно удивительно и имело бы очень значительные последствия как для базовой исследовательской парадигмы, так и для более широкой ИИ-экономики. Очевидно, строительство инфраструктуры, включая огромные инвестиции в объекты для обучения будущих моделей ИИ, предполагает, что люди ставят иначе.
Другая вещь, которая меня удивила бы – если бы был технологический прорыв, улучшивший эффективность распределенного обучения, и какие-то игроки собрали бы достаточно компьютеров для обучения очень мощной системы. Если бы это произошло, это предполагало бы, что можно иметь не только модели с открытыми весами, но и форму открытой разработки моделей, где не нужна одна огромная организация (вроде крупной компании) для обучения фронтирной модели. Это изменило бы политическую экономию ИИ и имело бы чрезвычайно нетривиальные политические последствия, особенно вокруг распространения фронтирных возможностей. У Epoch есть хороший анализ распределенного обучения, на который стоит посмотреть.
Как они реально используют LLM
Патрик Маккензи: Какое было ваше последнее профессионально значимое взаимодействие с LLM? Уберите детали, если нужно. Как вы относились к LLM в этом взаимодействии?
Майкл Бьюрри: Я использую Claude для создания всех своих графиков и таблиц теперь. Я нахожу исходный материал, но не трачу время на создание или дизайн профессиональной таблицы, графика или визуализации. Я все еще не доверяю цифрам и должен их проверять, но этот креативный аспект в прошлом для меня. Кроме того, я использую Claude в частности для поиска исходных материалов, поскольку так много исходных материалов сегодня не находятся просто в SEC или в мейнстримном отчете.
Патрик Маккензи: Думаю, люди вне финансов не понимают, сколько миллиардов долларов было потрачено на содержание одних из самых высокооплачиваемых, лучше всего образованных людей в мире, занятых как специалисты по Microsoft PowerPoint и Excel. В этом все еще есть ценность, пока, и возможно статусная ценность умения работать с pivot tables и VLOOKUP() продержится дольше, чем они сами, но моя презентация в Банке Англии тоже использовала LLM для всех графиков. Кажется почти странным, что мы когда-то просили людей тратить часы на их тщательную подгонку.
Дваркеш Патель: Они теперь мои персональные репетиторы один-на-один. Я реально пытался нанимать человеческих репетиторов по разным предметам, которые я готовлю, и обнаружил, что скорость отклика LLM просто дает качественно намного лучший опыт. Я получаю цифровой эквивалент того, как люди готовы платить огромные премии за Waymo вместо Uber. Это наводит меня на мысль, что надбавка за живого человека во многих профессиях будет не просто низкой, а отрицательной – люди будут предпочитать ИИ.
Майкл Бьюрри: По этому поводу – многие указывают на рабочие специальности как ИИ-защищенный выбор. Учитывая, сколько я теперь могу сделать в электрике и других областях по дому просто с Claude под рукой, я не так уверен. Если я средний класс и передо мной счет на $800 от сантехника или электрика, я, возможно, просто использую Claude. Мне нравится, что я могу сфотографировать и понять все, что нужно сделать для ремонта.
Риск, власть и как формировать будущее
Патрик Маккензи: Спектр взглядов на риски ИИ среди относительно информированных людей простирается от "это может вызвать неприятности в соцсетях" до "было бы жаль, если бы Китай опередил США в очень полезной развивающейся технологии с потенциальными военными применениями" до "риски включают буквальный конец всего дорогого человечеству". Что больше всего не дает вам спать по ночам? Отдельно, если бы у вас было пять минут с высокопоставленными политиками, какое новое распределение внимания и ресурсов вы бы предложили?
Джек Кларк: Главное, о чем я беспокоюсь – удастся ли людям "строить ИИ, который строит ИИ" – полностью замкнуть цикл на R&D ИИ (иногда называемый рекурсивно самоулучшающимся ИИ). Чтобы было ясно, я присваиваю практически нулевую вероятность существованию рекурсивно самоулучшающихся систем ИИ на планете в январе 2026 года, но мы видим очень ранние признаки того, что ИИ становится лучше в компонентах исследований ИИ, от разработки вычислительных ядер до автономной дотренировки моделей с открытыми весами.
Если это продолжит улучшаться и вы построите систему ИИ, которая может строить себя, то разработка ИИ резко ускорится и, вероятно, станет труднее для понимания людьми. Это создаст ряд значительных политических проблем и также, вероятно, приведет к беспрецедентному скачку в экономической активности мира, приписываемой системам ИИ.
Иначе говоря, если бы у меня было пять минут с политиком, я бы по сути сказал: "Самоулучшающийся ИИ звучит как научная фантастика, но нет ничего в технологии, что говорит, что это невозможно, и если бы это случилось, это было бы огромным делом, и вы должны обращать на это внимание. Вы должны требовать прозрачности от ИИ-компаний о том, что именно они здесь видят, и убедиться, что у вас есть третьи стороны, которым вы доверяете, которые могут тестировать системы ИИ на эти свойства."
Майкл Бьюрри: Джек, я представляю, что к вам прислушиваются политики, и надеюсь, они слушают.
ИИ в его нынешнем виде не очень беспокоит меня с точки зрения рисков для человечества. Я думаю, чат-боты имеют потенциал делать людей глупее – врачи, которые используют их слишком много, начинают забывать собственные накопленные медицинские знания. Это не хорошо, но не катастрофично.
Катастрофические беспокойства об AGI или искусственном сверхинтеллекте (ASI) не слишком беспокоят меня. Я вырос в Холодной войне, и мир мог взорваться в любую минуту. У нас были школьные учения на этот случай. Я играл в футбол с вертолетами, распылявшими Малатион над всеми нами. И я смотрел "Терминатора" больше 30 лет назад. "Красный рассвет" казался возможным. Я думаю, люди адаптируются.
Если бы ко мне прислушивались высокопоставленные политики, я бы попросил их взять триллион долларов (раз триллионы теперь разбрасываются как миллионы) и обойти все протесты и регуляции и усеять всю страну малыми ядерными реакторами, одновременно строя совершенно новую, современную электросеть для всех. Сделать это как можно скорее и защитить все от атак с помощью новейшей физической и кибербезопасности; может быть, даже создать специальные Силы ядерной обороны, которые защищают каждый объект, финансируемые федерально.
Это единственная надежда получить достаточно энергии, чтобы не отстать от Китая, и это единственная надежда для нас как страны вырасти достаточно, чтобы в итоге расплатиться с долгом и гарантировать долгосрочную безопасность, не позволяя энергии быть ограничивающим фактором нашей инновации.
Джек Кларк: Полностью согласен по части энергии (хотя у нас может быть разный субъективный уровень беспокойства по поводу других вещей!). ИИ будет играть значимую роль в экономике, и он фундаментально зависит от базовой инфраструктуры для эффективной и дешевой доставки бизнесам и потребителям – аналогично тому, как в прошлом страны решали проводить масштабную электрификацию, строительство дорог, канализации и т.д. (массивные проекты капитальных расходов!). Нам срочно нужно сделать то же самое для энергии.
Я также думаю, что крупномасштабные ИИ-дата-центры – очень полезные тестовые клиенты для новых энергетических технологий, и особенно в восторге от сочетания спроса ИИ на энергию и ядерных технологий в будущем. Шире, я думаю, "экономическая безопасность – это национальная безопасность", так что создание инфраструктуры для построения ИИ-экономики будет иметь косвенные положительные эффекты на нашу индустриальную базу и общую устойчивость.
Об участниках
Майкл Бьюрри – бывший управляющий хедж-фондом и писатель, публикующий инвестиционный анализ и комментарии о рынках в своем Substack "Cassandra Unchained". Наиболее известен предсказанием кризиса субстандартной ипотеки, как показано в "Игре на понижение", и в последнее время высказывал скептицизм по поводу рыночной эйфории вокруг ИИ.
Джек Кларк – сооснователь и глава отдела политики в Anthropic, где он работает над безопасностью ИИ, управлением и социальными последствиями фронтирных моделей. Также ведет Import AI, давно выходящую рассылку с анализом достижений в искусственном интеллекте, государственной власти и технологических рисков.
Дваркеш Патель – основатель и ведущий Dwarkesh Podcast, где он берет интервью у ведущих мыслителей об ИИ, экономике и научном прогрессе. Также публикует эссе и интервью в своем Substack, фокусируясь на долгосрочных технологических траекториях, безопасности ИИ и цивилизационных рисках.
Патрик Маккензи – писатель и софтверный предприниматель, наиболее известный своей рассылкой Bits About Money, где он объясняет финансы, рынки и институты. Также ведет подкаст Complex Systems и ранее работал в технологиях и платежах, в том числе в Stripe.




