Уоррен Баффет поставил развитие искусственного интеллекта в один ряд с крупнейшими технологическими и геополитическими вызовами XX века, прежде всего с созданием ядерного оружия.
В ходе программы на CNBC Баффет отметил следующее: ключевая опасность стремительного развития ИИ заключается в том, что даже лидеры отрасли не обладают ясным пониманием того, к каким результатам приведет дальнейшее распространение этой технологии.
Технологический прорыв без понимания последствий
«Оракул из Омахи» подчеркнул, что незнание конечного направления в условиях, когда отсутствует возможность вернуться к прежнему состоянию, принципиально отличается от обычных технологических экспериментов. В этой связи Баффет использовал образ «джина, выпущенного из бутылки» в качестве метафоры, указывая на необратимый характер происходящих изменений.
Развивая эту мысль, Баффет провел историческую параллель с периодом Второй мировой войны и высказываниями Альберта Эйнштейна о создании атомной бомбы. По его оценке, появление ядерного оружия радикально изменило устройство мира, но не привело к сопоставимым изменениям в мышлении людей. В результате человечество оказалось в ситуации, когда оно располагает технологиями колоссальной разрушительной силы, не обладая при этом достаточной готовностью осознавать и контролировать долгосрочные последствия.
Он напомнил, что за десятилетия, прошедшие с появления ядерного оружия, человечество так и не выработало устойчивого решения проблемы его распространения. Изначально предполагалось, что таким оружием будет обладать ограниченное число стран, однако со временем число ядерных держав выросло до восьми и продолжает увеличиваться. Баффет отметил, что особую тревогу вызывает тот факт, что подобные технологии могут оказаться в распоряжении государств или режимов, которые представляют серьезную угрозу глобальной безопасности.
В ходе интервью Баффет также отметил, что угроза, связанная с ядерным оружием, не может быть устранена исключительно финансовыми ресурсами. Тем не менее он заявил, что был бы готов потратить все свое состояние, если бы существовала реальная возможность сократить или устранить этот риск.
Когда контроль не поспевает за прогрессом
Как отмечает Yahoo Finance, подобные заявления укладываются в долгосрочную позицию Баффета по вопросам системных рисков. В годовом отчете Berkshire Hathaway за 2015 год он уже писал о кибернетических, биологических, ядерных и химических угрозах как о главной опасности не только для компании, но и для общества в целом, подчеркивая ограниченность возможностей бизнеса влиять на подобные сценарии.
Высказывания Баффета об искусственном интеллекте также перекликаются с его более ранними комментариями на эту тему. На ежегодном собрании акционеров Berkshire Hathaway в мае 2024 года он отмечал, что ИИ обладает как значительным потенциалом для общественного блага, так и сопоставимым потенциалом для причинения серьезного ущерба. Обеспокоенность Баффета связана прежде всего с тем, что скорость технологического развития опережает способность институтов и общества выработать адекватные механизмы контроля.
Комментарии CNBC прозвучали на фоне постепенного ухода Баффета от публичной роли в управлении Berkshire Hathaway. В письме акционерам в ноябре 2025 года он сообщил о намерении больше не выступать на ежегодных собраниях компании. С января руководство Berkshire Hathaway перешло к Грегу Абелю, который, как ожидается, будет отвечать за ежегодные обращения к акционерам и взаимодействие с инвесторским сообществом.