40 лет назад произошла катастрофа, поразившая весь мир – авария на Чернобыльской АЭС. Чернобыль стал трагическим культурным символом, синонимом технологической самоуверенности, кризиса управления и позднего осознания того, что сложная система вышла за пределы человеческого контроля. Тем не менее история знала техногенные катастрофы не менее страшные, а по числу жертв и куда более тяжелые. Почему же именно Чернобыль оказался ударом по вере в управляемость прогресса как такового?
Авария произошла в молодой, стратегической и идеологически нагруженной отрасли, вокруг которой десятилетиями строился образ будущего, силы и модернизации. Атом обещал почти безграничную энергию и новый уровень цивилизационного могущества. Поэтому сбой оказался не только инженерной катастрофой, но и крахом доверия к самой модели технологического оптимизма.
Сегодня «все и сразу» нам обещает искусственный интеллект (ИИ). Эта сфера переживает фазу, в которой атомная отрасль находилась в середине XX века: технологическая гонка, огромные ожидания, мобилизация государств, бизнеса и науки, вера в универсальность решения. И пока что мы еще не знаем, что может стать для нас «Чернобылем» искусственного интеллекта и достаточно ли нам будет одной катастрофы, чтобы осознать все минусы опережающего развития без оглядки на безопасность.
История показывает, что самый опасный момент наступает тогда, когда сложная система уже приобрела власть над обществом, но культура контроля над ней не успела сформироваться. Причина аварии на ЧАЭС была комплексной, однако один ее элемент особенно важен – эксперимент по проверке режима выбега турбогенератора проводился ночью не случайно. Днем остановку блока отложили из-за требований энергосистемы: стране нужна была электроэнергия, и соображения поддержания выработки взяли верх над соображениями безопасности.
Современная логика глобальной гонки за лидерство в области ИИ наступает на те же грабли. И если задумываться о возможном чернобыльском сценарии для ИИ, он может быть связан с целым набором факторов.
В первую очередь в ущерб требованиям экологической и промышленной безопасности ускоренно строится новая энергоемкая инфраструктура дата-центров. А ведь от их внезапного отключения могут пострадать гораздо больше людей, чем от локальной катастрофы на АЭС – остановятся критически важные для жизни онлайн-системы, к примеру, больниц. Так, после пожара в государственном дата-центре Южной Кореи в сентябре 2025 года были затронуты сотни систем, а государственные данные утеряны навсегда. Дата-центры, как и АЭС, становятся новой стратегической военной целью. В марте 2026 года иранские удары повредили объекты Amazon Web Services в ОАЭ и Бахрейне, что стало опасным прецедентом.
Вместо того, чтобы поставить вопрос о пределах инфраструктурной экспансии ИИ, конкурирующие за лидерство техно-предприниматели ищут, куда вынести следующую ступень нагрузки – в океан, под воду, в космос? К примеру, SpaceX в апреле 2026 года подалась на IPO, усилившись планом Маска профинансировать запуск до 1 млн спутников-дата-центров, чтобы обойти земные ограничения по энергии и площадям под строительство. В случае такого уплотнения низкой околоземной орбиты риски столкновений с возникновением каскадного эффекта стремительно растут.
Однако инфраструктура лишь одна сторона проблемы. Гораздо большую угрозу представляет возможный кризис управления, то есть несоответствие между скоростью внедрения технологий и институционального взросления общества. Проще говоря, модели умнеют быстрее, чем мы.
Наибольшие риски концентрируются в военной сфере, где алгоритмическая рекомендация, формально санкционированная человеком, но фактически не проверенная им, может привести к применению силы с необратимыми политическими последствиями. Проблема не в «восстании машины», а в том, что человек уже не успевает осмысленно контролировать предложенное ею решение.
Последние военные операции показывают: коммерческие ИИ-системы все глубже входят в процесс боевого управления – от анализа разведданных и приоритизации целей до моделирования действий и оценки последствий удара. В сочетании с беспилотными платформами и высокоточными средствами поражения это сжимает время принятия решений до предела. Израильский опыт применения систем Lavender и The Gospel в Иране демонстрирует, что скорость алгоритмической обработки уже опережает возможности содержательной человеческой проверки и уносит невинные человеческие жизни.
- Три стадии принятия атома – любовь, страх, равнодушие
- Мы больше не люди книги
- Ядерный клуб начнет расширяться с Ирана
Из этого следует проблема размывания ответственности. Когда решение вырабатывается на стыке модели, данных, программной инфраструктуры, подрядчиков, операторов и институционального давления, становится все труднее ответить на вопрос: кто именно виноват в ошибке? Разработчик? Поставщик данных? Заказчик? Руководитель, который утвердил внедрение? Человек, который формально нажал последнюю кнопку? Мы до сих пор не знаем ответы на эти вопросы, что не останавливает нас в повсеместном внедрении ИИ.
Но даже если система внешне выглядит рациональной и контролируемой, внутри нее могут быть скрытые перекосы, которые становятся видны только при стресс-тесте. К этому относится предвзятость моделей в критических решениях. Исследования «моральности» ИИ вроде KillBench показывают, что большие языковые модели могут демонстрировать устойчивые смещения даже там, где сами описывают свой выбор как «нейтральный» или «случайный». Согласно результатам более 1 млн экспериментов по 20 сценариям на шести языках, при прочих равных условиях все протестированные 15 моделей ведущих провайдеров чаще принимали решение в пользу «устранения» персонажа, обозначенного как россиянин, чем представителей других национальностей из предложенного набора.
Регулярно выходят и ИИ-модели, несущие новые риски. Совсем недавно американская компания Anthropic создала ИИ-модель, способную вывести кибервойну на небывалый уровень эскалации. Большая языковая модель под названием Mythos обладает такой мощностью, что может в кратчайшие сроки находить явные и скрытые уязвимости в коде лучше, чем любой самый обученный специалист. О своей версии хакерской модели GPT 5.4 Cyber объявила и OpenAI. Это ставит под угрозу всю существующую систему кибербезопасности. Под удар попадают даже самые совершенные программы и приложения. Те же ИТ-решения, которые только вышли на рынок и еще находятся на стадии доработки, оказываются наиболее уязвимы перед Mythos. В случае России объектами кибератак ИИ могут оказаться приложение «Госуслуги» или же национальный мессенджер Max.
Инфраструктура ИИ, которая обещает ускорить разработку лекарств, потенциально способна ускорить и движение к более опасным формам биологического риска, если доступ к данным, моделям и режимам их использования останется слабо регулируемым. «Новым Чернобылем» может быть прецедент, когда искусственный интеллект впервые сыграет заметную роль в проектировании или распространении биологического оружия.
На днях OpenAI представила специализированную модель GPT-Rosalind для биомедицинских исследований. Она позиционируется как инструмент для работы в биологии, разработке лекарств и так называемой трансляционной медицине, то есть в области, где научные результаты переводятся в практическое лечение. Но чем лучше ИИ-системы умеют работать с генетическими последовательностями, белками, мутациями и результатами экспериментов, тем выше вероятность того, что открытая научная инфраструктура начнет выполнять двойную функцию – поддерживать исследования и одновременно снижать барьер для потенциально опасных разработок. Конвенция о запрещении разработки, производства и накопления запасов бактериологического (биологического) и токсинного оружия и об их уничтожении (КБТО), которой в прошлом году исполнилось 50 лет, не учитывает эти новые риски.
Высока вероятность и масштабного финансового обрушения, если решения, принимаемые на основе ИИ, одновременно усилят панику, ускорят ошибки и сделают кризис быстрее, чем его успеют остановить регуляторы. Особую уязвимость здесь создают криптовалютные рынки, алгоритмическая торговля, автоматизированное кредитование и цифровые платформы. В такой ситуации ИИ может стать не инструментом эффективности, а ускорителем каскадного кризиса – от обвала цифровых активов до перебоев в платежах, кредитовании и доверии к финансовой системе.
Вызывают особые опасения и моральные качества и психическое состояние лидеров, стоящих у руля технологического прогресса. К примеру, главу мирового лидера ИИ OpenAI Сэма Альтмана некоторые бывшие коллеги характеризовали как человека со специфическим набором личностных качеств, в том числе социопатическими. Поскольку мы говорим о компании, влияющей на глобальную траекторию развития ИИ, такая конфигурация сама по себе становится фактором стратегического риска.
Другая американская компания, создающая для американской армии ИИ-системы – Palantir, чьим сооснователем является соратник Трампа Питер Тиль, и вовсе выпустила собственный манифест под названием «Технологическая республика», где призывает Кремниевую долину служить государству и армии. Документ фиксирует конец эпохи ядерного сдерживания и переход к эпохе сдерживания, построенного на искусственном интеллекте. Но не сдерживание искусственного интеллекта.
Возможно, у ИИ никогда не будет одной своей «даты памяти» в чернобыльском смысле. Скорее всего, если такая дата и появится, она будет связана не с одним эффектным взрывом, а с моментом, когда станет невозможно дальше поддерживать иллюзию, будто технология остается просто удобным инструментом. Датой памяти об ИИ может стать период, когда общество осознает: ошибка была не в отдельной модели, а в том, что слишком многое уже передано системе, которую никто в полной мере не контролирует.
После Чернобыля ядерщики действительно пересмотрели свои протоколы безопасности, международные процедуры обмена информацией, инженерные стандарты и саму культуру отношения к риску, чтобы преодолеть страх мира перед атомом. Но в случае ИИ цена запоздалого ответа может оказаться еще выше, потому что, в отличие от атомной отрасли, он внедряется в гораздо большее количество сфер – в экономику, медицину, образование, биологию, государственное и военное управление и повседневную жизнь.






























