С начала года мы наблюдаем беспрецедентный шквал выпусков ИИ-моделей – обученных программ, которые генерируют текст. Февраль-март стали самыми «горячими» месяцами в истории развития таких моделей, а средний период между крупными релизами сократился до двух недель.
Пока мы можем сказать, что это скорее технологическая гонка, нежели намеренная попытка навязать мировую монополию ведущими ИТ-гигантами. Однако последствия могут быть схожими: страны и компании, которые не успеют за этим темпом, рискуют попасть в долгосрочную технологическую зависимость от лидеров.
В середине XIX века в Калифорнии нашли золото. Люди со всего мира бросили свои дела и начали массово съезжаться туда в надежде быстро разбогатеть. Это было стихийно, стремительно, и все хотели оказаться первыми. То, что происходит с начала 2025 года, напоминает золотую лихорадку в сфере искусственного интеллекта: компании и государства массово вкладываются в новые разработки, пытаясь быстрее других создать лучшую модель.
Все стремятся ухватить будущее – рынок ИИ, который обещает огромную власть, прибыль и влияние. И их можно понять. Аудитория одного лишь ChatGPT приблизилась к миллиарду пользователей – это примерно 10% населения Земли. Это огромный ресурс, и поговаривают, что именно для того, чтобы собрать еще больше данных со своей аудитории, OpenAI начинают делать свою социальную сеть.
Сегодня каждая новая модель (как 4o от OpenAI, Gemini 2.5 от Google или Grok от Илона Маска) становятся в два раза умнее и в сотни раз дешевле, чем те, с которых начиналась революция ИИ в 2022 году.
За конкуренцией между ключевыми игроками очень интересно наблюдать. Их модели соревнуются на своеобразных чатбот-аренах, проходят тесты, это называется бенчмарки. Их огромное разнообразие: математические, гуманитарные и т. д. Так вот, уже появился термин «кладбище бенчмарков». Модели так быстро совершенствуются, что система их оценки быстро становится неактуальной.
Мы находимся на грани ситуации, когда темп разработки опережает осознание рисков. Проблема не в «злом» искусственном интеллекте, а в неконтролируемой гонке разработчиков, для которых скорость вывода моделей на рынок важнее, чем понимание долгосрочных последствий. Сейчас регулирование сильно отстает от технологического прогресса, и в этой ситуации реальна угроза, что ИИ выйдет из-под контроля не потому, что кто-то захотел причинить вред (хотя и поэтому тоже может быть), а просто из-за стремительного темпа развития технологий и их неконтролируемого применения.
Вторая проблема – это предвзятость искусственного интеллекта. Контроль над моделями находится в руках узкого круга крупнейших корпораций. Именно эти компании решают, на каких данных нейросети учатся, какие знания в них попадают, а какие – нет. Если представить нейросети в виде огромной библиотеки, то эти компании – библиотекари, которые решают, какие книги поставить на полки, а какие спрятать или вовсе убрать из библиотеки. Их выбор определяет, как миллионы людей по всему миру будут видеть и понимать окружающий мир.
Такой выбор не всегда технический: часто в него встроены культурные и идеологические предпочтения. Если это западная модель, то, скорее всего, по ключевым вопросам она выдаст вам западную позицию. Если китайская – китайскую.
Но есть одно «но». В последнее время все более заметной становится роль опенсорс (open source)-сообщества, то есть разработчиков, которые открыто публикуют код и наборы данных, делая их доступными всем желающим. Опенсорс – это своего рода альтернативная библиотека, куда доступ открыт каждому: книги можно брать и читать свободно, а при желании можно даже добавлять свои материалы. Так вот, открытые модели почти догнали закрытые, коммерческие решения крупных компаний: разрыв в их производительности на отдельных тестах сократился с 8% до 2% за год. Примеры – это китайская Deepseek R1 или американская Gemini 2.5 Pro.
Нейросети – это зеркала, которые отражают мир через те источники информации, на которых их обучили. Так вышло, что в интернете больше всего информации на английском. Поэтому часто ИИ-модели несут взгляды, распространенные в США и западных странах. В таких случаях при обсуждении России ответы ИИ чаще оказываются негативными или критическими – это просто повторение того, что нейросеть увидела в западных СМИ, блогах и соцсетях.
Исправить это можно без цифровой изоляции, но путь здесь только один – создавать собственные качественные данные, которые будут отражать наши взгляды и наши подходы. Это похоже на то, как мы учим детей: если ребенок растет только на иностранных мультфильмах, он невольно перенимает чужие культурные ценности. Если же мы создадим свои мультфильмы – в данном случае свои дата-сеты, то и нейросети начнут говорить с нами на одном языке и отражать наши ценности.
Сейчас за отбором датасетов для обучения моделей ИИ начнут более пристально следить. Это тенденция развивается на наших глазах. Дело в том, что западные модели ИИ не всегда занимают антироссийскую позицию. Очень часто бывает и наоборот. И там это многих напрягает.
Если раньше коллективный Запад выделял безумные средства на разоблачение так называемой российской пропаганды в социальных сетях, то сегодня мы переходим в новое измерение, так скажем, датасетное. Пророссийская информация будет удаляться из наборов данных. То есть фильтры будут не только на уровне донастройки моделей. Фильтры будут и на гораздо более низком, или раннем, уровне – уровне отбора информации для создания правильных датасетов. Очень любопытная, хоть и неприятная, история.
- Как Россия пробьет американский «Золотой купол»
- Найдены новые доказательства опасной сущности Илона Маска
- Эксперты: Google DeepMind утрачивает научную прозрачность в погоне за прибылью
В России государство и индустрия осознают важность этой сферы. Технологическое отставание, к сожалению, есть: дело в ограничении доступа к передовым зарубежным разработкам и оборудованию, так называемых технологических санкциях. И вдобавок мы не можем инвестировать в эту сферу на уровне США и Китая – несопоставимые ВВП. Но Россия выстраивает собственный курс в развитии искусственного интеллекта. Мы ориентируемся на создание самостоятельной и устойчивой ниши. Хотя пока тренируем свои модели в том числе на иностранных моделях (например, на китайских Deepseek, Qwen) для повышения эффективности.
Но, говоря о цифровом суверенитете – у России есть собственные большие языковые модели, отечественные дата-центры, цифровые экосистемы, свои социальные сети, лучшие в мире «Госуслуги». Этим мало кто в мире может похвастаться. Конечно же, есть проблемы с архитектурой, скорость гонки тоже не играет нам на руку сейчас, но если не создавать «суверенный ИИ», то мы неизбежно придем в биполярный американо-китайский мир ИИ.
Нас ждет еще много сюрпризов на пути развития ИИ. Мы надеемся, что в долгосрочной перспективе у нас все будет хорошо и над этим работаем. При той линии, что у нас сейчас, у нас наилучшие перспективы из тех, которые есть в нашем коридоре возможностей.
Государству нужно действовать комплексно. Регулирование необходимо, чтобы защитить информационное пространство и стратегически важные сферы, такие как образование и «Госуслуги», от скрытого идеологического влияния. Но только запретами или блокировками проблему не решить. Нужно создание альтернатив: открытых и прозрачных отечественных платформ. И укреплять сотрудничество с дружественными партнерами, занимать активную позицию в международном диалоге по регулированию ИИ, чтобы не остаться в стороне от формирования глобальных стандартов.