РИСКИ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В УПРАВЛЕНИИ КРИТИЧЕСКОЙ ИНФРАСТРУКТУРОЙ

РИСКИ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В УПРАВЛЕНИИ КРИТИЧЕСКОЙ ИНФРАСТРУКТУРОЙ

Авторы публикации

Журнал

Журнал «Научный лидер» выпуск # 47 (248), Ноябрь ‘25

Поделиться

В статье анализируются ключевые риски применения систем искусственного интеллекта для управления объектами критической инфраструктуры. Рассматриваются такие угрозы, как кибератаки на алгоритмы ИИ, непредсказуемость их поведения в нештатных ситуациях и проблема деградации моделей. Предлагаются комплексные меры по минимизации рисков, направленные на обеспечение безопасности жизнедеятельности населения.

Активное внедрение систем искусственного интеллекта в управление критической инфраструктурой создает новые проблемы. Энергосистемы, объекты водоснабжения, транспортные узлы и другие стратегически важные объекты постепенно переходят на интеллектуальное управление, из-за чего возникают новые риски, требующие пересмотра традиционных подходов к обеспечению безопасности. Привычные методы защиты оказываются неэффективными против угроз, которые присущи системам ИИ, что подтверждается статистикой последних лет, где согласно данным «Информзащиты», деструктивные атаки на энергокомпании в 2024 году участились на 57%, причем 74% компаний отрасли считают такие угрозы реальными, что на 12% больше, чем в 2023-м [1, с. 1].

Основная проблема связана с непредсказуемостью поведения сложных алгоритмов в нештатных ситуациях. В отличие от традиционных систем автоматизации, работающих по жестким алгоритмам, системы искусственного интеллекта способны принимать решения, которые невозможно предсказать даже их разработчикам. Примером этого может служить рост инцидентов по данным AI Incident Database, за последние 6 месяцев зарегистрировано на 50% больше случаев вредоносного или опасного использования ИИ, чем в прошлом году, включая сбои в системах мониторинга инфраструктуры [2, с. 3]. Аналогичные тенденции отмечены в отчетах многих стран за 2024 год, где подчеркивается, что отсутствие прозрачности в работе нейронных сетей приводит к задержкам в реагировании на сбои, увеличивая риски для здоровья и жизни людей.

Современные системы защиты критической инфраструктуры в основном ориентированы на отражение известных угроз, однако методы атак на системы с искусственным интеллектом постоянно совершенствуются [3, с. 4]. Злоумышленники могут манипулировать входными данными алгоритмов, заставляя систему принимать неправильные решения. Так, в глобальном масштабе кибератаки на критическую инфраструктуру в период с января 2023 по январь 2024 года превысили 420 млн, что эквивалентно 13 атакам в секунду и на 30% больше, чем в предыдущем периоде [4, с. 3].  Количество кибератак с использованием ИИ увеличивается каждый год, особенно в секторах энергетики и транспорта, где такие атаки приводят к большим сбоям.

Проблема усугубляется высокой взаимосвязанностью современных инфраструктурных систем и постепенной деградацией алгоритмов. Сбой в работе одной системы может вызвать цепную реакцию в других. При этом системы ИИ могут непреднамеренно усугубить ситуацию, принимая решения, оптимальные для одной системы, но катастрофические для других. Отдельную опасность представляет деградация производительности алгоритмов со временем. Без постоянной перенастройки модели теряют эффективность, особенно на объектах с длительным жизненным циклом, таких как гидротехнические сооружения. Внедрение ИИ в новые системы увеличивает уязвимость к деградациям, где даже мелкие ошибки в данных приводят к масштабным отключениям.

Для минимизации рисков необходим комплексный подход, сочетающий технические, организационные и правовые меры. Подготовка персонала и нормативное регулирование требуют полного пересмотра. Операторы должны не только понимать принципы работы алгоритмов, но и уметь распознавать ситуации, когда система выдает ошибочные рекомендации [3, с. 2]. Проекты с ИИ часто терпят неудачу из-за проблем с данными, что приводит к серьезным последствиям. Существующие нормативные документы, такие как Федеральный закон № 187-ФЗ "О безопасности КИИ", требуют дополнения положениями, учитывающими специфику искусственного интеллекта. Особое внимание следует уделять созданию систем постоянного мониторинга работы алгоритмов и механизмам быстрого перехода на ручное управление. Наличие таких систем значительно снижает вероятность крупных аварий.

Дополнительным фактором риска становится энергетическая нагрузка от систем ИИ. Для работы серверов с искусственным интеллектом каждый год требуется больше энергии и по прогнозам Gartner, к 2027 году потребуется в 2 раза больше энергии, чем в 2023, создавая дефицит в сетях и провоцируя потенциальные сбои в критической инфраструктуре [5, с. 5]. Каждый год увеличивается количество компаний, использующих ИИ, что требует планирование резервных мощностей или их увеличение, чтобы избежать перегрузки энергосети.

Несмотря на преимущества ИИ в оптимизации процессов, его использование в управлении критической инфраструктурой несет существенные угрозы для безопасности жизнедеятельности. Только сбалансированный подход, включающий строгий контроль, постоянное обучение и обновление норм, позволит минимизировать эти риски и обеспечить стабильность систем, от которых зависит благополучие общества.

Список литературы

  1. «Информзащита»: деструктивные атаки на энергокомпании участились примерно на 60% [Электронный ресурс] / CNews. — 2025. — 18 с. — URL: https://safe.cnews.ru/news/line/2025-01-28_informzashchita_destruktivnye (дата обращения: 20.11.2025)
  2. AI Incidents Are Rising. It's Time for the United States to Build [Электронный ресурс] / The Future Society. — 2025. — 20 с. — URL: https://thefuturesociety.org/us-ai-incident-response/ (дата обращения: 20.11.2025)
  3. Искусственный интеллект в информационной безопасности: добро или зло [Электронный ресурс] / Б-152. — 2024. — 25 с. — URL: https://b-152.ru/iskusstvennyj-intellekt-v-ib (дата обращения: 20.11.2025)
  4. Critical infrastructure faces 30 percent surge in cyber attacks [Электронный ресурс] / Industrial Cyber. — 2024. — 15 с. — URL: https://industrialcyber.co/critical-infrastructure/critical-infrastructure-faces-30-percent-surge-in-cyber-attacks-knowbe4-report-highlights/ (дата обращения: 20.11.2025)
  5. Грозит ли генеративному искусственному интеллекту дефицит электричества [Электронный ресурс] / Ведомости. — 2025. — 22 с. — URL: https://www.vedomosti.ru/think/trends/articles/2025/01/24/1088019-grozit-li-generativnomu-iskusstvennomu-defitsit-elektrichestva (дата обращения: 20.11.2025)
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Осталось 2 дня до окончания
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее