Технологии искусственного интеллекта интегрируются в различные сферы общественной жизни и управления государством. Развитие этих технологий открывает широкий спектр возможностей для решения различных задач. В России, как и во многих других странах, искусственный интеллект рассматривается как ключевой инструмент в создании «цифрового государства», что подтверждается национальной стратегией развития искусственного интеллекта до 2030 года [1, с. 109].
Интеграция искусственного интеллекта в общество также связана с концепцией «мягких вычислений», объединяющей несколько интеллектуальных систем в единую среду для достижения синергетического эффекта [1, с. 48]. Параллельно с этим наблюдается информатизация общества, при этом люди все больше доверяют компьютерам важную персональную, финансовую, социальную и медицинскую информацию [1, с. 393].
Однако, развитие информационных технологий также сопровождается ростом киберугроз и увеличением сложности атак. По данным исследователей, затраты на ликвидацию последствий киберинцидентов значительны для среднего и крупного бизнеса [1, с. 134]. Угрозы информационной безопасности могут нанести ущерб национальным, корпоративным и персональным интересам, что актуализирует вопросы защиты данных на всех уровнях общества [5, с. 135]. В связи с этим, защитные системы на основе искусственного интеллекта становятся все более популярными и востребованными. Они способны проводить оперативный анализ, идентифицировать уязвимости, формировать банк данных об угрозах и реагировать на них [1, с. 116].
Рост интереса к использованию искусственного интеллекта в информационной безопасности также подтверждается макроэкономическими показателями. Мировой рынок технологий искусственного интеллекта для обеспечения информационной безопасности оценивается в миллиарды долларов, и его дальнейший рост ожидается в ближайшие годы [1, с. 122].
Комбинация искусственного интеллекта и информационных технологий открывает новые перспективы для обеспечения безопасности данных и эффективного управления рисками в цифровой среде.
При использовании современных методологий защиты данных, основанных на искусственном интеллекте, следует отметить, что они не лишены недостатков. В настоящее время разработчики программного обеспечения все чаще высказывают мнение о необходимости значительного улучшения применяемых систем [1]. Рассмотрим некоторые важные проблемные аспекты развития искусственного интеллекта, направленного на защиту данных.
«Во-первых, необходимо, чтобы самообучающиеся системы различали отклонения в поведении пользователей и идентифицировали их как таковые. Это означает, что алгоритмы машинного обучения должны различать намеренно введенные вредоносные данные от реальных аномальных событий» [2].
«Во-вторых, искусственный интеллект должен автоматически определять конфиденциальную информацию, даже если пользователь не отмечает её как таковую. Пользователь может предоставить доступ к закрытой информации ненамеренно, случайно или неосознанно» [2].
Для обеспечения требуемого уровня защиты информации искусственный интеллект должен быть правильно реализован, интегрирован в существующие системы и обучен. «Парадоксально, введение в эксплуатацию интеллектуальных систем, предназначенных для защиты данных, может привести к серьезным последствиям и угрозам безопасности индивидуальных или корпоративных пользователей» [2].
Одной из проблем, возникающих при обучении и использовании интеллектуальных систем, является нарушение конфиденциальности данных (privacy breach). В связи с этим акцент делается на новых технологиях повышения конфиденциальности, например, технологии OPAL (open algorithms project), позволяющей отказаться от пересылки данных алгоритму искусственного интеллекта путем предоставления удаленного и контролируемого доступа к информации.
Еще одной серьезной проблемой является отравление данных (data poisoning) - ситуация, при которой «нейросети предлагается ложная информация, искажающая обучающую выборку и приводящая к искажению результатов обучения». Подобные манипуляции могут привести к различным последствиям, включая репутационный ущерб или изменение электорального поведения [2].
Другой проблемой является атака уклонения (evasion attack), при которой третьи стороны изменяют входные данные для порождения некорректных умозаключений со стороны системы. «Для борьбы с этим видом угроз рекомендуется использование состязательной тренировки (adversarial training), которая позволяет обучить систему не включать ложные данные в аналитическую выборку и правильно их классифицировать» [1].
Использование инструментов, основанных на искусственном интеллекте, обусловлено, во-первых, «необходимостью оперативного реагирования при наступлении ситуации уязвимости системы защиты информации» и, во-вторых, «нехваткой квалифицированных специалистов» [1]. В идеальной ситуации в компании должна работать круглосуточная служба информационной безопасности – для того, чтобы обеспечить защиту в нерабочее время. Более того, непосредственно перед атакой киберпреступники зачастую реализуют «отвлекающие маневры», активируя DDoS-атаку или сетевое сканирование, что может отвлечь специалистов и «перетянуть» рабочие ресурсы на противодействие подобным предварительным атакам [1, с. 152]. В данной связи все большее число компаний обращаются к интеллектуальным ресурсам защиты данных, которые способны обрабатывать большое количество событий, автоматизировать действия аналитиков и обеспечивать оперативное реагирование.
Вышеизложенное позволяет нам говорить и о третьем факторе, влияющем на распространение интеллектуальных систем защиты данных. Речь идет о том, что современная киберпреступность использует интеллектуальные системы, следовательно, бороться с ней можно, используя лишь симметричные по уровню технологичности меры. С. М. Авдошин и Е. Ю. Песоцкая указывают, что в современных условиях «цифровой диктатуры» цифровая защита и борьба с недобросовестным использованием информации – приоритет «цифровых» стратегий любого общества [3, с. 63].
Классические интеллектуальные системы сконструированы на основе анализа отклонений: превышение объема специфического трафика, неуспешные попытки аутентификации, паттерны (признаки, шаблоны) работы пользователей, идентификация скомпрометированных учетных записей. Обзор существующей литературы и практик применения искусственного интеллекта позволяет определить наиболее перспективные виды "умных" систем.
Средства EDR (Endpoint Detection and Response) представляют собой платформы обнаружения атак на рабочих станциях, серверах, компьютерных устройствах и оперативного реагирования на них. Технологии искусственного интеллекта данного типа способны идентифицировать вредоносные программы, классифицировать угрозы и автономно реагировать на них, компилируя при этом отчетность по выявленным и нейтрализованным угрозам. Система в данном случае принимает решение на основании анализа базы данных, собранной со множества устройств (так называемых "конечных точек") [4].
Еще одним эффективным инструментом являются средства защиты приложений (Application Security), которые обеспечивают высокую эффективность самообучаемости, адаптивности риск-моделей и тщательное сканирование систем безопасности [4].
NDR (Network Detection and Response) работает преимущественно не с «конечными точками», а выявляет угрозы безопасности данных еще на сетевом уровне. Продукты данного типа выявляют угрозы в сетевом трафике и автоматически реагируют на них посредством изменения конфигурации сетевых устройств и шлюзов [4].
UEBA (User and Entity Behavior Analytics) представляет собой систему поведенческого анализа пользователей. Нестандартный паттерн позволяет классифицировать аномальные действия пользователя в качестве угрозы. Аномальное поведение приводит к блокировке пользователя, ограничению его доступа к сетевому ресурсу; подобный инструментарий доказал свою эффективность в защите конфиденциальных данных, при проверках соблюдения регламентов и нормативных актов [4].
TIP (Threat Intelligence Platform) представляет собой группу инструментов ранней идентификации угроз и реагирования на них; алгоритмы TIP функционируют на базисе большого количества различных данных (Data Lake) и индикаторов компрометации (IoC). Особенностью и преимуществом подобных средств является возможность идентификации угроз еще до момента ее взаимодействия с пользовательской системой, т. е. на самом раннем этапе, во внешней среде. [4].
Таким образом, в современном цифровом мире защита информации становится все более важной и актуальной, учитывая рост киберугроз и увеличение сложности атак. Использование технологий искусственного интеллекта (ИИ) в области информационной безопасности открывает новые перспективы для эффективного противодействия киберпреступности. Множество современных решений в этой области базируются на ИИ, что позволяет проводить оперативный анализ, идентифицировать уязвимости, формировать банк данных об угрозах и реагировать на них. Несмотря на значительные преимущества, использование ИИ в защите данных также сопряжено с рядом проблемных аспектов, таких как нарушение конфиденциальности, отравление данных и атаки уклонения. Разработчики и специалисты в области обработки данных активно работают над улучшением систем защиты, основанных на ИИ, чтобы обеспечить требуемый уровень безопасности в цифровой среде.
Список литературы
- Афанасьева, Д. В. Применение искусственного интеллекта в обеспечении безопасности данных / Д. В. Афанасьева // Известия ТулГУ. Технические науки. – 2020. – №2. – С. 151-154
- Маршалл, Э. Перспективы развития искусственного интеллекта и машинного обучения в корпорации Майкрософт / Э. Маршалл, Р. Рохас, Д. Стоукс, Д. Бринкман // Microsoft. – 2024 [Электронный ресурс]. – Режим доступа: https://learn.microsoft.com/ru-ru/security/engineering/securing-artificial-intelligence-machine-learning. – Дата доступа: 08.02.2024
- Авдошин, С. М. Доверенный искусственный интеллект как способ цифровой защиты / С. М. Авдошин, Е. Ю. Песоцкая // Бизнес-информатика. – 2022. – №2. – С. 62-73
- Шабанов, А. Применение технологий искусственного интеллекта в информационной безопасности / А. Шабанов // AM Live. – 2022 [Электронный ресурс]. – Режим доступа: https://cyberleninka.ru/article/n/primenenie-sistem-iskusstvennogo-intellekta-v-zaschite-informatsii/viewer. – Дата доступа: 08.02.2024