Интеграция искусственного интеллекта в системы информационной безопасности

Интеграция искусственного интеллекта в системы информационной безопасности

Авторы публикации

Рубрика

IT-Технологии

Просмотры

834

Журнал

Журнал «Научный лидер» выпуск # 5 (155), Февраль ‘24

Дата публикации 08.02.2024

Поделиться

В данной статье осуществляется детальный анализ использования искусственного интеллекта (ИИ) в сфере обеспечения информационной безопасности. Акцентируется внимание на том, что широкое применение ИИ стало возможным благодаря цифровизации общественных процессов и увеличению числа и сложности киберугроз. Автор подчеркивает критическую важность адекватной интеграции и обучения ИИ для достижения высокого уровня защиты данных, указывая на потенциальные риски, которые могут возникнуть при неправильном внедрении таких систем. Особое внимание уделяется необходимости создания «надежного искусственного интеллекта», способного эффективно противостоять киберугрозам без риска для конфиденциальности и целостности данных. Анализируются современные методы защиты от спуфинга голосовой аутентификации, демонстрируя прогресс в разработке интеллектуальных систем, способных идентифицировать фальсифицированные голосовые данные. Также рассматриваются перспективы развития биометрического сканирования, включая поведенческую биометрию, которая представляет собой перспективное направление в усилении защиты персональных данных с помощью ИИ.

Технологии искусственного интеллекта интегрируются в различные сферы общественной жизни и управления государством. Развитие этих технологий открывает широкий спектр возможностей для решения различных задач. В России, как и во многих других странах, искусственный интеллект рассматривается как ключевой инструмент в создании «цифрового государства», что подтверждается национальной стратегией развития искусственного интеллекта до 2030 года [1, с. 109].

Интеграция искусственного интеллекта в общество также связана с концепцией «мягких вычислений», объединяющей несколько интеллектуальных систем в единую среду для достижения синергетического эффекта [1, с. 48]. Параллельно с этим наблюдается информатизация общества, при этом люди все больше доверяют компьютерам важную персональную, финансовую, социальную и медицинскую информацию [1, с. 393].

Однако, развитие информационных технологий также сопровождается ростом киберугроз и увеличением сложности атак. По данным исследователей, затраты на ликвидацию последствий киберинцидентов значительны для среднего и крупного бизнеса [1, с. 134]. Угрозы информационной безопасности могут нанести ущерб национальным, корпоративным и персональным интересам, что актуализирует вопросы защиты данных на всех уровнях общества [5, с. 135]. В связи с этим, защитные системы на основе искусственного интеллекта становятся все более популярными и востребованными. Они способны проводить оперативный анализ, идентифицировать уязвимости, формировать банк данных об угрозах и реагировать на них [1, с. 116].

Рост интереса к использованию искусственного интеллекта в информационной безопасности также подтверждается макроэкономическими показателями. Мировой рынок технологий искусственного интеллекта для обеспечения информационной безопасности оценивается в миллиарды долларов, и его дальнейший рост ожидается в ближайшие годы [1, с. 122].

Комбинация искусственного интеллекта и информационных технологий открывает новые перспективы для обеспечения безопасности данных и эффективного управления рисками в цифровой среде.

При использовании современных методологий защиты данных, основанных на искусственном интеллекте, следует отметить, что они не лишены недостатков. В настоящее время разработчики программного обеспечения все чаще высказывают мнение о необходимости значительного улучшения применяемых систем [1]. Рассмотрим некоторые важные проблемные аспекты развития искусственного интеллекта, направленного на защиту данных.

«Во-первых, необходимо, чтобы самообучающиеся системы различали отклонения в поведении пользователей и идентифицировали их как таковые. Это означает, что алгоритмы машинного обучения должны различать намеренно введенные вредоносные данные от реальных аномальных событий» [2].

«Во-вторых, искусственный интеллект должен автоматически определять конфиденциальную информацию, даже если пользователь не отмечает её как таковую. Пользователь может предоставить доступ к закрытой информации ненамеренно, случайно или неосознанно» [2].

Для обеспечения требуемого уровня защиты информации искусственный интеллект должен быть правильно реализован, интегрирован в существующие системы и обучен. «Парадоксально, введение в эксплуатацию интеллектуальных систем, предназначенных для защиты данных, может привести к серьезным последствиям и угрозам безопасности индивидуальных или корпоративных пользователей» [2].

Одной из проблем, возникающих при обучении и использовании интеллектуальных систем, является нарушение конфиденциальности данных (privacy breach). В связи с этим акцент делается на новых технологиях повышения конфиденциальности, например, технологии OPAL (open algorithms project), позволяющей отказаться от пересылки данных алгоритму искусственного интеллекта путем предоставления удаленного и контролируемого доступа к информации.

Еще одной серьезной проблемой является отравление данных (data poisoning) - ситуация, при которой «нейросети предлагается ложная информация, искажающая обучающую выборку и приводящая к искажению результатов обучения». Подобные манипуляции могут привести к различным последствиям, включая репутационный ущерб или изменение электорального поведения [2].

Другой проблемой является атака уклонения (evasion attack), при которой третьи стороны изменяют входные данные для порождения некорректных умозаключений со стороны системы. «Для борьбы с этим видом угроз рекомендуется использование состязательной тренировки (adversarial training), которая позволяет обучить систему не включать ложные данные в аналитическую выборку и правильно их классифицировать» [1].

Использование инструментов, основанных на искусственном интеллекте, обусловлено, во-первых, «необходимостью оперативного реагирования при наступлении ситуации уязвимости системы защиты информации» и, во-вторых, «нехваткой квалифицированных специалистов» [1]. В идеальной ситуации в компании должна работать круглосуточная служба информационной безопасности – для того, чтобы обеспечить защиту в нерабочее время. Более того, непосредственно перед атакой киберпреступники зачастую реализуют «отвлекающие маневры», активируя DDoS-атаку или сетевое сканирование, что может отвлечь специалистов и «перетянуть» рабочие ресурсы на противодействие подобным предварительным атакам [1, с. 152]. В данной связи все большее число компаний обращаются к интеллектуальным ресурсам защиты данных, которые способны обрабатывать большое количество событий, автоматизировать действия аналитиков и обеспечивать оперативное реагирование.

Вышеизложенное позволяет нам говорить и о третьем факторе, влияющем на распространение интеллектуальных систем защиты данных. Речь идет о том, что современная киберпреступность использует интеллектуальные системы, следовательно, бороться с ней можно, используя лишь симметричные по уровню технологичности меры. С. М. Авдошин и Е. Ю. Песоцкая указывают, что в современных условиях «цифровой диктатуры» цифровая защита и борьба с недобросовестным использованием информации – приоритет «цифровых» стратегий любого общества [3, с. 63].

Классические интеллектуальные системы сконструированы на основе анализа отклонений: превышение объема специфического трафика, неуспешные попытки аутентификации, паттерны (признаки, шаблоны) работы пользователей, идентификация скомпрометированных учетных записей. Обзор существующей литературы и практик применения искусственного интеллекта позволяет определить наиболее перспективные виды "умных" систем.

Средства EDR (Endpoint Detection and Response) представляют собой платформы обнаружения атак на рабочих станциях, серверах, компьютерных устройствах и оперативного реагирования на них. Технологии искусственного интеллекта данного типа способны идентифицировать вредоносные программы, классифицировать угрозы и автономно реагировать на них, компилируя при этом отчетность по выявленным и нейтрализованным угрозам. Система в данном случае принимает решение на основании анализа базы данных, собранной со множества устройств (так называемых "конечных точек") [4].

Еще одним эффективным инструментом являются средства защиты приложений (Application Security), которые обеспечивают высокую эффективность самообучаемости, адаптивности риск-моделей и тщательное сканирование систем безопасности [4].

NDR (Network Detection and Response) работает преимущественно не с «конечными точками», а выявляет угрозы безопасности данных еще на сетевом уровне. Продукты данного типа выявляют угрозы в сетевом трафике и автоматически реагируют на них посредством изменения конфигурации сетевых устройств и шлюзов [4].

UEBA (User and Entity Behavior Analytics) представляет собой систему поведенческого анализа пользователей. Нестандартный паттерн позволяет классифицировать аномальные действия пользователя в качестве угрозы. Аномальное поведение приводит к блокировке пользователя, ограничению его доступа к сетевому ресурсу; подобный инструментарий доказал свою эффективность в защите конфиденциальных данных, при проверках соблюдения регламентов и нормативных актов [4].

TIP (Threat Intelligence Platform) представляет собой группу инструментов ранней идентификации угроз и реагирования на них; алгоритмы TIP функционируют на базисе большого количества различных данных (Data Lake) и индикаторов компрометации (IoC). Особенностью и преимуществом подобных средств является возможность идентификации угроз еще до момента ее взаимодействия с пользовательской системой, т. е. на самом раннем этапе, во внешней среде. [4].

Таким образом, в современном цифровом мире защита информации становится все более важной и актуальной, учитывая рост киберугроз и увеличение сложности атак. Использование технологий искусственного интеллекта (ИИ) в области информационной безопасности открывает новые перспективы для эффективного противодействия киберпреступности. Множество современных решений в этой области базируются на ИИ, что позволяет проводить оперативный анализ, идентифицировать уязвимости, формировать банк данных об угрозах и реагировать на них. Несмотря на значительные преимущества, использование ИИ в защите данных также сопряжено с рядом проблемных аспектов, таких как нарушение конфиденциальности, отравление данных и атаки уклонения. Разработчики и специалисты в области обработки данных активно работают над улучшением систем защиты, основанных на ИИ, чтобы обеспечить требуемый уровень безопасности в цифровой среде.

Список литературы

  1. Афанасьева, Д. В. Применение искусственного интеллекта в обеспечении безопасности данных / Д. В. Афанасьева // Известия ТулГУ. Технические науки. – 2020. – №2. – С. 151-154
  2. Маршалл, Э. Перспективы развития искусственного интеллекта и машинного обучения в корпорации Майкрософт / Э. Маршалл, Р. Рохас, Д. Стоукс, Д. Бринкман // Microsoft. – 2024 [Электронный ресурс]. – Режим доступа: https://learn.microsoft.com/ru-ru/security/engineering/securing-artificial-intelligence-machine-learning. – Дата доступа: 08.02.2024
  3. Авдошин, С. М. Доверенный искусственный интеллект как способ цифровой защиты / С. М. Авдошин, Е. Ю. Песоцкая // Бизнес-информатика. – 2022. – №2. – С. 62-73
  4. Шабанов, А. Применение технологий искусственного интеллекта в информационной безопасности / А. Шабанов // AM Live. – 2022 [Электронный ресурс]. – Режим доступа: https://cyberleninka.ru/article/n/primenenie-sistem-iskusstvennogo-intellekta-v-zaschite-informatsii/viewer. – Дата доступа: 08.02.2024
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Осталось 6 дней до окончания
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее