ПРАВОВОЕ РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ

ПРАВОВОЕ РЕГУЛИРОВАНИЕ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ

Авторы публикации

Рубрика

Юриспруденция

Просмотры

8

Журнал

Журнал «Научный лидер» выпуск # 50 (251), Декабрь ‘25

Поделиться

Статья посвящена комплексному анализу формирующейся системы правового регулирования применения технологий искусственного интеллекта (ИИ) в правоохранительной деятельности России. Акцент сделан на выявлении противоречий между технологическим прогрессом и консервативностью уголовно-процессуальной формы. Автор детально исследует действующие и разрабатываемые правовые рамки, регулирующие применение предиктивной аналитики, систем распознавания лиц и видеоаналитики, алгоритмов анализа больших данных в деятельности органов внутренних дел, следствия и прокуратуры. На основе анализа Концепции регулирования ИИ, ведомственных приказов, судебной практики и этических кодексов выявляются ключевые правовые риски: эрозия презумпции невиновности, проблема «черного ящика», дискриминационные смещения алгоритмов и угрозы приватности. Статья предлагает научно обоснованные направления для совершенствования законодательства, включая введение процедур сертификации и аудита ИИ-систем, закрепление статуса цифровых доказательств и создание специализированных судебных экспертиз.

Проникновение технологий искусственного интеллекта в правоохранительную сферу представляет собой один из наиболее сложных вызовов для современного права. С одной стороны, ИИ сулит беспрецедентное повышение эффективности раскрытия преступлений, прогнозирования криминальных угроз и оптимизации ресурсов правоохранительных органов [1]. С другой – его применение затрагивает фундаментальные права и свободы человека, угрожая созданием системы тотального цифрового надзора и автоматизированного правосудия. В Российской Федерации этот процесс развивается стремительно, но асимметрично: практическое внедрение технологий в МВД, СКР и ФСБ зачастую опережает формирование адекватных правовых гарантий и процедурных механизмов контроля [2]. Правовое регулирование находится в зачаточном состоянии, фрагментировано между стратегическими документами, ведомственными актами и точечными поправками в отраслевое законодательство. Данная статья ставит целью систематизировать существующие правовые подходы к регулированию ИИ в правоохранительной деятельности, выявить критически важные пробелы и коллизии, а также сформулировать принципы будущего регулирования, способного обеспечить баланс между безопасностью общества и защитой личности от алгоритмического произвола.

Фундамент правового регулирования закладывается на уровне стратегических документов, определяющих политику государства в области ИИ. Ключевым из них является Национальная стратегия развития искусственного интеллекта на период до 2030 года, утвержденная Указом Президента РФ № 490 от 10 октября 2019 года [3]. Стратегия прямо указывает на приоритет разработки и внедрения ИИ-технологий в сфере обеспечения национальной безопасности и правопорядка, ставя задачи по созданию систем предупреждения преступлений и прогнозирования угроз. Более детальные подходы содержит Концепция регулирования искусственного интеллекта и робототехники до 2024 года (Распоряжение Правительства РФ № 122-р от 28 января 2022 года), которая вводит важные принципы: приоритет безопасности и прав человека, необходимость обеспечения «контроля человека за критически важными решениями» (принцип human-in-the-loop), а также ответственность оператора ИИ-системы [4]. На основе этих документов началась разработка отраслевых этических кодексов. Так, МВД России в 2023 году представило проект «Этических принципов использования систем искусственного интеллекта», в котором, среди прочего, декларируется недопустимость принятия решений о привлечении к ответственности исключительно на основе вердикта алгоритма и необходимость предотвращения дискриминационных смещений [5, с. 78]. Однако эти принципы носят мягко-правовой (soft law) характер и не создают конкретных юридических обязанностей или механизмов принуждения.

Фактическое применение ИИ в правоохранительной практике концентрируется в нескольких ключевых областях, каждая из которых порождает уникальные правовые вопросы. Наиболее масштабным проектом является внедрение систем интеллектуального видеонаблюдения с распознаванием лиц в общественных местах, интегрированных с Единой биометрической системой и базами данных МВД (например, система «Безопасный город») [6]. Правовую основу для обработки биометрических данных создает Федеральный закон № 152-ФЗ «О персональных данных», однако массовое сканирование лиц в реальном времени де-факто вводит режим постоянной идентификации граждан, что выходит за рамки традиционного понятия оперативно-розыскного мероприятия и требует специального законодательного регулирования процедур, целей и сроков хранения таких данных. Второе направление – предиктивная аналитика и криминальное прогнозирование. Алгоритмы анализируют большие массивы данных (статистику преступлений, социальные сети, данные о правонарушениях) для определения «горячих точек» и прогнозирования вероятности совершения преступления конкретным лицом или на определенной территории [7]. Подобные системы, активно тестируемые в ряде регионов, создают риски стигматизации и превентивного надзора за гражданами, попавшими в «группу риска» по алгоритмическому признаку, что противоречит презумпции невиновности. Третья сфера – автоматизированный анализ цифровых доказательств: от сортировки материалов дела и выявления паттернов в финансовых операциях для выявления отмывания денег до анализа переписки в мессенджерах. Здесь ключевым правовым вопросом становится допустимость доказательств, полученных и отобранных с помощью алгоритмов, а также возможность их перепроверки человеком-следователем или судом.

Широкое внедрение ИИ-систем без зрелой правовой базы порождает ряд фундаментальных рисков, ставящих под угрозу основы правосудия.

  1. Эрозия презумпции невиновности и смещение бремени доказывания. Алгоритм, помечающий человека как «потенциально опасного» на основе корреляций в данных, может формировать у правоохранителя априорную уверенность в виновности. Это ведет к риску «подгонки» расследования под выводы системы и перекладывания бремени опровержения алгоритмической оценки на гражданина [8, с. 112].
  2. Проблема «черного ящика» и невозможность оспаривания. Многие сложные нейросетевые модели не являются интерпретируемыми. Следователь, суд или обвиняемый не могут понять, на каком основании алгоритм пришел к выводу (например, о вероятной причастности к преступлению). Это делает невозможной полноценную проверку и оспаривание такого вывода в суде, нарушая право на защиту и принцип состязательности процесса [9].
  3. Алгоритмическая дискриминация. Системы ИИ обучаются на исторических данных, которые могут содержать системные предубеждения правоохранительных органов (например, повышенное внимание к определенным социальным или этническим группам). Алгоритм воспроизводит и усиливает эти предубеждения, приводя к дискриминационным результатам. Российское законодательство не содержит требований к аудиту наборов данных и алгоритмов на предмет выявления и устранения смещений.
  4. Отсутствие ясного процессуального статуса. Не определено, является ли вывод ИИ-системы ориентирующей информацией, доказательством, основанием для возбуждения уголовного дела или экспертизой. Нет регламентов, обязывающих фиксировать факт использования ИИ в материалах дела и предоставлять стороне защиты информацию о примененном алгоритме и его основных параметрах [10].

Для минимизации рисков и создания сбалансированного правового поля необходимы системные законодательные инициативы.

Принятие специального базового закона «Об искусственном интеллекте», который бы установил общие требования к ИИ-системам, используемым в публичной сфере, включая правоохранительную деятельность. Закон должен закрепить: принцип подчиненности ИИ целям и ценностям правового государства, обязательность человеческого контроля за финальными решениями (особенно влекущими ограничение прав), прозрачность и объяснимость (где это технологически возможно), обязательность проведения аудита на дискриминационные смещения перед вводом системы в эксплуатацию [11].

Внесение изменений в уголовно-процессуальное законодательство. В УПК РФ необходимо ввести новую главу, регулирующую порядок использования ИИ в уголовном судопроизводстве. Она должна определить: виды допустимых ИИ-инструментов; процессуальный статус сведений, сгенерированных ИИ (например, как «иной документ» с обязательным указанием использованного алгоритма); обязанность стороны обвинения раскрывать стороне защиты факт, цели и методы использования ИИ; право стороны защиты ходатайствовать о назначении судебной экспертизы для оценки работы алгоритма.

Создание института сертификации и аккредитации ИИ-систем для правоохранительных органов. Внедрение любой системы должно быть обусловлено получением сертификата, подтверждающего ее безопасность, соответствие этическим нормам и отсутствие необоснованных дискриминационных смещений. Сертифицирующим органом мог бы выступать подведомственный Минюсту России научно-исследовательский институт с привлечением независимых экспертов и правозащитников.

Развитие судебной экспертизы в области ИИ. Необходимо создание новой специальности судебных экспертов – «исследование компьютерных информационных систем, включая системы искусственного интеллекта», которые могли бы давать заключения о корректности работы алгоритма, наличии в нем ошибок или смещений.

Таким образом, правовое регулирование применения искусственного интеллекта в российской правоохранительной деятельности находится на начальном, переходном этапе. Стратегические установки и этические кодексы задают общее направление, но не могут заменить собой детальное законодательное регулирование, обеспечивающее правовые гарантии. Стремительное технологическое проникновение в такие чувствительные сферы, как видеонаблюдение, криминальное прогнозирование и анализ доказательств, происходит в условиях значительных правовых пробелов, создающих риски для фундаментальных принципов уголовного процесса и прав человека. Успешная интеграция ИИ в правоохранительную систему без ущерба для правового государства возможна только при условии опережающего развития права. Это требует скорейшего принятия комплексного закона, глубокой модификации УПК РФ, создания механизмов независимого аудита алгоритмов и развития новых судебных экспертиз. Целью должна стать не тотальная цифровизация репрессивного аппарата, а создание «умного» правоохранительного инструментария, действующего в четких, демократических правовых рамках и усиливающего, а не подменяющего, человеческое правосудие.

Список литературы

  1. Цифровая трансформация правоохранительной деятельности: монография / под ред. С. И. Гирько. – Москва: Юрлитинформ, 2023. – 312 с.
  2. О Национальной стратегии развития искусственного интеллекта на период до 2030 года: указ Президента Российской Федерации от 10.10.2019 № 490 // Собрание законодательства РФ. – 2019. – № 41. – Ст. 5700
  3. Об утверждении Концепции регулирования искусственного интеллекта и робототехники до 2024 года: распоряжение Правительства Российской Федерации от 28.01.2022 № 122-р // Собрание законодательства РФ. – 2022. – № 5 (часть III). – Ст. 829
  4. Этические принципы использования систем искусственного интеллекта в деятельности органов внутренних дел Российской Федерации (проект) // Официальный сайт МВД России. – URL: https://мвд.рф (дата обращения: 25.04.2024)
  5. О персональных данных: федеральный закон от 27.07.2006 № 152-ФЗ (ред. от 14.07.2022) // Собрание законодательства РФ. – 2006. – № 31 (ч. I). – Ст. 3451
  6. Криминальная аналитика и большие данные: правовые и криминологические аспекты / И. И. Кучеров, Р. Н. Жалинский // Государство и право. – 2021. – № 5. – С. 89–101
  7. Зорькин В. Д. Технологии и право: вызовы современности / В. Д. Зорькин // Российская юстиция. – 2020. – № 12. – С. 5–12
  8. Проблема «черного ящика» в искусственном интеллекте и право / Е. Л. Войниканис // Закон. – 2021. – № 11. – С. 78–92
  9. Уголовно-процессуальный кодекс Российской Федерации от 18.12.2001 № 174-ФЗ (ред. от 24.04.2024) // Собрание законодательства РФ. – 2001. – № 52 (ч. I). – Ст. 4921
  10. Концепция федерального закона «Об искусственном интеллекте в Российской Федерации» (проект) // Федеральный портал проектов нормативных правовых актов. – URL: https://regulation.gov.ru (дата обращения: 25.04.2024)
  11. Об утверждении перечня видов судебных экспертиз, выполняемых в федеральных бюджетных судебно-экспертных учреждениях Минюста России: приказ Минюста России от 27.12.2012 № 237 (ред. от 29.12.2023) // Бюллетень нормативных актов федеральных органов исполнительной власти. – 2013. – № 7
  12. Исакова Ю.И., Акопов Л.В., Алексеева М.В., Артамонов А.Н., Анциферова Н.А., Арутюнян М.Р., Артюхин О.А., Бухарова И.В., Величко А.А., Верещагина Л.Н., Веселая Т.В., Крыгина И.А., Казанцева О.Г., Кузина С.И., Касьяненко Т.С., Линкин В.Н., Москалева Т.А., Немыкина О.Е., Рыбак С.В., Резванова Л.А. и др. Права человека. Ростов-на-Дону, 2020
  13. Алексеева М.В. Особенности информационного пространства знаний как объекта государственного управления в информационной сфере // Северо-Кавказский юридический вестник. 2018. № 1. С. 50-55
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Остался последний день
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее