ПРОБЛЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА УГОЛОВНОЙ ОТВЕТСТВЕННОСТИ

ПРОБЛЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА УГОЛОВНОЙ ОТВЕТСТВЕННОСТИ

Авторы публикации

Рубрика

Уголовное право

Просмотры

35

Журнал

Журнал «Научный лидер» выпуск # 32 (233), Август ‘25

Поделиться

Статья посвящена исследованию возможности признания искусственного интеллекта в качестве субъекта преступления и привлечения его к уголовной ответственности. Актуальность темы исследования обусловлена ростом влияния самообучаемых программ в жизни человека и их высокой интенсивностью развития.

Правовое урегулирование возникающих либо трансформирующихся явлений традиционно вызывает значительные затруднения у законодателя вне зависимости от конкретной отрасли права. В условиях современного общественного развития особенно остро проявляются проблемы в таких направлениях, как искусственный интеллект и его производные. Научно-технический прогресс, наряду с очевидными достижениями, сопровождается возникновением новых угроз и рисков. Так, по мнению ряда исследователей, применение технических достижений человеком уже вызвало серьёзные климатические изменения и усугубление общей экологической ситуации. К сожалению, можно выделить и иные негативные последствия прогресса, затрудняющие процесс их нормативного урегулирования. Тем не менее, движение человечества вперёд неизбежно, что обуславливает необходимость правового осмысления и регламентации подобных феноменов. В этой связи представляется обоснованным обратить внимание на одну из наиболее стремительно развивающихся и значимых сфер область робототехники и искусственного интеллекта.

 

Интенсивное развитие автономных технологий и систем искусственного интеллекта актуализирует вопрос о необходимости их всестороннего правового регулирования. Как справедливо подчеркивают В.В. Архипов и В.Б. Наумов, в российской правовой науке практически отсутствуют комплексные исследования, направленные на формирование нормативной базы, регулирующей общественные отношения в области робототехники. В связи с этим возникает насущная потребность в разработке фундаментальных положений законодательства в данной сфере [1].

 

Привлечение к уголовной ответственности возможно исключительно в отношении физических лиц, на которых возлагается обязанность по соблюдению установленных норм и правил. Учитывая, что в современном понимании искусственный интеллект представляет собой разновидность информационно-телекоммуникационной технологии, положения статьи 274 Уголовного кодекса РФ могут применяться и к случаям его использования. Эта норма, обладающая бланкетным характером, отсылает к специальным инструкциям и внутренним регламентам, определяющим порядок обращения со средствами хранения, обработки и передачи охраняемой информации, включая телекоммуникационные сети и конечные устройства. Нарушение установленных требований, повлекшее уничтожение, блокировку, модификацию либо копирование компьютерной информации и вызвавшее существенный ущерб, подлежит уголовной оценке. При этом обязательно установление причинной связи между нарушением правил и наступившими последствиями, а также достоверное подтверждение того, что сбой в работе ИИ произошёл в результате несоблюдения регламента, а не вследствие программной ошибки или иных действий, подпадающих под статьи 272 и 273 УК РФ [2].

 

В соответствии с частью 3 статьи 273 УК РФ, квалифицирующим признаком состава преступления признается наступление тяжких последствий либо создание угрозы их наступления. Следует учитывать, что при наступлении тяжких последствий вследствие применения ИИ речь идёт о материальном составе преступления, завершённом с момента возникновения общественно опасных последствий. Если же имело место только создание угрозы, то состав будет усечённым [3].

 

Наличие специальных норм в Уголовном кодексе РФ, касающихся преступлений в области компьютерной информации, не исключает возможности применения общих норм ответственности за деяния, совершённые с использованием ИИ, по статьям, предусматривающим ответственность за преступления против личности (ст. 105, 109, 111, 112, 118 УК РФ), нарушающие конституционные права и свободы граждан (ст. 143 УК РФ), преступления в отношении собственности (ст. 167, 168 УК РФ), а также за деяния, посягающие на интересы государственной власти и службы (ст. 293 УК РФ) и другим [4].

 

Аналогичным образом подлежит квалификации и неправомерный доступ к ИИ-системе, повлекший нарушение её функций и приведший к совершению преступления. Так, статья 272 УК РФ предусматривает ответственность за несанкционированное вмешательство в охраняемую компьютерную информацию, если в результате были уничтожены, заблокированы, изменены или скопированы данные. В свою очередь, часть 3 статьи 273 УК РФ устанавливает ответственность за создание, применение и распространение вредоносных программных продуктов [5].

 

В обозримом будущем ориентировочно в течение следующих 10–15 лет динамичное развитие ИИ-технологий и автономных устройств приведёт к необходимости кардинального пересмотра множества правовых отраслей. Особенно значимые изменения коснутся института интеллектуальной собственности, налогового регулирования и других смежных сфере.

 

Перспективным в данном вопросе является подход, предполагающий введение ограниченной правосубъектности ИИ (посредством юридической фикции), при котором автономный ИИ может нести ответственность за причинённый вред и вызванные им негативные последствия. Такой подход неизбежно потребует переосмысления основ уголовного права, в частности — понятий субъекта преступления и субъективной стороны.

 

Развитие ИИ вызовет необходимость формирования нового, самостоятельного уголовно-правового института, отличающегося от традиционного антропоцентрического подхода. В рамках данного института целесообразно предусмотреть особое понимание субъекта, основанное на совокупности технических и функциональных характеристик ИИ, а также альтернативные формы ответственности: отключение системы, перепрограммирование, присвоение статуса правонарушителя. Такая модель способна не только предупредить будущие правонарушения, но и стать эффективным инструментом предупреждения криминальных рисков, связанных с использованием ИИ.

Список литературы

  1. Архипов, Владислав В., Виктор Б.Наумов. 2017. «Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике». Труды СПИИРАН 6 (55): С. 46–62
  2. Бугаков, Игорь А., Алексей Н.Царьков. 2018. «О когнитивном моделировании, искусственном интеллекте и психике роботов». Известия Института инженерной физики. С. 101–106
  3. Елхов, Григорий А. 2014. «Искусственный интеллект и проблема моделирования его самосознания». Молодой ученый. С. 200–202
  4. Козаев, Нодар Ш. 2016. «Состояние уголовной политики и вопросы преодоления кризисных явлений в уголовном праве». Юридический вестник ДГУ. С. 96–101
  5. Денисов Н. Л. Концептуальные основы формирования международного стандарта при установлении уголовной ответственности за деяния, связанные с искусственным интеллектом // Международное уголовное право и международная юстиция. 2019. № 4. С. 18–22
  6. Кибальник А. Г., Волосюк П. В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Вестник Нижегородской академии МВД России. 2018. № 4 (44). С. 173–180
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Остался последний день
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее