ЦИФРОВЫЕ СЛЕДЫ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДМЕТЕ ДОКАЗЫВАНИЯ ПО ДЕЛИКТНЫМ СПОРАМ

ЦИФРОВЫЕ СЛЕДЫ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРЕДМЕТЕ ДОКАЗЫВАНИЯ ПО ДЕЛИКТНЫМ СПОРАМ

Авторы публикации

Рубрика

Юриспруденция

Просмотры

72

Журнал

Журнал «Научный лидер» выпуск # 52 (253), Декабрь ‘25

Поделиться

В статье исследуется проблема трансформации институтов гражданско-правовой ответственности в условиях активного внедрения систем искусственного интеллекта (ИИ). Автор анализирует феномен «цифровой непрозрачности» алгоритмов и обосновывает необходимость перехода от классических деликтных моделей к риск-ориентированному подходу. Особое внимание уделяется процессуальному значению технических логов (журналов регистрации событий) как ключевому инструменту преодоления информационной асимметрии между разработчиком и потерпевшим. Предлагается авторская концепция дифференциации ответственности в зависимости от уровня риска системы ИИ, а также обосновывается необходимость закрепления процессуальных презумпций в случае уклонения владельца ИИ от предоставления цифровых следов. Исследование базируется на сравнительном анализе Регламента ЕС 2024/1689 (EU AI Act) и российского законодательства об экспериментальных правовых режимах.

Стремительная интеграция систем искусственного интеллекта (ИИ) в социально-экономические отношения (от беспилотного транспорта до алгоритмического скоринга в банковской сфере) ставит перед правовой наукой фундаментальный вызов. Традиционные институты гражданского права, прежде всего институт деликтной ответственности, сталкиваются с феноменом «цифровой непрозрачности» или «проблемой черного ящика». В условиях, когда алгоритм принимает решения автономно, классическая доктрина вины, основанная на психическом отношении субъекта к своим действиям, оказывается неэффективной.

 

Актуальность исследования обусловлена необходимостью выработки новых критериев квалификации ответственности, которые бы балансировали интересы технологического прогресса и защиту прав потерпевших. Автор полагает, что решение кроется в синергии материально-правового риск-ориентированного подхода и процессуального механизма интеграции технических логов в предмет доказывания. Без детальной фиксации цифровых следов судебная интерпретация действий ИИ превращается в гадание, что недопустимо для принципа правовой определенности.

 

Методологическую основу работы составил комплекс общенаучных и специальных юридических методов: диалектический метод, сравнительно-правовой метод, метод формально-юридического анализа, примененный для деконструкции понятия «цифровой след» как доказательства в цивилистическом процессе, технико-юридический метод, позволивший сопоставить технические параметры логирования систем ИИ с процессуальным стандартом доказывания.

 

Теоретическая база исследования опирается на работы отечественных ученых, заложивших основы цифрового права. В частности, вопросы правовой природы ИИ и ответственности за его действия подробно рассматриваются в трудах В.В. Архипова и В.Б. Наумова [10, 15]. Проблематика электронных доказательств и их места в системе гражданского процесса глубоко проанализирована в работах Д.В. Бахтеева, указывающего на необходимость «технологизации» судебного познания [10].

 

В качестве нормативной опоры авторы обращаются к положениям Федерального закона от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования... в городе Москве», который стал первой практической площадкой для апробации систем ИИ в России [5], а также к Регламенту (ЕС) 2024/1689 (EU AI Act), который вводит классификацию систем ИИ по уровням риска — модель, предлагаемую автором для интеграции в отечественную судебную практику [8].

 

Фундаментальной проблемой квалификации ответственности за действия систем искусственного интеллекта (ИИ) является невозможность применения единого правового стандарта к технологиям с различной степенью автономности и потенциального вреда. В связи с этим в современной доктрине и международной практике утверждается риск-ориентированный подход (risk-basedapproach), предполагающий соразмерность правового регулирования уровню угрозы охраняемым законом интересам.

Ключевым ориентиром для классификации рисков сегодня выступает Регламент (ЕС) 2024/1689 (EU AI Act) [8]. Данный документ внедряет иерархическую модель, которую целесообразно адаптировать для целей российского гражданского права при определении оснований ответственности:

  1. Неприемлемый риск: Системы, использующие методы когнитивного манипулирования или социального скоринга (запрещены).
  2. Высокий риск: Системы, применяемые в критической инфраструктуре, образовании, медицине и правоохранительных органах.
  3. Ограниченный и минимальный риск: Чат-боты, рекомендательные системы, спам-фильтры.

Для систем высокого риска материальное право должно устанавливать повышенный стандарт «алгоритмической осмотрительности». Как отмечает В. Б. Наумов, специфика ИИ как объекта правового регулирования требует признания того, что сложность системы сама по себе генерирует дополнительные правовые риски, которые не могут быть полностью нивелированы конечным пользователем [14].

Авторы предлагает квалифицировать ответственность в зависимости от класса риска следующим образом:

  1. Для систем низкого риска: Сохранение классической деликтной модели, основанной на принципе вины (ст. 1064 ГК РФ) [1]. Бремя доказывания противоправности действий алгоритма в данном случае лежит на истце.
  2. Для систем высокого риска: Применение модели безвиновной ответственности по аналогии с владением источником повышенной опасности (ИПО) согласно ст. 1079 ГК РФ [1].

Логика такой дифференциации заключается в том, что владелец высокорискового ИИ извлекает выгоду из его эксплуатации и при этом создает объективно повышенную угрозу окружающим. В этом контексте риск рассматривается не как субъективное отношение лица к возможным последствиям, а как объективное основание для возложения убытков.

Риск-ориентированный подход неразрывно связан с обязанностью оператора обеспечивать прозрачность системы. В соответствии со ст. 12 Регламента (ЕС) 2024/1689, высокорисковые системы ИИ должны технически обеспечивать автоматическую запись событий (логирование) в течение всего жизненного цикла [8].

С точки зрения материального права, несоблюдение требований к логированию в высокорисковых системах должно квалифицироваться как самостоятельное нарушение стандарта осмотрительности. Это создает мостик к процессуальному праву: если риск системы высок, а механизмы фиксации цифровых следов отсутствуют или повреждены, закон должен презюмировать наличие вины владельца в причинении вреда.

Мы переходим от теоретической квалификации рисков к практическому инструментарию их подтверждения в судебном процессе. Здесь технические параметры работы алгоритма трансформируются в юридически значимые факты.

Установление гражданско-правовой ответственности в спорах, связанных с искусственным интеллектом, требует рекуперации событий, предшествовавших деликту. Единственным объективным источником информации о «внутренней логике» и фактических действиях автономной системы являются технические логи (журналы регистрации событий).

С технической точки зрения, логи — это хронологические записи параметров функционирования системы. В контексте судебного доказывания их следует классифицировать на три уровня:

  1. Логи входных данных (Inputlogs): фиксируют информацию, полученную системой извне (датчики, пользовательский ввод). Они позволяют определить, была ли ошибка вызвана некорректными внешними данными.
  2. Логи процесса (System/Decisionlogs): отражают промежуточные этапы «рассуждений» ИИ, включая весовые коэффициенты и сработавшие алгоритмические правила.
  3. Логи выходных данных (Outputlogs): фиксируют итоговое решение или команду, переданную исполнительному механизму.

Как отмечает Д. В. Бахтеев, цифровые следы такого рода обладают свойством «технологической объективности», однако их использование в суде осложнено проблемой их интерпретации [10]. Юридическое значение имеет не сам набор символов в лог-файле, а его способность подтвердить наличие или отсутствие отклонений от нормативного алгоритма работы.

Для того чтобы технический лог мог стать «фундаментом» доказывания, он должен соответствовать критериям достоверности и неизменности. В международной практике, в частности в Регламенте (ЕС) 2024/1689 (AI Act), устанавливается обязанность разработчиков высокорисковых систем обеспечивать автоматическое ведение журналов (loggingcapabilities) (ст. 12) [8].

В российском праве требования к фиксации цифровых данных в экспериментальных правовых режимах (ЭПР) регулируются положениями Федерального закона № 258-ФЗ [4]. Для целей судебного спора принципиально важно, чтобы логи:

  • фиксировались в некорректируемом виде (например, с использованием хэширования или технологий распределенных реестров);
  • содержали метки точного времени (Timestamp), синхронизированные с единым источником;
  • были доступны для расшифровки без раскрытия конфиденциального исходного кода всей системы.

Интеграция логов в предмет доказывания позволяет суду отойти от абстрактных предположений о «сбое» к конкретному анализу: имела ли место ошибка программирования (defectbydesign), ошибка эксплуатации или внешнее несанкционированное вмешательство. Таким образом, логи становятся первичным звеном в цепочке установления причинно-следственной связи.

Этот раздел является кульминацией работы, так как именно здесь материально-правовая концепция риска переходит в практическую плоскость доказывания. В нем мы обоснуем, как технические данные превращаются в процессуальные аргументы.

Процессуальное значение технических логов заключается в их способности преодолеть «информационную асимметрию» между разработчиком (владельцем) ИИ и пострадавшим лицом. В рамках риск-ориентированного подхода интеграция цифровых следов в предмет доказывания должна базироваться на принципе технологической подотчетности.

Авторы обосновывают, что для систем высокого риска предоставление логов должно являться не правом, а процессуальной обязанностью ответчика (владельца ИИ). Это вытекает из духа Федерального закона от 31.07.2020 № 258-ФЗ, который в статьях 7 и 10 устанавливает необходимость мониторинга и фиксации результатов деятельности в рамках экспериментальных правовых режимов [4].

Если система ИИ причинила вред, а ответчик уклоняется от представления технических логов, судам следует руководствоваться правовой позицией, изложенной в п. 38 Постановления Пленума Верховного Суда РФ от 23.12.2021 № 46 [7]. Согласно данному разъяснению, в случае неисполнения обязанности представить истребуемое судом доказательство по причинам, признанным арбитражным судом неуважительными, либо неизвещения суда о невозможности представления доказательства вообще или в установленный срок арбитражный суд вправе отнести на такое лицо судебные расходы в соответствии с частью 2 статьи 111 АПК РФ (часть 2 статьи 9, статья 65, часть 5 статьи 159 АПК РФ), а также обосновать свои выводы объяснениями другой стороны (часть 1 статьи 68 ГПК РФ, часть 5 статьи 3 АПК РФ).

Так же, при удержании доказательства возможно применить ч. 3.1 ст. 70 АПК РФ (или по аналогии закона для ГПК РФ), по которой обстоятельства, на которые ссылается сторона в обоснование своих требований или возражений, считаются признанными другой стороной, если они ею прямо не оспорены или несогласие с такими обстоятельствами не вытекает из иных доказательств, обосновывающих представленные возражения относительно существа заявленных требований.

Таким образом, непредставление цифровых следов в высокорисковых системах должно квалифицироваться как процессуальная недобросовестность. В совокупности со ст. 10 ГК РФ (пределы осуществления гражданских прав) и принципом эстоппель, это позволяет суду переложить бремя доказывания отсутствия вины на владельца ИИ. Невозможность верификации действий алгоритма из-за отсутствия записей в журнале событий должна трактоваться как подтверждение версии истца о наличии сбоя или противоправного алгоритмического действия.

Ключевым вызовом является соблюдение баланса между правом на судебную защиту и защитой коммерческой тайны. В соответствии с подходом, закрепленным в EU AI Act (Regulation 2024/1689), прозрачность (Transparency) подразумевает не раскрытие исходного кода, а интерпретируемость выходных данных.

Для отечественного процесса это означает, что предметом доказывания становятся не сами математические формулы, а соответствие действий ИИ параметрам «штатной эксплуатации», зафиксированным в логах. Как отмечает В. А. Лаптев, электронные доказательства такого рода требуют специальной процедуры верификации, проводимой в рамках судебной технической экспертизы, где эксперт выступает «переводчиком» технического лога на язык правовых категорий [16].

Интеграция логов позволяет суду установить:

  1. Имело ли место внешнее вмешательство (киберкорректность);
  2. Соблюдал ли пользователь инструкции по эксплуатации;
  3. Является ли ошибка следствием дефекта проектирования системы.

Переход к риск-ориентированному подходу неизбежно ставит вопрос о пределах судебного усмотрения при оценке действий автономных систем. Основным риском здесь выступает процессуальное неравенство (информационная асимметрия), при котором одна из сторон (разработчик или оператор ИИ) обладает монополией на знание о внутреннем устройстве технологии, в то время как суд и потерпевший ограничены лишь внешними проявлениями сбоя.

Процессуальное неравенство в спорах об ИИ проявляется в том, что технические логи, являясь по сути доказательствами, генерируются и хранятся на стороне ответчика. В связи с этим пределом судебной интерпретации должна стать концепция «права на объяснение» (righttoexplanation), заложенная в общеевропейском регламенте GDPR и развитая в EU AI Act (Regulation 2024/1689).

Суд не может интерпретировать логи произвольно. Пределом здесь выступает техническая документация и стандарты безопасности. Как подчеркивает В. В. Архипов, юридическая оценка не должна подменять собой техническую экспертизу: суд интерпретирует не код, а юридически значимые последствия его исполнения через призму «разумной осмотрительности» [9].

Другим пределом интерпретации является недопустимость ситуации, когда решение суда полностью делегируется алгоритму или экспертному заключению без критического правового анализа. Риск «процессуального неравенства» возрастает, если суд принимает технический лог как «неоспоримую истину».

Для нивелирования этого риска авторы предлагают использовать стандарт «алгоритмической подотчетности». Если владелец высокорисковой системы не может предоставить интерпретируемые данные о причинах сбоя (ссылаясь на сложность архитектуры), это не должно освобождать его от ответственности. Напротив, согласно правовой позиции, изложенной в п. 10 Постановления Пленума ВС РФ от 23.12.2021 № 46, непредставление доказательств одной стороной позволяет суду сделать выводы в пользу позиции другой стороны для восстановления процессуального баланса [7].

Для обеспечения реального равенства сторон в предмет доказывания должны включаться не только логи, но и сведения о системе управления рисками, которую разработчик обязан внедрять согласно ст. 9 Regulation (EU) 2024/1689. Если ответчик докажет, что им были приняты все возможные меры по логированию и контролю, это может служить основанием для ограничения его ответственности. Однако в отсутствие прозрачности «процессуальное неравенство» должно компенсироваться судом через перераспределение бремени доказывания.

Проведенное исследование позволяет сделать вывод о том, что классические деликтные модели в их неизменном виде не способны обеспечить адекватную правовую защиту в спорах, связанных с применением систем искусственного интеллекта. Решение проблемы «цифровой непрозрачности» требует перехода к риск-ориентированному подходу, который связывает материально-правовое основание ответственности с процессуальными обязанностями по сохранению и представлению данных.

По итогам работы сформулированы следующие ключевые положения:

Дифференциация ответственности. Квалификация ответственности за действия ИИ должна напрямую зависеть от установленного уровня риска системы. Для высокорисковых технологий (транспорт, медицина, критическая инфраструктура) целесообразно законодательное закрепление модели безвиновной ответственности (по аналогии со ст. 1079 ГК РФ), в то время как для систем низкого риска приоритетной остается классическая презумпция вины.

Технические логи как обязательный элемент предмета доказывания. В условиях информационной асимметрии технические логи (системные журналы) перестают быть факультативными доказательствами и становятся базисом для реконструкции юридических фактов. Автор предлагает признать несоблюдение стандартов логирования в высокорисковых системах формой противоправной небрежности оператора.

Преодоление доказательственного неравенства. Предлагается закрепить в судебной практике (через Постановления Пленума ВС РФ) правило, согласно которому уклонение владельца ИИ от предоставления интерпретируемых логов влечет применение последствий, предусмотренных ч. 3.1 ст. 70 АПК РФ и правовыми позициями об удержании доказательств. Это позволит выровнять положение «слабой стороны» процесса.

Пределы судебной интерпретации. Судебная оценка должна ограничиваться анализом соответствия действий ИИ алгоритмическому регламенту и стандартам безопасности, не подменяя техническую экспертизу. При этом коммерческая тайна разработчика не может служить абсолютным основанием для отказа в доступе к логам, если их отсутствие делает невозможным установление причинно-следственной связи.

Внедрение предложенных подходов позволит трансформировать судебный процесс из «борьбы догадок» о причинах сбоя в прозрачную процедуру оценки технологических рисков. Это обеспечит необходимый баланс между стимулированием инноваций и защитой прав граждан в условиях цифровой трансформации правопорядка.

Список литературы

  1. Гражданский кодекс Российской Федерации (часть вторая) : Федеральный закон от 26.01.1996 № 14-ФЗ : [принят Государственной Думой 22 декабря 1995 года]. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_9027/ (дата обращения: 22.12.2025)
  2. Арбитражный процессуальный кодекс Российской Федерации : Федеральный закон от 24.07.2002 № 95-ФЗ (ред. от 01.04.2025): [принят Государственной Думой 14 июня 2002 года]. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_37800/ (дата обращения: 22.12.2025)
  3. Гражданский процессуальный кодекс Российской Федерации : Федеральный закон от 14.11.2002 № 138-ФЗ(ред. от 31.07.2025) : [принят Государственной Думой 23 октября 2002 года : одобрен Советом Федерации 30 октября 2002 года]. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_39570 / (дата обращения: 22.12.2025)
  4. Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации : Федеральный закон от 31.07.2020 № 258-ФЗ : [принят Государственной Думой 22 июля 2020 года : одобрен Советом Федерации 24 июля 2020 года]. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_358738/ (дата обращения: 22.12.2025)
  5. О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве : Федеральный закон от 24.04.2020 № 123-ФЗ : [принят Государственной Думой 14 апреля 2020 года : одобрен Советом Федерации 17 апреля 2020 года]. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_351127 / (дата обращения: 22.12.2025)
  6. О развитии искусственного интеллекта в Российской Федерации (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») : Указ Президента РФ от 10.10.2019 № 490. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_335184/ (дата обращения: 22.12.2025)
  7. О применении Арбитражного процессуального кодекса Российской Федерации при рассмотрении дел в суде первой инстанции : Постановление Пленума Верховного Суда РФ от 23.12.2021 № 46. — Текст : электронный // СПС «КонсультантПлюс». — URL: https://www.consultant.ru/document/cons_doc_LAW_404664/ (дата обращения: 22.12.2025)
  8. Об искусственном интеллекте (Закон об ИИ) : Регламент (ЕС) 2024/1689 Европейского парламента и Совета от 13 июня 2024 г. : [принят 13 июня 2024 г. : вступает в силу 1 августа 2024 г.]. — URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 (дата обращения: 22.12.2025). — Текст : электронный
  9. Архипов, В. В. Искусственный интеллект и автономные роботы: правовые аспекты разработки понятийного аппарата / В. В. Архипов, В. Б. Наумов. — Текст : непосредственный // Труды Института государства и права РАН. — 2017. — Т. 12, № 5. — С. 46–62
  10. Бахтеев, Д. В. Искусственный интеллект: этико-правовые основы : монография / Д. В. Бахтеев. — Москва : Проспект, 2021. — 192 с. — ISBN 978-5-392-34065-1. — Текст : непосредственный
  11. Брагинец, Ю. Н. Цифровые следы как доказательства в гражданском и арбитражном процессе / Ю. Н. Брагинец. — Текст : непосредственный // Вестник гражданского процесса. — 2022. — № 4. — С. 115–130
  12. Вехов, В. Б. Работа с электронными доказательствами в условиях цифровой трансформации / В. Б. Вехов. — Текст : непосредственный // Российский следователь. — 2020. — № 6. — С. 3–7
  13. Зайцев, В. В. Актуальные проблемы доказывания в гражданском процессе в условиях цифровизации / В. В. Зайцев. — Текст : непосредственный // Вестник гражданского процесса. — 2021. — Т. 11, № 1. — С. 54–71
  14. Наумов, В. Б. Право в эпоху цифровой трансформации: поиск решений / В. Б. Наумов. — Текст : непосредственный // Журнал российского права. — 2018. — № 7. — С. 24–36
  15. Понкин, И. В. Искусственный интеллект с точки зрения права / И. В. Понкин, А. И. Редькина. — Текст : непосредственный // Вестник Российского университета дружбы народов. Серия: Юридические науки. — 2018. — Т. 22, № 1. — С. 91–109
  16. Лаптев, В. А. Электронные доказательства в арбитражном процессе / В. А. Лаптев, Н. И. Соловяненко. — Текст : непосредственный // Российская юстиция. — 2017. — № 2. — С. 39–42
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Осталось 3 дня до окончания
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее