ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕХАНИЗМЕ ОТПРАВЛЕНИЯ ПРАВОСУДИЯ

ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В МЕХАНИЗМЕ ОТПРАВЛЕНИЯ ПРАВОСУДИЯ

Авторы публикации

Рубрика

Юриспруденция

Просмотры

4

Журнал

Журнал «Научный лидер» выпуск # 19 (272), Май ‘26

Поделиться

Вопрос внедрения искусственного интеллекта в судебную систему обсуждается уже не первый год. При этом, по мнению юристов, применение ИИ судьями способно повлиять не только на процессуальные аспекты, но и затронуть ценностные основы правовой системы. В данной статье анализируются как новые возможности, так и потенциальные риски, связанные с использованием искусственного интеллекта в сфере правосудия.

В юриспруденции, как и в ряде других сфер, искусственный интеллект (далее - ИИ) рассматривается как инструмент, способный поддерживать, трансформировать и частично заменять человеческое принятие решений [3]. Уже сегодня судьи все чаще используют алгоритмический анализ при решениях о залоге и условно-досрочном освобождении, от которых ежегодно зависит судьба тысяч людей [3]. ИИ перестал быть технологией будущего - он уже внедряется в судебную практику. В ряде стран такие решения активно тестируются: например, в Эстонии обсуждалась идея использования «судьи-робота» для малых исков, а в Китае развиваются цифровые суды [3][5].

Тем временем исследователи уже рассматривают перспективы внедрения судей-роботов, способных определять вину, меру ответственности и назначать санкции [3]. При этом до конца не ясно, как решения, принимаемые искусственным интеллектом, повлияют на работу судов, юридическую профессию и саму правовую систему в целом [3].

Термин «искусственный интеллект» остается предметом многочисленных споров. Если значение слова «искусственный» относительно очевидно и противопоставляется «естественному», то понятие «интеллект» трактуется значительно сложнее. Его по-разному понимают представители различных наук, из-за чего вокруг него продолжаются дискуссии среди философов, психологов и исследователей. Под интеллектом обычно подразумевают способность к абстрактному и логическому мышлению, выявлению взаимосвязей, решению задач, поиску закономерностей в неструктурированных данных, адаптации к новым условиям и самостоятельному обучению [1]. Как отмечает М. Шерер, в научной литературе по ИИ это понятие чаще всего рассматривается в широком смысле, с опорой на модель человеческого интеллекта [1]. Определение того, в какой мере компьютер способен воспроизводить интеллектуальные функции, а также установление границ между искусственным и человеческим интеллектом напрямую влияет на ключевой вопрос: способен ли судья на основе ИИ выносить обоснованные решения и обеспечивать защиту прав.

Независимо от категории дел, деятельность судов и судей по своей сути сводится к обработке информации: стороны представляют данные, в ходе разбирательства они анализируются и преобразуются, а итогом также становится информация в виде судебного решения [2]. При этом далеко не вся такая обработка является сложной. Лишь сравнительно небольшая часть дел отличается высокой степенью сложности и противоречивости. Важно учитывать, что сам процесс рассмотрения дел, а значит и потребность в применении информационных технологий, существенно различаются в зависимости от конкретной ситуации [2].

В административных и гражданских делах формат рассмотрения во многом определяется двумя факторами: сложностью информации по делу и степенью предсказуемости исхода [2]. Значительная часть типовых дел имеет заранее ожидаемый результат. В подобных ситуациях судебное решение фактически оформляется как документ, формируемый преимущественно в автоматическом режиме на основе представленных данных. По этой причине обработка таких обращений может быть частично или полностью автоматизирована с использованием ИИ, поскольку итог в значительной степени предопределен [2].

В менее типичных ситуациях стороны нередко приходят к мировым соглашениям в рамках примирительных процедур. Для внесудебного урегулирования споров уже используются программные решения, которые анализируют позиции сторон и предлагают оптимальные варианты исхода [2]. Лишь в тех случаях, когда соглашение не достигнуто, разбирательство завершается вынесением судебного решения в его классическом понимании [2].

В сложных делах, где судья или коллегия обязаны вынести итоговое решение, роль информационных технологий сводится прежде всего к использованию продвинутых систем. Они обеспечивают быстрый доступ к юридическим источникам и позволяют работать с цифровыми досье, которые структурируют большие массивы данных и представляют их в удобной и понятной форме [2].

Искусственный интеллект также относится к информационным технологиям, поэтому его применение может существенно различаться в зависимости от задач [2]. Основные направления использования можно выделить следующим образом.

1) Организация данных.

ИИ способен выявлять закономерности в текстах и документах, что особенно полезно при обработке большого массива обращений или в сложных делах с большим объемом информации. Пример -система eDiscovery в США, представляющая собой автоматизированный анализ электронной информации до начала судебного процесса. С помощью машинного обучения ИИ определяет наиболее эффективные алгоритмы для извлечения релевантных данных. Практика показывает, что такой подход быстрее и точнее ручной обработки [2].

2) Консультирование.

ИИ может использоваться для оказания консультативной помощи - например, для людей, которые сталкиваются с правовой проблемой, но не понимают, какие шаги им доступны и как действовать [2].

3) Прогнозирование.

Особый интерес вызывает способность ИИ предсказывать исходы судебных дел. Последовательное прогнозирование решений традиционно затруднено из-за явления правовой неопределенности. Она снижает эффективность правовой системы, мешая достижению таких целей, как предотвращение противоправного поведения и стимулирование экономической активности [1]. По мере усложнения дел -с ростом объема информации и числа факторов - уровень неопределенности только увеличивается. Именно поэтому к ИИ проявляется повышенное внимание: предполагается, что его применение способно частично снизить эту непредсказуемость [1][2].

Для анализа потенциала ИИ в сфере правосудия Р. Ре и А. Солоу-Нидерман выделяют две условные модели судебного процесса: справедливое правосудие и кодифицированное правосудие [3]. Они подчеркивают, что, несмотря на кажущуюся новизну решений, принимаемых с участием ИИ, эта тема напрямую связана с давними дискуссиями о природе и целях права, в частности -о допустимых пределах судебного усмотрения [3].

Справедливое правосудие предполагает не только осмысление ценностей, закрепленных в правовой системе, но и их обоснованное применение с учетом обстоятельств конкретного дела. В отличие от нормотворчества, оно допускает отход от универсальных моделей в пользу учета индивидуальных факторов. Такая дискреция требует легитимации - через детальные обоснования решений, основанные на правовых принципах и фактах дела [3].

Кодифицированное правосудие, напротив, строится на рутинном применении стандартизированных процедур к установленному набору фактов. Со временем такие процедуры могут оформляться в виде системы правил -своего рода «юридического алгоритма», применимого к большому числу дел. Этот подход стремится заранее зафиксировать все значимые переменные, игнорируя иные обстоятельства, выявляемые в процессе разбирательства. Его цель -сократить пространство для усмотрения, снизить риски произвола и предвзятости, а также повысить эффективность, последовательность и прозрачность судебных решений [3].

Таким образом, кодифицированное правосудие акцентирует недостатки дискреции, тогда как справедливое -ее преимущества. На практике любая судебная система сочетает оба подхода, а вопрос баланса между ними остается дискуссионным [3].

По мнению Р. Ре и А. Солоу-Нидерман, использование ИИ в судебной практике усиливает тенденцию к кодифицированному правосудию. Это вызывает опасения, поскольку ИИ создает новые источники данных, стимулы и возможности, смещающие баланс в сторону стандартизации за счет индивидуализированного подхода [3]. В результате меняются не только механизмы принятия решений, но и сами ценностные ориентиры права, что влияет как на содержание судебных актов, так и на процедуры их обжалования [3].

Принятие решений с использованием ИИ формирует новые стимулы для критики дискреции, характерной для справедливого правосудия и человеческого суждения в целом. С учетом растущего объема данных о когнитивных искажениях и возможной предвзятости судей-людей, судьи-роботы могут восприниматься как более нейтральный и прозрачный инструмент [3]. Даже при их ошибках разработчики делают акцент на возможности дальнейшего совершенствования, создавая ожидание достижения более «идеального» судебного решения [3].

При этом связь между ИИ и кодифицированным правосудием не является неизбежной. Использование ИИ может, вопреки ожиданиям, поддерживать и даже усиливать элементы справедливого правосудия. Например, автоматизация части процессов способна освободить время судей для более глубокого анализа и применения дискреции. Кроме того, противопоставление «робот - кодификация» и «человек -справедливость» чрезмерно упрощает реальную картину [3].

Одновременно внедрение ИИ порождает ряд системных проблем, затрагивающих ключевые аспекты человеческого суждения: понимание, адаптацию, доверие и участие [3].

1) Непрозрачность.

Алгоритмы, особенно основанные на машинном обучении, часто работают как «черный ящик». Связь между входными данными и итоговым решением может быть настолько сложной, что ее невозможно интерпретировать, что снижает контролируемость судебных решений [3].

2) Датафикация.

Эффективность ИИ требует больших массивов данных. Однако акцент на доступной информации может искажать правовую оценку. Если исходные данные содержат системные предубеждения, алгоритмы будут воспроизводить и усиливать эти искажения [3].

3) Разочарование в традиционном правосудии.

Развитие ИИ усиливает критику существующих практик. Технологические компании и сторонники автоматизации заинтересованы в демонстрации недостатков человеческого правосудия и продвижении алгоритмических решений. Такая критика часто находит отклик, поскольку проблемы в работе судей-людей действительно существуют, но ранее могли игнорироваться [3].

В итоге ИИ не только меняет инструменты принятия решений, но и влияет на восприятие самого института правосудия, усиливая дискуссию о границах человеческого усмотрения и роли технологий [3].

Даже если решения, принятые с использованием ИИ, также оказываются спорными или ошибочными, их сравнительная привлекательность способна усиливать разочарование в традиционном человеческом правосудии. Это может приводить к снижению доверия к его эффективности, демократической легитимности, авторитету и внутренней ценности. Иными словами, внедрение ИИ в судебную практику высвечивает слабые стороны человеческого правосудия - и этот результат может оказаться для общества неудобным [3].

Со временем судьи-роботы смогут выполнять значительную часть задач, которые сегодня решают юристы: формулировать правовые аргументы, оценивать достоверность показаний и определять характер и строгость санкций [3]. Это приведет к смещению от публичного обсуждения, характерного для справедливого правосудия, к более кодифицированной модели, где ключевую роль играют специалисты в области технологий, а не юристы и общество. При этом ряд теорий процессуального правосудия рассматривает участие общества как самостоятельную ценность, поэтому его сокращение может подорвать легитимность правовой системы [3].

При этом сама технология -лишь часть вопроса. Не менее важно, как именно она применяется на практике. В этом контексте рабочая группа по качеству при Комиссии по эффективности правосудия Совета Европы сформулировала и приняла в 2018 году этические принципы использования ИИ в правосудии [2][4], среди которых:

  • уважение основных прав человека;
  • равенство сторон;
  • защита и безопасность данных;
  • прозрачность алгоритмов;
  • контроль ИИ со стороны человека [4].

Расширение применения ИИ способно существенно изменить не только практику правосудия, но и институциональные стимулы, распределение власти и ценностные ориентиры как юристов, так и общества. Вероятным результатом станет усиление принципов кодифицированного правосудия, что, в свою очередь, будет стимулировать дальнейшее внедрение ИИ [3].

По мере распространения таких решений их недостатки также будут масштабироваться. Поэтому поиск оптимальной модели требует учитывать не только технологические и правовые аспекты, но и влияние ИИ на само понимание правосудия -как в человеческом, так и в алгоритмическом измерении [2][3].

Список литературы

  1. 1. Scherer M. Artificial Intelligence and Legal Decision-Making: The Wide Open? // Journal of International Arbitration. 2019. Vol. 36. No. 5. P. 539–573.
  2. 2. Reiling A. D. (Dory). Courts and Artificial Intelligence // International Journal for Court Administration. 2020. Vol. 11. No. 2. Article 8. DOI: 10.36745/ijca.343.
  3. 3. Re R. M., Solow-Niederman A. Developing Artificially Intelligent Justice // Stanford Technology Law Review. 2019. Vol. 22. P. 242–289.
  4. 4. Council of Europe, CEPEJ. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment. Adopted on 3–4 December 2018.
  5. 5. Чурикова А. Ю. Искусственный интеллект в уголовном процессе: возможности и риски использования // Информационное право. 2023. № 1 (78). С. 22–25.
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Остался последний день
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее