ВОПРОС О ПРАВОВОЙ ПРИРОДЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ВОПРОС О ПРАВОВОЙ ПРИРОДЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Авторы публикации

Рубрика

Право

Просмотры

4

Журнал

Журнал «Научный лидер» выпуск # 38 (239), Сентябрь ‘25

Поделиться

В статье предлагается авторское определение искусственного интеллекта (ИИ), фокусирующееся на эмерджентных свойствах и функциональной автономии современных систем машинного обучения. Обосновывается непродуктивность дихотомии «сильный/слабый ИИ» для правового поля, поскольку актуальные правовые коллизии (ответственность, интеллектуальная собственность) порождаются именно эмерджентностью «слабого» ИИ, а не гипотетическим «разумом» сильного ИИ. Доказывается, что эмерджентность формирует основу для признания за сложными системами ИИ свойства квазисубъектности по аналогии с юридическими лицами. Делается вывод о необходимости разработки правовых моделей, адекватных функциональной автономии ИИ, а не поиска антропоморфных Qualia в машинах.

Стремительное развитие технологий искусственного интеллекта (ИИ) оказывает трансформационное воздействие на все сферы общественной жизни, включая экономику и право. Проникновение ИИ в область частноправовых отношений, в частности, в обязательственное право, порождает множество правовых коллизий. Традиционная правовая система, основанная на бинарной оппозиции «субъект-объект», оказывается неготовой к появлению сущностей, обладающих признаками автономности, адаптивности и способности к недетерминированному принятию решений.

Основная проблема заключается в правовой неопределенности статуса ИИ и, как следствие, в отсутствии четких механизмов распределения ответственности за действия (бездействие) автономных систем, причинивших вред в рамках договорных и внедоговорных обязательств. В данной статье будет проведен анализ современных правовых подходов к регулированию ИИ с целью определить его статус для разработки концептуальных рекомендаций для совершенствования российского законодательства.

Первый фундаментальный барьер на пути эффективного регулирования — отсутствие универсального и юридически функционального определения ИИ. Как показывает анализ, существующие подходы варьируются от понимания ИИ как инструмента или сложной компьютерной программы до признания за ним способности к имитации человеческого мышления [1, с. 1-2].

В Российской Федерации ключевое определение закреплено в Указе Президента РФ от 10.10.2019 № 490, где ИИ трактуется как «комплекс технологических решений», имитирующий когнитивные функции человека и способный получать результаты, «сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их» [2].

Данная дефиниция не является универсальной и представляет собой ряд недостатков, которые порождают новые правовое коллизии. Так, отсутствие границ определения создают широту охвата традиционных систем, не использующих машинное обучение [3, с. 689–707]. Законодательное определение не имеет четких правовых критериев «сопоставимости» и «превосходства» результатов, поскольку такая оценка результата действий ИИ не обладает техническими особенностями системы, не охватывает ее цель функционирования и существования, а также не учитывает актуальность базы данных, на которых происходило машинное обучение [4, с. 5-19]. В дополнении стоит указать на традиционное сравнение с человеком, которое исключает из регулирования системы, основанные на неантропоморфных алгоритмах (например, глубокое обучение на основе выявления статистических паттернов).

Современное российское законодательство характеризуется плюрализмом подходов к определению дефиниции «искусственный интеллект» (ИИ). Так, в пп. 2 п. 1 ст. 2 Федерального закона от 24.04.2020 № 123-ФЗ акцент сделан на имитационную деятельность ИИ, ключевым признаком которой является результативность действий [5]. В противоположность этому, ГОСТ Р 43.0.7-2011 определяет ИИ через призму контроля со стороны оператора, что фактически отрицает автономность системы [6].

Подобная разнородность дефиниций приводит к тому, что действующее законодательство не учитывает архитектурные особенности ИИ, позволяющие выделить его в отдельную категорию субъектов, и фактически отождествляет его с традиционным программным обеспечением. Для обеспечения стабильности и перспективного развития правового регулирования в данной сфере представляется необходимым учет многоуровневой системы классификации ИИ по степени автономности и уровню потенциального риска. Целесообразно законодательное закрепление таких терминов, как «автономность», «самообучение», «машинное обучение», «эмерджентность» и «адаптивность», с установлением объективных критериев отнесения систем ИИ к соответствующим категориям. Параллельно требует проработки вопрос о принципе сохранения человеческого контроля над ИИ, разработке специального правового статуса для высокоавтономных систем и распределении механизма ответственности за результаты их деятельности [7, с. 87].

Законодательный подход, установленный Указом Президента РФ № 490, несмотря на функциональную направленность и признание ключевого атрибута недетерминированности, содержит существенные внутренние противоречия. Его антропоцентричность, субъективность ключевых критериев и избыточная широта в определении технологической базы формируют системные риски для правовой определенности, адекватности регулирования и реализации Национальной стратегии развития ИИ до 2030 года. Важно отметить, что терминологический аппарат, используемый в Национальной стратегии (приложение к Указу № 490), имеет строго ограниченную сферу применения, что свидетельствует о сознательном избегании законодателем фиксации универсальных легальных дефиниций.

Можно предположить, что отказ законодателя от использования термина «система искусственного интеллекта» обусловлен рядом причин: во-первых, понятие «система» подразумевает завершенность и целостность объекта; во-вторых, акцент в регулировании смещен на функции, а не на форму их выражения; в-третьих, существующая формулировка не решает вопрос ответственности; в-четвертых, предпринята попытка гармонизации с международными подходами; в-пятых, в условиях быстрого технологического развития была допущена определенная упрощенность юридической техники для облегчения процесса доказывания вины разработчика, пользователя или оператора.

Выявленные дефекты правового определения свидетельствуют о необходимости его содержательного пересмотра. Перспективным направлением представляется движение в сторону большей технологической нейтральности, с акцентом на функционально-архитектурные признаки (автономность, адаптивность, способность к самообучению и недетерминированному принятию решений) и объективные критерии риска, а не на антропоморфные сравнения. Без такой корректировки действующая дефиниция не сможет служить надежной концептуальной основой для формирования эффективного и стабильного правового режима искусственного интеллекта в Российской Федерации.

В рамках данного исследования под «искусственным интеллектом» (ИИ) понимается высокоавтономная вычислительная система, основанная на алгоритмах машинного обучения и обработки данных. Ключевыми характеристиками такой системы являются: способность к недетерминированному принятию решений в динамичных и непредсказуемых средах, самостоятельное формирование и адаптация внутренних моделей для достижения поставленных целей, а также поддержание устойчивого уникального состояния через совокупность параметров, эволюционирующих в процессе обучения. Данная система не редуцируется полностью до исходного кода или данных на момент ее развертывания.

Представленная дефиниция акцентирована на продвинутых системах так называемого слабого ИИ, проявляющих свойства высокой автономии и эмерджентности. Она сознательно исключает гипотетические атрибуты сильного ИИ (универсальный интеллект, самосознание, рефлексию), онтологический статус которых в настоящее время не является научно верифицируемым и функциональным для правового регулирования.

Обоснованность предлагаемого определения подтверждается его операционализацией для решения правовых задач. Благодаря эмерджентным свойствам, слабый ИИ демонстрирует автономию на уровне «агента», генерируя последствия, которые не могут быть однозначно детерминированы действиями оператора (ср. со ст. 10 Федерального закона от 24.04.2020 N 123-ФЗ). Это создает правовые коллизии в области ответственности и интеллектуальной собственности, например, когда система генерирует контент, обладающий признаками оригинальности. Существующая модель ответственности оператора, закрепленная в законодательстве, вступает в противоречие с принципом вины (ст. 1064 ГК РФ), если вред причинен вследствие непредсказуемого, эмерджентного состояния системы после ее развертывания.

Таким образом, представляется логичным применение к сложным системам ИИ с эмерджентными свойствами правовой конструкции квазисубъектности по аналогии с юридическими лицами (ст. 48 ГК РФ), чей статус обусловлен не наличием сознания, а функциональной обособленностью. В данном контексте «прото-агентность» слабого ИИ, проявляющаяся в автономии и непредсказуемости результатов, функционально замещает философскую категорию «разума», приписываемую сильному ИИ.

Выводы, сформулированные в исследовании, сводятся к следующему:

  1. Дихотомия «сильный/слабый ИИ» является непродуктивной для права, поскольку именно слабый ИИ, обладая эмерджентностью, формирует функциональный эквивалент агентности, требующий правового опосредования.
  2. Правовые проблемы порождает не гипотетическое «сознание» машины, а ее эмерджентные свойства, ведущие к квазисубъектности.
  3. Законодателю следует сместить фокус с поиска аналогий с человеческим разумом на разработку адекватных правовых моделей, учитывающих функциональную автономию сложных систем ИИ и связанные с этим риски.

Список литературы

  1. Russell S., Norvig P. Artificial Intelligence: A Modern Approach [Искусственный интеллект: Современный подход]. Third Edition. – Boston: Prentice Hall, 2010. – xviii; 1132 p. – P. 1–2
  2. Указ Президента РФ от 10.10.2019 № 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // «Собрание законодательства РФ», 14.10.2019, N 41, ст. 5700
  3. Floridi L., et al. AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations // Minds and Machines. 2018. Vol. 28. P. 689–707
  4. Лазарев В.В. Технологическая нейтральность права в условиях цифровизации // Журнал российского права. 2020. № 9. С. 5–19
  5. Федеральный закон от 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» // «Собрание законодательства РФ», 27.04.2020, N 17, ст. 2701
  6. «ГОСТ Р 43.0.7-2011. Национальный стандарт Российской Федерации. Информационное обеспечение техники и операторской деятельности. Гибридно-интеллектуализированное человекоинформационное взаимодействие. Общие положения» (утв. и введен в действие Приказом Росстандарта от 13.12.2011 N 1242-ст) // М.: Стандартинформ, 2013
  7. Распоряжение Правительства РФ от 19.08.2020 N 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года» // «Собрание законодательства РФ», 31.08.2020, № 35, ст. 5593
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Остался последний день
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее