Правда ли, что скоро у нас будет робот-судья?

(Ди Энрика Приоло)
21/02/22

Человек и машина. Сочетание, к которому мы уже привыкли и которое пугает каждый раз, когда оно произносится. Основная дилемма состоит в том, чтобы понять, до какой степени человек должен давать машине пространство для маневра.

Одной из областей знаний, в которой ведется больше дискуссий, несомненно, является юриспруденция, в частности так называемые автоматизированные судебные решения.

Это правда, что очень скоро у нас будет робот-судья.? Чтобы ответить, сначала определите, что имеется в виду, вообще говоря, под предсказанием и предсказанием.

Они существуют по крайней мере четыре ситуации в котором закон и операторы (юристы и законодатели) измеряют себя «прогнозом» или необходимостью/умением заранее видеть и оценивать то, что произойдет в будущем. Давайте посмотрим на них.

1) Нормативное положение. В лексиконе правоведов нередко фигурирует выражение «нормативное предсказание» для обозначения абстрактной ситуации, которую представляет себе законодатель и с существованием которой вновь связывается возникновение определенных последствий. В определенных контекстах он совпадает с так называемым «абстрактным случаем».

Понятие предсказания, таким образом, присуще понятию нормы: задача последней состоит в том, чтобы предвосхитить возможную ситуацию в будущем. Когда мы интерпретируем нормативное предложение, мы вынуждены, с одной стороны, представить себе фактические обстоятельства, в которых оно может быть применено, а с другой — задаться вопросом о причине этого положения, пытаясь выявить причины, побудившие законодателя делать или не делать определенный выбор.

2) Предсказуемость/предсказуемость реакции правовой системы: правовая определенность.

Предсказание исхода спора ставится в перспективе, связанной с только что сказанным.

Приговор знаменует собой переход от абстрактного «нормативного положения» к правосудию отдельного случая, к которому применяется это положение. Это момент, когда конкретный случай идеально адаптируется к абстрактному в соответствии с силлогистической моделью рассуждения. Идея «исчислимого права» основывается на убеждении, что исход любого спора должен быть «предсказуемым». Именно это допущение придает содержание одному из столпов нашей правовой цивилизации: «юридической определенности». Принудительная правовая система по отношению к данной проблеме всегда должна давать один и тот же ответ. Потому что определенным является только то, что предсказуемо. 

3) Прогноз эффектов регулирования.

Принимая точку зрения регуляторов/законодателей (и юристов, которые с ними сотрудничают), следует помнить, что в течение нескольких лет все больше внимания уделялось необходимости «предвидеть» последствия правил и положений: правила должны быть выдаваться только в том случае, если по окончании надлежащего расследования имеется достаточная уверенность в том, что они будут иметь желаемые и ожидаемые последствия.

Поэтому необходимо иметь разумную возможность «предсказать»:

а) как сотрудники будут реагировать на новые правила (будут ли они поддерживать желаемое и/или навязанное поведение);

б) действительно ли эффекты, производимые новыми правилами, приведут к достижению желаемых целей.

4) Предсказание/предсказание искусственного интеллекта.

Новый рубеж представлен прогностическими способностями искусственного интеллекта, даже если правильнее сказать, "наука о данных" и "сбор данных" применительно к миру права («правовая аналитика»). Оставляя в стороне известный случай с Лумисом в США (в котором программному обеспечению КОМПАС, по-видимому, была делегирована способность предсказывать склонность мистера Лумиса к рецидивам), здесь мы имеем в виду способность разрабатывать прогнозы с помощью вероятностного расчета, проводимого алгоритмы, работающие на простой статистической или логической основе.

Правовая аналитика может быть использована для прогнозирования исхода судебного решения. 

В 2016 году, например, было проведено исследование, которое, благодаря достижениям в области обработки естественного языка и машинного обучения, было направлено на создание прогностических моделей, полезных для выявления закономерностей, которыми руководствуются судебные решения. В работе сделан прогноз исхода дел, проанализированных Европейским судом по правам человека, на основе их текстового содержания: прогноз сбылся в 79% случаев. И, в более общем плане, его можно использовать для прогнозирования поведения всех участников правовой системы. Лекс Машина, эманация Лексис-Нексис, объединяет данные и программное обеспечение для создания наборов данных о судьях, юристах, сторонах и субъектах судебных процессов, анализируя миллионы страниц информации о спорах. С помощью этих данных юристы могут предсказывать поведение и результаты, к которым приведут различные возможные правовые стратегии.

La "правовая аналитика" направлена ​​на прогнозирование результатов процессов: не на основе строгого и механического юридического обоснования, а в свете изощренного алгоритмического/статистического анализа огромных объемов данных (большие данные).

Одно дело выдвигать гипотезы о возможной ориентации суда, судей, операторов. И совсем другое дело с уверенностью предсказать результат одного суждения. Для этого у нас должны быть алгоритмы, способные управлять неопределенностью и непредсказуемостью. И в любом случае останется этическая проблема правомерности возложения юридического решения на этот тип алгоритма.

Что касается этого последнего аспекта, необходимо вспомнить работу, проделанную Европейская комиссия по эффективности правосудия (CEPEJ), которая приняла так называемую Европейскую хартию этики об использовании искусственного интеллекта в судебных системах и смежных областях. Хартия, выпущенная в 2018 году, установила пять ключевых принципов использования искусственного интеллекта в системе «правосудия».

Между тем, посмотрите, что Европа имеет в виду под искусственным интеллектом

Совокупность научных методов, теорий и приемов, направленных на воспроизведение когнитивных способностей человека с помощью машин. Текущие разработки направлены на то, чтобы заставить машины выполнять сложные задачи, ранее выполнявшиеся людьми. Однако выражение «искусственный интеллект» подвергается критике со стороны экспертов, которые различают «сильный» искусственный интеллект (способный решать специализированные задачи разного рода совершенно автономно) и «слабый» или «умеренный» искусственный интеллект (высокая производительность в их тренировочная площадка). Некоторые эксперты утверждают, что «сильный» искусственный интеллект, чтобы иметь возможность моделировать мир в целом, потребует значительных достижений в фундаментальных исследованиях, а не просто улучшения производительности существующих систем. Инструменты, упомянутые в этом документе, разработаны с использованием методов машинного обучения, т.е. «слабого» искусственного интеллекта.

И что это значит Предиктивная справедливость (Прогностическое правосудие)

Предиктивная юстиция означает анализ большого количества судебных решений с использованием технологий искусственного интеллекта с целью формулирования прогнозов исхода отдельных видов споров специалистов (например, касающихся выходных пособий или алиментов). Термин «прогностический», используемый компаниями юридическая технология берется из отраслей науки (в основном статистики), позволяющих предсказывать будущие результаты благодаря индуктивному анализу. Судебные решения обрабатываются с целью выявления корреляций между входными данными (установленные законом критерии, обстоятельства дела, мотивация) и выходными данными (формальное решение, касающееся, например, размера компенсации). Корреляции, признанные релевантными, позволяют создавать модели, которые при использовании новых входных данных (новых фактов или разъяснений, введенных в виде параметров, таких как продолжительность договорных отношений), дают, по мнению их разработчиков, прогноз решение.

Некоторые авторы критиковали этот подход как формально, так и по существу, утверждая, что в целом математическое моделирование определенных социальных явлений не является задачей, сравнимой с другими, более легко поддающимися количественной оценке видами деятельности (выделение действительно причинных факторов судебного решения является бесконечно более сложная задача играть, например, в го или распознавать изображение): риск ложных корреляций намного выше. Кроме того, в доктрине два противоречащих друг другу решения могут оказаться действительными, если правовая аргументация хорошо обоснована. Следовательно, формулирование прогнозов представляло бы собой упражнение чисто ориентировочного характера и без каких-либо предписывающих требований.

После того, как сроки установлены, давайте выясним, каковы основные принципы, установленные CEPEJ.

1) ПРИНЦИП СОБЛЮДЕНИЯ ОСНОВНЫХ ПРАВ:

обеспечить разработку и внедрение инструментов и услуг искусственного интеллекта, совместимых с основными правами. Когда инструменты искусственного интеллекта используются для разрешения спора, оказания поддержки в принятии судебных решений или для ориентации общественности, важно убедиться, что они не подрывают гарантии права доступа к судье и права на справедливый суд.(равенство сторон и уважение к противнику).

Это означает, что уже на этапах разработки и обучения должны быть полные положения, запрещающие прямое или косвенное нарушение фундаментальных ценностей, защищаемых наднациональными конвенциями.

Права человека по дизайну.

2) ПРИНЦИП НЕДИСКРИМИНАЦИИ:

специально предотвращать развитие или усиление любой дискриминации между лицами или группами лиц. Учитывая способность этих методов обработки выявлять существующую дискриминацию посредством группировки или классификации данных, касающихся отдельных лиц или групп людей, государственные и частные субъекты должны обеспечить, чтобы методологии не воспроизводили или не усугубляли такую ​​дискриминацию и чтобы они не приводили к детерминированный анализ или использование.

Метод должен быть недискриминационным.

3) ПРИНЦИП КАЧЕСТВА И БЕЗОПАСНОСТИ:

в отношении обработки судебных решений и данных использовать сертифицированные источники и нематериальные данные с моделями, разработанными междисциплинарно, в защищенной технологической среде. Создатели моделей машинного обучения должны иметь возможность широко использовать опыт соответствующих специалистов системы правосудия и исследователей в области права и социальных наук. Создание смешанных проектных групп для коротких циклов обработки с целью создания функциональных моделей является одним из организационных методов, позволяющих извлечь максимальную пользу из этого междисциплинарного подхода.

Чем больше мы проектируем, тем лучше.

4) ПРИНЦИП ПРОЗРАЧНОСТИ, БЕСПРИСТРАСТНОСТИ И СПРАВЕДЛИВОСТИ:

сделать методы обработки данных доступными и понятными, разрешить внешний аудит. Необходимо соблюдать баланс между интеллектуальной собственностью некоторых методологий обработки и необходимостью прозрачности (доступ к творческому процессу), беспристрастности (отсутствие предвзятости), справедливости и интеллектуальной честности (приоритет интересов правосудия) при использовании инструментов, которые они могут использовать. имеют юридические последствия или могут существенно повлиять на жизнь людей. Следует понимать, что такие меры относятся ко всему творческому процессу, а также к операционной цепочке, так как методология отбора и качество и организация данных напрямую влияют на этап обучения.

Искусственный интеллект должен быть в состоянии быть проверен третьими лицами.

5) ПРИНЦИП «КОНТРОЛЯ ПОЛЬЗОВАТЕЛЕМ»:

исключить предписывающий подход и обеспечить, чтобы пользователи были информированными субъектами и контролировали свой выбор. Использование инструментов и сервисов искусственного интеллекта должно укреплять, а не ограничивать автономию пользователя. Пользователь должен быть проинформирован ясным и понятным языком об обязательном характере решений, предлагаемых инструментами искусственного интеллекта, о различных доступных возможностях, а также о его праве на получение юридической помощи и доступ к суду. Вы также должны быть четко проинформированы о любом предыдущем рассмотрении дела с использованием искусственного интеллекта до или в ходе судебного разбирательства и должны иметь право возражать, чтобы ваше дело рассматривалось непосредственно судом. к статье 6 ЕКПЧ.

Будьте должным образом информированы, чтобы проверить свой выбор.

выводы:

При ближайшем рассмотрении принципы, продиктованные ЕКЭП, показывают нам путь, который можно обобщить (приспособив его к судебному контексту) с понятием, разработанным в ходе международных дебатов, развернувшихся в ООН по автономному оружию. В связи с невозможностью определения вычислительного состояния инструмента искусственного интеллекта и, следовательно, полного контроля за выполнением предсказательного алгоритма, исправить изменение «правильности и равноправия спора между сторонами и между ними и судьей» «следует подкрепить требование о том, чтобы предиктивное решение принималось без использования только полученных чисто вероятностных результатов, не только потому, что его выполнение не всегда адекватно проверяемо.

Мы ссылаемся на доктринальное предположение, согласно которому должно быть санкционировано, что использование машины в суде подлежит значительному человеческому контролю, представленному следующими существенными условиями:

1) что его деятельность обнародуется и оценивается в соответствии с критериями экспертная оценка;

2) что потенциальная частота ошибок известна;

3) адекватные пояснения переводят «техническую формулу», составляющую алгоритм, в юридическую норму, чтобы сделать ее разборчивой и понятной судье, сторонам и их защитникам;

4) перекрестный допрос по выбору архивных элементов, по их группировке и по соотношению данных, обрабатываемых аппаратом искусственного интеллекта, обеспечен, в частности, в отношении предмета спора;

5) что их принятие судьей оправдано с учетом того, что выяснилось в суде, и фактических обстоятельств, оцениваемых по принципу свободного осуждения.

   

Ситография:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

С. КВАТРОКОЛО, Справедливость уголовного процесса и автоматические доказательства в свете Европейской конвенции о правах человека, в Rev. italo-española der. сб., 2019, доступно на http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

Библиография:

Искусственный интеллект. Современный подход, Рассел и Норвиг, Пирсон.

Юваль Ной Харари, Homo Deus: краткая история завтрашнего дня, издательство Vintage.

GWF HEGEL, Очерки философии права, 1821 г., пер. ит., Бари, 1996.

Г. РОМАНО, Право, робототехника и теория игр: размышления о синергии, в Дж. Альпа (под редакцией), Право и искусственный интеллект, Пиза, 2020 г.

Г. ТАМБУРРИНИ, Этика машин. Моральные дилеммы робототехники и искусственного интеллекта, Рим, 2020 г.

У. РУФФОЛО - А. АМИДЕИ, Искусственный интеллект, совершенствование человека и права человека, в области искусственного интеллекта. Закон, права, этика, уже предвосхищенные в У. РУФФОЛО - А. АМИДЕИ, Искусственный интеллект и права человека: границы «трансгуманизма», в Гюр.Ит., 2019

Ж. ЛАССЕГ, Цифровое правосудие. Графическая революция и антропологический разрыв, Париж, 2018 г.

Дж. НЬЕВА-ФЕНОЛЛ, Искусственный интеллект и процессы, 2018, пер. ит., Турин, 2019 г.

С. СИНЬОРАТО, Уголовное правосудие и искусственный интеллект. Соображения по поводу алгоритма прогнозирования в Riv. реж. сб., 2020 г.

Фото: www.golegal.co.za