Мы в ответе за тех, кого обучили или использование юридическим сообществом нейросетей

07 Февраль 2023
Автор: Татьяна Стрижова

Искусственный интеллект – быстроразвивающаяся область IT-решений, базирующихся на использовании нейросетей, способных к машинному обучению. Нейросети коренным образом изменили подход к работе в различных отраслях, и юридический сектор не является исключением.

Так, на днях The Guardian написал о разразившемся в США в Колумбии скандале в связи с тем, что судья рассказал об использовании чат-бота с искусственным интеллектом ChatGPT при вынесении решения по делу. Судья до вынесения решения направлял в нейросеть запросы по поводу того, покрывает ли страховка ребенка, страдающего аутизмом, расходы на его лечение и получил от нейросети утвердительный ответ. По утверждениям судьи, он лишь проверял свою позицию по делу, учитывая, что ChatGPT анализирует информацию в интернете для генерации обоснованных ответов, а использование чат-бота существенно ускорило работу по поиску и конструированию необходимой информации. Очевидно, что не все разделили позицию судьи относительно использования нейросети при вынесении Решения. Даже создатели ChatGPT выразили опасения насчет своей роли в системе правосудия, отметив, что судьи не должны использовать ChatGPT при вынесении решений, так как это не замена знаний, опыта и суждений судьи-человека.

Вместе с тем, в действительности юристы взаимодействуют с технологиями искусственного интеллекта на ежедневной основе.

Так, говоря о российском опыте, основные справочные информационные системы (Консультант +, Гарант, Casebook), которые используются, в том числе, судьями в качестве инструмента поиска нормативных актов и судебной практики, построены на алгоритмах нейросетей. Применение таких алгоритмов позволяет производить поиск похожих кейсов не только по нормам права, но и по фактическим обстоятельствам, позволяя выдавать более релевантные ответы на запросы пользователей системы. Иностранные правовые базы (такие как LexisNexis, Westlaw, Ravel Law) используют алгоритмы машинного обучения для сканирования значительных объемов юридических данных за считанные секунды, что помогает юристам экономить время и повысить точность исследований. Представляется, что направление запроса в подобные поисковые системы судьей едва ли вызовет негативные суждения среди граждан и профессионального сообщества, хотя в основе поиска информации лежат те же алгоритмы, что и в  ChatGPT.

Указанное позволяет сделать вывод, что отсутствие общепринятых и устоявшихся условий использования искусственного интеллекта, а также недостаток технической грамотности приводят к возникновению неоправданных опасений в отношении использования новейших технологий.

Однако искусственный интеллект несет в себе ряд существенных рисков.

Так, например, алгоритмы предиктивной аналитики с использованием нейросетей показывают значительное развитие. Вместе с тем повышение точности прогнозирования исхода дел невозможно в непредсказуемой судебной практике и противоречивом правовом поле, поскольку массивы Big data должны позволять искусственному интеллекту обнаруживать устойчивые закономерности и соотносить их с правовым регулированием. Указанное приводит к тому, что нейросеть может выдавать недостоверный результат.

Кроме того, одно из самых больших опасений заключается в том, что ориентация правовой работы на искусственный интеллект может привести к снижению способности человека принимать независимые решения и суждения, опираясь на весь спектр его знаний и опыта. По мере усложнения нейросетей, становится сложнее определять, почему система дает определенные результаты. Как справедливо отмечает Роман Ямпольский, профессор компьютерных наук Университета Луисвилля, в своей работе «Необъяснимость и Непостижимость искусственного интеллекта»: если мы привыкнем принимать ответы ИИ без объяснения причин, мы не сможем определять, если он начнет давать неправильные или манипулятивные ответы. Это чрезвычайно опасная дорога, на которую мы ступаем.

Представляется, что разрешение указанных проблем невозможно путем установления дозволений или запретов на использование искусственного интеллекта в юридической (в том числе судебной) работе.

В этой связи именно установление этических принципов работы с информацией в эпоху ИИ должно стать отправной точкой для правового регулирования вопросов, связанных с использованием нейросетей.

Несмотря на то, что регуляторный ландшафт для развития индустрии искусственного интеллекта неуклонно расширяется (Россия к 2021 году вошла в число передовых стран, обладающих собственными стратегическими документами в области развития технологий искусственного интеллекта), этические границы использования ИИ все еще имеют размытые очертания и не являются составной частью профессиональной этики членов юридического сообщества.

Подписанный в 2021 году Минэкономразвития и представителями Альянса в сфере искусственного интеллекта Кодекс этики в сфере искусственного интеллекта может быть положительно оценен как документ, закладывающий первые этические основы для  регулирования отношений. Вместе с тем, указанный Кодекс, будучи рассчитанным прежде всего на представителей разработчиков систем искусственного интеллекта, не может быть имплементирован в нормы профессиональной юридической этики.

В этом смысле интерес представляет Европейская этическая хартия по вопросам использования искусственного интеллекта в судебных и смежных системах, принятая в декабре 2018 года на пленарном заседании Европейской комиссии по эффективности правосудия Совета Европы, постановившая пять основных принципов применения искусственного интеллекта в судебных системах и смежных сферах: принцип уважения фундаментальных прав, принцип недискриминации, принцип качества и безопасности, принцип прозрачности, беспристрастности и справедливости и принцип контроля со стороны пользователя. Хартия исходит из того, что при использовании систем ИИ всегда должна сохраняться возможность непосредственного обращения к судебным материалам и решениям, которые использовались ИИ для получения результата анализа, а также возможность с учетом специфики спора отказаться от использования предложенных ИИ решений.

Использование алгоритмов нейросетей – это практически рутинные операции, проводимые членами юридического профессионального сообщества на ежедневной основе. Воспрепятствование использованию искусственного интеллекта в судебной системе представляется бессмысленным и неперспективным, не способно содержательно изменить (повысить) качество правосудия. В этой связи именно профессиональная этика, основываясь на общечеловеческих ценностях и отвечая вызовам современности, должна предложить ориентиры  для применения инструментария нейросетей в различных юридических процедурах.

Это интересно

Рейтинги

Партнеры