Появление искусственного интеллекта (ИИ) можно отнести к 1950-м годам, однако массовую мировую популярность он приобрел примерно в 2023 году. Можно утверждать, что с тех пор тема искусственного интеллекта активно обсуждается, особенно после выпуска ChatGPT. Платформа сразу же стала популярной благодаря своим возможностям и спасла жизнь и время людям в любой сфере. Помимо возможностей ИИ, вопрос качества предоставляемых им ответов должен находиться в центре внимания, поскольку было замечено, что время от времени ответы бывают ошибочными, вводящими в заблуждение и неверными.
Возможности и перспективы юридического ИИ
Многие люди, ищущие юридической консультации, или даже сами юристы обращаются к ИИ, поскольку он обеспечивает эффективность, точность и разъяснения по различным задачам и вопросам. Например, в некоторых странах с менее доступными юридическими услугами, таких как США, исследование, проведенное Американской ассоциацией юристов в 2024 году, показало, что внедрение ИИ в юридическую практику почти утроилось, увеличившись с 11% в 2023 году до 30% в 2024 году. Более того, юридический ИИ может избегать ошибок, связанных с «человеческим фактором», и уделять большое внимание каждой детали, где человеческий глаз и внимание могут подвести. С точки зрения производительности, инструменты ИИ помогают юристам экономить до нескольких часов в неделю, помогая с повторяющимися задачами, а также позволяя людям использовать юридический ИИ для небольших вопросов вместо обращения к юристу. Это позволяет людям немедленно получать разъяснения по своему вопросу всего за несколько кликов, вместо того чтобы связываться с юристом и назначать встречу. Кроме того, ИИ способен анализировать множество баз данных, что позволяет ему проводить глубокие исследования с хорошим пониманием проблемы. Эти преимущества могут представить ИИ как идеальную замену юристам, однако то, что ИИ может справляться со структурированными задачами с низким риском, не означает, что он может заменить тонкое принятие решений и этическое суждение юриста-человека. Эти два аспекта сами по себе показывают, почему, несмотря на многообещающие преимущества, ИИ является в корне несовершенным юристом.
Ограничения ИИ в юридическом понимании
Хотя у ИИ есть множество преимуществ для выполнения юридических задач, его ограничения могут быть еще более значительными и включают проблемы с юридической аргументацией, толкованием, контекстуальным пониманием и ложной, вводящей в заблуждение информацией. Вместо того чтобы предоставлять ответы, основанные на реальных юридических знаниях и понимании, системы ИИ, в частности большие языковые модели, такие как ChatGPT, генерируют ответ на основе закономерностей в обучающих данных и часто имеют ограниченный доступ к онлайн-источникам. Это ограничение привело к случаям, когда инструменты ИИ фабриковали юридические факты, дела, цитаты и неверно истолковывали законы, что приводило к последствиям для людей в реальной жизни.
Проблема ложной или сфабрикованной информации, генерируемой ИИ, хорошо известна и задокументирована в различных юридических контекстах. Например, один из первых случаев использования юристами ложной информации в суде попал в мировые новости и привлек большое внимание. Сообщалось, что британский трибунал столкнулся с делом, в котором истец представил несуществующие судебные решения, которые позже были приписаны инструментам генерации ИИ. Аналогичным образом, во Франции юридический инструмент на базе ИИ исказил положения GDPR, сфабриковав поправки, которые никогда не принимались, что могло бы ввести в заблуждение судебное разбирательство, если бы не было вовремя обнаружено.
Эти случаи — лишь несколько примеров из многих, но они показывают, что человеческий надзор имеет решающее значение в юридических процессах. Право динамично и имеет много мелких аспектов, которые крайне важно учитывать, на что ИИ не способен. Было замечено, что ИИ не способен контекстуально применять юридические прецеденты или учитывать индивидуальные обстоятельства, а это ключевые навыки в юридической практике. Более того, исследование Института человеко-ориентированного ИИ Стэнфордского университета выявило, что уровень «галлюцинаций» в юридических запросах к моделям ИИ, таким как GPT-4, достигает 88%, что указывает на значительный риск при использовании ИИ для сложных юридических задач.
Заключение
Это означает, что без подлинного понимания, юридической ответственности, способности динамично толковать закон и взвешивать моральные и общественные последствия, инструменты ИИ не могут справиться со сложной, интерпретационной и порой субъективной природой права. Поэтому ИИ может использоваться для помощи юристам с существующими юридическими знаниями под их надзором или людьми, ищущими некоторую юридическую помощь, но этой помощи не следует доверять, и для людей, сталкивающихся с юридическими проблемами, лучше всего обратиться к юристу.