Чем рискуют юристы, используя искусственный интеллект в своей работе?
Не секрет, что ИИ сегодня активно применяется в школах, в вузах, в том числе юридических. Следующий шаг - применение систем ИИ в практической деятельности, например, работниками юридических служб организаций, адвокатами и судьями.
В зарубежной практике юристы активно используют ИИ. С какими же рисками сталкивается пользователь нейросети? Автор рассмотрел данный вопрос.
Разделы материала:
Недостоверная информация
В деле Mata v. Avianca, Inc. (США, 2023 год) рассматривался вопрос о защите прав пассажира, который получил травму в ходе полета. Система американского права большое значение придает прецеденту, когда для подтверждения своей позиции в суде адвокату важно найти уже рассмотренное похожее дело, по которому было вынесено решение, соответствующее желаемому его доверителем.
В данной ситуации адвокат переложил бремя поиска судебных решений на ИИ, сделав запрос о создании десятистраничного документа с соответствующими судебными делами. Получив результат, юрист стал сомневаться в том, что информация корректна. Затем специально уточнил у нейросети, реальны ли указанные в документе дела, в ответ получил однозначные заверения о том, что кейсы не вымышленные. Однако в действительности ИИ сгенерировал требуемые решения, что и выяснилось в ходе процесса.
Интересно отметить, что судья принял решение как о наложении штрафа на юридическую компанию, так и о необходимости принять действия, направленные на исправление ситуации. Юристы должны были направить информацию о данной ситуации истцу, а также судьям, которые были указаны ИИ как авторы соответствующих правовых позиций (примечание 1).
Как отмечали сами юристы, они неверно понимали сущность технологий, лежащих в основе ИИ, не осознавая, что он не является поисковой системой, а представляет собой генератор текста, предлагающий наиболее вероятный вариант возможного ответа на поставленный вопрос.
В данном деле вовремя обнаруженная ошибка ИИ не повлекла существенных проблем (кроме потери времени на поиск несуществующих дел другой стороной). Однако очевидно, что недостоверная информация, предоставляемая ИИ, может повлечь очень серьезные проблемы.
Приведем лишь один из локальных примеров, когда практически все системы ИИ дают неправильный ответ (к слову, на него неправильно отвечают и многие юристы организаций, и лица, ответственные за осуществление внутреннего контроля за обработкой персональных данных). Этот вопрос звучит так: «Нужно ли согласие работника на видеонаблюдение в Беларуси?» Искусственный интеллект отвечает однозначно: «Да, в Беларуси нужно согласие работника (желательно письменное) или четкое основание в локальных документах».
И тут сразу несколько ошибок:
• согласие на видеонаблюдение требуется, если неприменимы базовые правовые основания (например, реализация законодательства об охранной деятельности в отношении физических лиц, в том числе работников, и имущества нанимателя на основании Закона от 08.11.2006 № 175-З «Об охранной деятельности в Республике Беларусь»);
• локальный акт не является сам по себе основанием для обработки, и даже если видеонаблюдение осуществляется на основании согласия, этот процесс все равно следует отразить в локальных актах (то есть противопоставление «или» некорректно);
• акцент на желательности именно письменного согласия ничем не обоснован: согласие может собираться и в иных формах, например, через электронные системы ознакомления.
Повсеместное проникновение интернета привело к тому, что у людей проявилось в определенной степени то, что можно назвать слепой верой в то, о чем пишут в сети.
Отсутствие понимания ограничений, которые имеются у ИИ, впечатление, что ИИ - это некая бесконечная база знаний, которая ищет и находит правильный ответ по запросу пользователя, встречаются достаточно часто. На самом же деле для нейросетей характерны так называемые галлюцинации, когда, если говорить о юридической сфере, правовые акты, судебные решения и прочие юридические аспекты изобретаются ИИ.
Ответственность же за распространение соответствующих сведений (клеветы, информации, затрагивающей деловую репутацию) будет нести пользователь.
Особенно опасной такая ситуация может быть, когда сгенерированный контент может содержать ложную, недостоверную информацию о каком-либо лице. Применительно к практической деятельности такая ситуация может возникнуть, когда юрист, проверяя добросовестность контрагента, использует для сбора информации о нем систему искусственного интеллекта.
![]() |
Пример Известен случай, когда норвежец А.Х.Хольмен запросил у чат-бота системы ИИ информацию о себе и с удивлением узнал, что он был приговорен к 21 году тюрьмы за то, что убил двух своих детей и пытался убить третьего. В действительности ничего такого не происходило (примечание 2). |
Аналогичным образом, система ИИ может придумать несуществующие факты о компаниях, их работниках, а также любых обстоятельствах, связанных с ними (наличие судимости по экономическим статьям, психических и иных заболеваний и пр.).
Следует отметить, что гражданин вправе требовать по суду опровержения порочащих его честь, достоинство или деловую репутацию сведений, а также возмещения убытков и компенсации морального вреда, причиненных их распространением (ст.153 ГК).
Кроме того, соответствующие действия могут быть квалифицированы как клевета, то есть распространение заведомо ложных, порочащих другое лицо сведений, в том числе в информации, размещенной в интернете (ст.188 УК).
![]() |
Справочно Такие действия наказываются штрафом, или исправительными работами на срок до 2 лет, или арестом, или ограничением свободы на срок до 3 лет, или лишением свободы на тот же срок. |
Кроме приведенного выше примера, такая ситуация может возникнуть, если лицо с помощью систем ИИ создаст контент, который в итоге будет носить порочащий характер (например, генерация и распространение картинки с участием определенного лица в какой-либо неодобряемой деятельности, например, сосед выкидывает мусор не в контейнер, а в багажник иной машины; либо видео о том, что муж бьет жену). Автор полагает, что риск того, что адвокат будет заниматься такой деятельностью, крайне мал, однако стоит иметь в виду, что сейчас сторона дела для обеспечения выигрыша может иметь искушение некоторым образом «улучшить» доказательства.
По крайней мере, в бизнес-сфере уже встречаются попытки использовать ИИ для возврата товаров как испорченных: во многих случаях возврат товара осуществляется после представления фото, подтверждающего недостатки (поломку, наличие плесени и т. п.). Все чаще сообщается о случаях, когда соответствующие изображения генерируются ИИ.
В настоящее время, когда сервисы ИИ доступны, у граждан бывает желание создать, как им кажется, смешные картинки и представить их на суд общественности, например, отправить в домовой чат или разместить в виде ролика в социальных сетях и мессенджерах, в том числе для повышения своей популярности. Следует учитывать, что, как и для остального контента, действует право и ответственность будет нести не ИИ, а пользователь.
Если такой контент будет восприниматься как оскорбительный, возможно наступление административной ответственности согласно ст.10.2 КоАП в случае умышленного унижения чести и достоинства личности, выраженного в неприличной форме (оскорбления), в частности, в информации, распространенной в сети Интернет, может следовать наложение штрафа от 10 до 200 базовых величин, или общественные работы, или административный арест, а на юридическое лицо - наложение штрафа от 30 до 200 базовых величин.
Защита персональных данных и иной информации ограниченного распространения
Получение данных из систем ИИ часто связано с загрузкой определенных исходных сведений. Например, сейчас внедряются боты-консультанты, которые могут дать определенные рекомендации и данные на основании представленной информации. Например, для подготовки позиции по делу юрист может загрузить текст искового заявления с данными всех участвующих в процессе лиц или при подготовке материалов заседания, оформлении протоколов в организации с помощью ИИ указать сведения о лицах, которые принимали участие в таких мероприятиях.
Закон от 07.05.2021 № 99-З «О защите персональных данных» относит к персональным данным любые сведения, с помощью которых возможно прямо или косвенно идентифицировать лицо (абз.9 ст.1 Закона № 99-З). Как следствие, это может быть не только фамилия, имя, отчество, должность, фотография, но и совокупность сведений о лице, позволяющая однозначно установить его личность (например, одинокий пенсионер, проживающий в деревне А. на улице Б., - если иных пенсионеров в этой деревне нет).
С точки зрения законодательства о персональных данных следует учитывать следующее:
1) Закон № 99-З не регулирует деятельность физических лиц (обычных граждан) по сбору и иному использованию персональных данных (ст.2 Закона № 99-З). Его действие начинается тогда, когда операции с информацией о частной жизни осуществляются операторами и уполномоченными лицами: госорганами, юридическими лицами, индивидуальными предпринимателями;
2) любое использование персональных данных указанными операторами и уполномоченными лицами должно иметь правовое основание. То есть в каждом случае до начала использования персональных данных требуется определиться, на основании какого правового акта осуществляется такая деятельность, получено ли должным образом согласие лица (если оно необходимо).
В ситуации использования ИИ следует учитывать две потенциальные опасности:
• во-первых, данные в таком случае передаются часто в неизвестном направлении, что может вызвать вопросы о трансграничной передаче. По общему правилу передача персональных данных в небезопасные юрисдикции запрещается (ст.9 Закона № 99-З). При этом большинство систем ИИ находятся как раз в странах, не обеспечивающих надлежащий уровень защиты прав субъектов персональных данных (США, Китай);
• во-вторых, поиск правового основания обработки данных может быть затруднительным.
Поэтому стоит ограничиться минимальным количеством данных при использовании ИИ, а в идеале - принять меры по их анонимизации. Следует отметить, что обезличивания может быть недостаточно, так как при данном процессе осуществляются действия, в результате которых становится невозможным без использования дополнительной информации определить принадлежность персональных данных конкретному субъекту персональных данных (ст.1 Закона № 99-З). Однако с помощью дополнительной информации данные могут быть деобезличены. Как следствие, в Республике Беларусь даже обезличенные данные продолжают охраняться, и в отношении них требуется применять все указанные выше меры по защите.
![]() |
Дополнительно по теме • Всё по одной теме. Защита персональных данных. • Организация использует в работе различные ИИ-сервисы (для анализа рабочих встреч, оценки эффективности сотрудников и др.). Можно ли при оформлении согласия работника на обработку персональных данных (трансграничную передачу данных) не указывать наименования конкретных ИИ-сервисов? Допускается ли при оформлении согласия указывать, что при трансграничной передаче данных актуальный перечень используемых ИИ-сервисов и стран передачи постоянно доступен сотрудникам во внутренней информационной системе компании? |
Защита коммерческой тайны
Аналогичным образом следует учитывать опасности, связанные с использованием информации, представляющей коммерческую тайну.
Правовая охрана коммерческой тайны возникает с момента установления в отношении сведений, составляющих коммерческую тайну, режима коммерческой тайны и не прекращается до тех пор, пока охраняемые сведения соответствуют этим требованиям и действует установленный режим коммерческой тайны (ст.4 Закона от 05.01.2013 № 16-З «О коммерческой тайне»).
Режим коммерческой тайны считается установленным после определения состава сведений, подлежащих охране в режиме коммерческой тайны, и принятия лицом, правомерно обладающим такими сведениями, совокупности мер, необходимых для обеспечения их конфиденциальности, что в числе прочего включает в себя ограничение доступа к соответствующей информации, принятие мер для того, чтобы лица, получившие доступ к коммерческой тайне, обеспечивали ее сохранность (ст.8 Закона № 16-З).
Возникает вопрос о том, как будет соотноситься требование об обеспечении защиты информации и загрузка ее в систему, которая не гарантирует ее конфиденциальности (более того, прямо часто указывает, что данные будут применяться далее для обучения системы, могут быть в том или ином виде представлены иным пользователям).
![]() |
Дополнительно по теме • Информация, составляющая коммерческую тайну: формы документов. |
Существенный риск для компании представляет ситуация, когда в систему ИИ будут загружены важные для бизнеса сведения. Далее ИИ выдаст информацию (в том числе и конфиденциальную), основанную на этом результате, любому пользователю. Этот риск вызван тем, что ИИ не создает новую информацию, а собирает ответ пользователю из уже имеющихся в системе сведений. Как показывает практика, если исходной информации в системе много (например, доступно несколько тысяч договоров аренды с различными коммерческими условиями), то сгенерированный ИИ текст будет мало похож на какой-то базовый пример. Если же доступной информации немного (например, ее мало в силу новизны разработки), то генерация от ИИ будет существенным образом повторять эту информацию и для иных пользователей.
Сегодня все чаще высказываются опасения о том, что ИИ заменит юристов. Однако пока что, несмотря на искушение отказаться от юридических служб, реализовывать такие действия преждевременно. Юристам же следует учитывать ограничения и правовые рамки использования нейросетей.
Примечание 1. Mata v. Avianca, Inc., No. 1:2022cv01461 - Document 54 (S.D.N.Y. 2023).
Примечание 2. Мужчина вбил свое имя в ChatGPT. А чат-бот заявил, что он убил своих детей.
![]() |
Дополнительно по теме • Правовой статус объектов, создаваемых системами искусственного интеллекта. • Искусственный интеллект в правовом поле Беларуси: вызовы и перспективы для бизнеса. • Актуальные проблемы правового регулирования применения искусственного интеллекта. • Искусственный интеллект: особенности организации труда и обеспечение его безопасных условий. • Какие меры защиты может применить лицо, заказавшее создание объекта, подобного произведению, у владельца системы искусственного интеллекта, в случае последующего несанкционированного использования этого результата третьим лицом? • Искусственный интеллект как «второй пилот» юриста. |
Рубрики
Инструменты поиска
Сообщество
Избранное
Мой профиль





