
Испанская судебная система столкнулась с новым вызовом: использование искусственного интеллекта в юридических документах привело к появлению фальшивых судебных решений в официальных материалах. Этот случай стал заметным сигналом для всех, кто работает с новыми технологиями в правовой сфере. Решение суда не только определило судьбу конкретного юриста, но и обозначило границы ответственности при работе с ИИ.
В октябре 2025 года адвокат И.Г. подала жалобу в интересах одной компании в Sala de lo Social del Tribunal Superior de Justicia de Navarra. В тексте документа были приведены выдержки из якобы существующих решений Tribunal Constitucional, Tribunal Supremo, TSJ de Navarra и TSJ de Madrid. Однако судьи быстро обнаружили, что эти цитаты не соответствуют реальным судебным актам, а даты и номера дел не совпадают с официальными данными. Фактически, речь шла о полностью вымышленных решениях, созданных искусственным интеллектом.
После выявления нарушений суд в феврале инициировал дисциплинарное разбирательство по признакам недобросовестности. Закон предусматривает штрафы от 180 до 6 000 евро за подобные действия, а также возможность передачи дела в профессиональную коллегию для дальнейших санкций. В решении суда отмечалось, что подобные ошибки не только нарушают принципы добросовестности, но и подрывают уважение к судебной власти и мешают работе магистратов.
Реакция и последствия
Адвокат оперативно признала ошибку, объяснив её отсутствием умысла и недостаточной проверкой текста, подготовленного с помощью ИИ. В своих объяснениях она подчеркнула, что полностью отказывается от спорных цитат, не намеревалась причинить вред суду и просила учесть её искренние извинения. Также юрист просила, если суд всё же решит применить меры, ограничиться минимальным предупреждением.
Через несколько дней адвокат направила дополнительное обращение, где вновь выразила сожаление и подчеркнула, что этот случай стал для неё серьёзным уроком. Она просила не считать её действия проявлением неуважения или злого умысла, а дисциплинарное дело — закрыть. В крайнем случае, по её мнению, достаточно было бы устного замечания.
В итоговом решении, подготовленном под руководством судьи María José Ramo, суд отметил, что использование новых технологий и материалов, созданных искусственным интеллектом, требует особого внимания к этическим и юридическим аспектам. Ответственность за точность и соответствие документов по-прежнему лежит на юристах, несмотря на автоматизацию процессов.
Технологии и юридическая практика
Суд в Наварре сослался на исследования, показывающие, что так называемые «галлюцинации» искусственного интеллекта — распространённое явление в юридической сфере. Судьи подчеркнули, что небрежное применение ИИ может привести к серьёзным последствиям, включая обвинения в недобросовестности и злоупотреблении процессом. При этом нормы профессиональной этики обязывают адвокатов тщательно проверять все представляемые материалы.
В данном случае судьи решили не наказывать адвоката, учитывая её быструю реакцию и признание ошибки. Однако в решении подчёркивается, что этот случай должен стать предупреждением для всех юристов, использующих ИИ без должной проверки. Подобные инциденты могут привести к ужесточению контроля за применением технологий в судах.
В Испании уже обсуждаются новые подходы к регулированию использования искусственного интеллекта в юридической практике. По оценке RUSSPAIN.COM, такие случаи становятся всё более частыми, что требует от профессионального сообщества выработки единых стандартов и мер ответственности.
Контекст и тенденции
В последние годы испанские суды всё чаще сталкиваются с вопросами, связанными с применением новых технологий и этикой в юридической деятельности. Например, недавно обсуждалось дело, где суд отказался отменить ограничения для полицейского, обвиняемого в преследовании, что также вызвало дискуссии о балансе между защитой прав и соблюдением процедур (подробности по теме). Подобные ситуации показывают, что судебная система Испании вынуждена адаптироваться к новым вызовам, связанным с цифровизацией и автоматизацией.
Всплеск случаев, когда искусственный интеллект генерирует недостоверные данные для юридических документов, заставляет суды и профессиональные объединения пересматривать внутренние регламенты. Важно, что даже при отсутствии злого умысла ответственность за итоговый документ несёт человек, а не программа. Это становится ключевым принципом для всех, кто работает с ИИ в правовой сфере.
В последние годы в Испании фиксируется рост числа дисциплинарных дел, связанных с ошибками при использовании цифровых инструментов в судах. В 2024 году обсуждался случай, когда адвокат представил в суде документы с ошибочными ссылками на нормативные акты, что также привело к внутреннему расследованию. Параллельно в Европе усиливается дискуссия о необходимости создания специальных стандартов для работы с ИИ в юридической практике. Эти тенденции отражают растущее внимание к вопросам ответственности и прозрачности в эпоху цифровых технологий.












