ЗАДАТЬ ВОПРОС

Апелляционный суд США предлагает ограничения ИИ во всех судебных делах.

Апелляционный суд США по пятому округу во вторник стал первым апелляционным судом США, который предложил новое правило, требующее, чтобы юристы удостоверяли, что они либо не использовали программы генеративного искусственного интеллекта (ИИ), такие как Chat GPT, для составления документов, либо что люди просматривали материалы, созданные искусственным интеллектом. Предложение направлено на обеспечение того, чтобы использование ИИ в юридической работе было прозрачным и подотчетным.

Согласно отчету юридической фирмы-разработчика программного обеспечения Clio, ИИ может предложить преимущества скорости, эффективности и экономичности. Тем не менее, это также создает такие риски, как ошибки, этические и нормативные проблемы и предвзятость алгоритма.

В феврале юридическая фирма Allen & Overy интегрировала Harvey, платформу искусственного интеллекта, специализируясь на машинном обучении и аналитике данных, в свою международную практику. Около 3500 юристов задали Харви 40 000 вопросов об их повседневной работе в течение испытательного периода.

Однако в контексте юристов, использующих искусственный интеллект, ИИ создает такие проблемы, как «галлюцинации», непредсказуемость и расхождение в ответе. Галлюцинации — это неправильные результаты, которые могут привести к деликтным обязательствам, вреду потребителю или нарушениям нормативных актов. Непредсказуемость возникает из-за отсутствия прозрачности, что затрудняет проверку соответствия модели стандартам качества и подотчетности. Расхождение ответов — это еще одна проблема из-за природы моделей ИИ, которые могут дать несколько ответов на один и тот же вопрос. Чтобы снизить эти риски для закона, исследователи предложили объяснимые модели искусственного интеллекта (XAI), которые могут обеспечить обоснование прогнозов или рекомендаций, созданных ИИ, чтобы пользователи могли определить, является ли ИИ «правильным по правильным причинам».

После запрета использования ИИ в своем зале суда в июне судья Брэнтли Д. Старр из окружного суда США по Северному округу Техаса сказал: «В то время как адвокаты дают клятву отложить свои предрассудки, предубеждения и убеждения, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный искусственный интеллект является продуктом программирования, разработанного людьми, которые не должны были приносить такую присягу». Другое предложение по ИИ-правилам от этого суда гласит: «Хотя технология может быть полезной, она никогда не заменяет абстрактное мышление и решение проблем».

Согласно новому правилу, адвокаты, которые искажают свое соответствие суду, могут получить свои документы и наложить на них санкции. 5-й округ принимает публичные комментарии по правилу предложения до 4 января.

Рубрики: Новости международного права

Обсуждение закрыто.

Карта сайта:

Контакты

© 2022 - Юридическая компания - Разработка WebSymmetry