ЗАДАТЬ ВОПРОС

Европейское мнение. ИИ (искусственный интеллект) в правовой области.

В эпоху, когда цифровые технологии пронизывают каждый аспект нашей жизни, опасения по поводу защиты данных и конфиденциальности заняли центральное место. Европейский союз уже давно находится на переднем крае решения этих проблем с помощью всеобъемлющих законов о защите данных. Наиболее заметным из этих законов является Общий регламент по защите данных (GDPR), который вступил в силу в мае 2018 года и значительно изменил ландшафт защиты данных в ЕС.

Подход ЕС к защите данных характеризуется согласованной правовой базой, которая устанавливает общие стандарты сбора, обработки и передачи персональных данных. GDPR служит краеугольным камнем этой основы, создавая последовательный набор правил во всех государствах-членах. Эта гармонизация имеет решающее значение, поскольку она позволяет частным лицам и предприятиям беспрепятственно ориентироваться в правилах защиты данных при осуществлении трансграничной деятельности.

Хотя GDPR обеспечивает единую основу, могут быть небольшие различия в том, как он реализуется и применяется между государствами-членами. Национальные органы по защите данных (DPA) в каждой стране ЕС играют определенную роль в надзоре за соблюдением и правоприменением. Эта децентрализованная структура позволяет государствам-членам адаптировать определенные аспекты GDPR к своим конкретным правовым системам и административным процессам. В результате, хотя основные принципы остаются последовательными, могут быть небольшие различия в том, как защита данных интерпретируется и применяется во всем ЕС.

Рост технологий искусственного интеллекта породил новые проблемы в области защиты данных. Одной из основных проблем является возможность того, что системы искусственного интеллекта могут обрабатывать огромные объемы персональных данных без надлежащего согласия или понимания со стороны отдельных лиц. Алгоритмы машинного обучения могут раскрыть сложные закономерности и идеи из данных, поднимая вопросы о том, в какой степени люди могут контролировать свою собственную информацию, как только она поступает в цифровую экосистему.

Другая проблема связана с автоматизированным принятием решений. По мере того, как алгоритмы искусственного интеллекта принимают более важные решения, например, при утверждении кредитов или найме на работу, возникают опасения по поводу справедливости и подотчетности этих систем. Если системы искусственного интеллекта питаются предвзятыми данными, они могут увековечивать и даже усиливать социальные предрассудки, что приводит к дискриминации.

Кроме того, огромный объем данных, собранных и обработанных системами искусственного интеллекта, вызывает опасения по поводу нарушений безопасности и несанкционированного доступа. По мере того, как приложения ИИ становятся все более сложными, защита целостности и конфиденциальности информации становится первостепенной.

Чтобы пролить свет на революционную законодательную инициативу, изучить, как она будет направлена на защиту потребителей ЕС и изучить, какие риски все это может представлять для разработчиков ИИ, вашему вниманию интервью с Акселем Воссом, членом Европейского парламента и координатором группы Европейской народной партии в Комитете по правовым вопросам. 

Как регулирование ИИ повлияет на политику защиты данных в ЕС?

Восс: существует конфликт между ИИ и регулированием защиты данных. Никто не соглашается обучать алгоритмы, когда люди соглашаются на обработку своих персональных данных. Но если мы не включаем это, мы совершенно не можем получить достаточно данных для обучения алгоритмов. Вот почему нам здесь нужно какое-то решение. В Статье 6, пункт 4 Положения о защите данных говорится, что вы можете использовать персональные данные для разных целей, но вы должны объяснять и информировать и так далее. Но если вы делаете это, проходя через все процессы, то вы не можете быть гибким.

Еще не все права, что мы включили в Общий регламент по защите данных, все еще действует. Проблема в том, что мы просто создаем своего рода среду, где вы можете тестировать и обучать свои системы искусственного интеллекта, но только с постоянным наблюдением и официальным разрешением, и только тогда вы также можете выйти на свой рынок и заниматься своим бизнесом.

Что касается ситуации с данными, здесь есть реальная проблема, которую мы создали с GDPR, своего рода менталитетом не обрабатывать персональные данные, не делиться персональными данными. И это, в мире, основанном на данных, не самый разумный путь вперед. И Европа отстает. Мы находимся в своего рода состоянии третьего мира, когда дело доходит до цифровой реальности, нам нужно как-то догнать цифровую реальность. Но это сложнее, если у вас уже есть что-то на месте, это на самом деле не прокладывает путь каким-то образом. Защита прав потребителей все еще существует. GDPR также существует, и все права, которые защищают вас, существуют. Но теперь мы должны столкнуться с чем-то новым, посмотреть, как это развивается, и, если что-то идет не так, мы должны быть там и столкнуться с новой проблемой. Быстро. И я надеюсь, что это не займет 5 лет, чтобы мы могли немного быстрее их исправить.

Когда дело доходит до того, что пользователь оспаривает использование своих персональных данных, фирмы, разрабатывающие ИИ, должны гарантировать, что их данные не будут обучены. Вы оставляете это полностью на усмотрение фирм, или государства-члены должны будут гарантировать все сами по себе?

Восс: Я бы сказал, что для обучения и тестирования алгоритмов мы должны быть немного более открыты для этого. Но если они используют системы искусственного интеллекта в больших языковых моделях с персональными данными, компании, конечно, должны соблюдать GDPR. Постановление направляет все это на администрацию. Особенно, когда речь идет о своего рода первой модели генеративного ИИ и так далее. Это не может быть идеально. Автомобиль в наши дни отличается от того, что мы видели десятилетия назад. Вот почему мы должны признать, что есть разработка и есть первая попытка. Разработчики совершенствуются, они лучше обучают свои алгоритмы. И мы понимаем, что вам нужно иметь качественные данные, чтобы иметь хорошие результаты. Поэтому я думаю, что нам нужно немного потерпеть. Это своего рода живой продукт. И мы должны увидеть, каким может быть результат. И если это идет в неправильном направлении, пожалуйста, переобучите эти алгоритмы и так далее.

Системы интерпретации законов и правоохранительных органов ИИ квалифицируются как системы высокого риска, и их даже необходимо зарегистрировать в отдельной базе данных. Был ли ИИ уже каким-то образом использован в этих областях, или это профилактическая мера?

Восс: Я почти уверен, что это уже где-то использовалось. Но, конечно, здесь мы говорили о прогнозной полицейской деятельности. Нам нужно быть осторожными с правоохранительными органами, чтобы предсказать, может ли кто-то, кто пришел из тюрьмы, вернуться из-за ожиданий ИИ. С другой стороны, если вы достаточно открыты, вы можете создать ситуацию, когда вы говорите: да, используйте это, но мы рекомендуем и регулируем доступ и цель использования данных. Мы можем быть очень строгими, и тогда никто не должен бояться, что что-то пойдет не так. Но все же это очень сложно, когда дело доходит до правоохранительных органов.

Поскольку вы также работаете юристом, считаете ли вы, что это постановление повлияет на использование ИИ в сфере коммерческого права? В юридических фирмах? Например, в США уже новый CoCounsel AI может выполнять работу первокурсников. Считаете ли вы, что правительство попытается регулировать юридическую сферу и ИИ? Что ты об этом думаешь?

Восс: ну, в какой-то момент это может даже заменить законодателя. Итак, если мы просто говорим ChatGPT, пожалуйста, создайте AI Act 2.0, и тогда может быть лучший результат, чем то, что мы делаем прямо сейчас. Я бы все еще сказал, пожалуйста, не избегайте использования ИИ, но иногда контролируйте его. Сомневаюсь в результате чего-то. Возможно, вы их видели или слышали. Дело двух адвокатов в Нью-Йорке, которые попросили ИИ найти доказательства, и ИИ создало свои собственные доказательства. Конечно, интересно видеть, что ИИ настолько умен, чтобы создавать что-то новое. Но, конечно, с практической точки зрения для адвоката, это не очень полезно. Но все же, я бы сказал, что в будущем мы не должны слишком бояться, и мы должны больше контролировать это.

И да, это может привести к ситуации, когда даже юристы могут стать излишними. Так что просто игнорирование этому не поможет. Тогда мы должны лучше сказать: мы знаем, что это происходит, и мы можем сформировать или регулировать это таким образом, чтобы это не привело к подобной ситуации.

Я бы все еще сказал, что нам понадобятся адвокаты для суда, и нас не заменит робот в ближайшие 20 лет или около того. Но однажды системы искусственного интеллекта могут быстрее решать проблемы или давать вам лучшие советы. Это все равно произойдет, так что лучше быть готовым к этому.

В моем поколении или в старшем поколениях люди находят это жутким, и поэтому они говорят: нет, мы не хотим жить в таком мире. Наверное, как адвокат, я тоже не хочу так жить и работать. Но я не понимаю, как мы должны игнорировать это, если это помогает ускорить разбирательство, для достижения немедленных результатов. Я думаю, что в Эстонии это уже существует для определенного количества споров; у них уже есть такое разбирательство.

И это то, что я бы порекомендовал, потому что у нас слишком много дел в судах, поэтому это должно быть полезно, или это может помочь сократить объем работы. Но это зависит от того, насколько вы открыты. Я бы всегда рекомендовал, если есть возможность, мы должны попробовать. Иногда на политическом уровне я пропагандирую, что мы должны построить полноценный цифровой суд только для того, чтобы попытаться и получить опыт. Мы должны попытаться испытать все это, а затем попытаться интегрировать это. Он не должен полностью заменять юристов, но для небольшого количества претензий в некоторых случаях или для консультирования по существующим законам это может быть полезно.

Одним из положительных аспектов использования ИИ в правовой сфере может быть бесплатная юридическая помощь, так же как, как, конечно, есть юридические фирмы, где студенты или другие волонтеры пытаются помочь. Но я считаю, что ИИ может быть лучше, потому что больше людей смогут быстро получить к нему доступ и просто знать, что делать, если что-то случится. Итак, в конце концов, верите ли вы, что ИИ, такая огромная система и машина, которая развивается минуту за минутой, даже не день за днем, может быть регулируемой в рамках законодательства? Считаете ли вы, что Закон об искусственном интеллекте будет успешным?

Восс: Я начинаю с примера GDPR. Мы приняли решение об этом в 2016 году здесь, в парламенте, он вступил в силу для заявки для всех в 2018 году. И, по крайней мере, в 2019 или 2020 году, всего через два года, у вас возникает ощущение, что он уже устар. Нам нужно обновление. И до сих пор законодатели на европейском уровне, Комиссия, а также Парламент и Совет, мы как-то живем в старом мире. Обычно, если есть проблема, политики должны ее решить. Но такое решение, например, для полного регулирования ChatGPT — это займет 4 или 5 лет. И это не то, чего все ожидают, когда дело доходит до регулирования чего-то, что уже развито. Вот почему я думаю, что нам нужно найти решение в нашей демократической системе. Это не обязательно должно быть полным регулированием, но это даст рамку, в которой каждый знает, как двигаться дальше или разрабатывать алгоритм.

Говоря о разработке такого быстрого алгоритма и о том, чтобы быть в курсе событий, я прочитал предложение о том, что государствам-членам необходимо создать специальные органы, такие как уведомляющие органы и органы по чрезвычайным ситуациям. Так что, на самом деле, если ИИ выйдет из своих рамок, компания должна уведомить власти? Или как это будет работать? 

Восс: итак, на данный момент мы обсуждали, что мы предлагаем, так сказать, песочницы, которые будут организованы официальной администрацией. И мы говорим, что, если вы выходите из песочницы, вы получаете отчет о выходе, и это указывает на законное использование этого алгоритма. При этом вы должны уведомить соответствующий орган, и орган власти должны очень серьезно отнестись к вашему отчету о выходе. Но мне кажется, что отчет о выходе немного более бюрократичен, чем это необходимо. Но это необходимо для того, чтобы убедиться, что механизм работает должным образом.

Конечно, первое место — это самооценка компании. Вот почему у нас есть практическая проблема; у нас нет всех экспертов по всем алгоритмам. Поэтому нам нужно провести оценку самого разработчика, является ли это высоким риском или нет. И тогда в определенный момент группа экспертов вокруг Комиссии также должна изучить и сказать: это высокий риск или нет.

Если с алгоритмом возникает проблемная ситуация, то необходимо внести это в реестр в соответствии с Приложением 3 к Закону об искусственном интеллекте. Я надеюсь, что это также сработает хорошо. Но нам все еще нужно испытать все это. 

Рубрики: Статьи

Обсуждение закрыто.

Карта сайта:

Контакты

© 2022 - Юридическая компания - Разработка WebSymmetry