Права гражданина в эпоху искусственного интеллекта ИИ.
Какие права мы должны иметь в обществе, которое все чаще изучается, контролируется с помощью искусственного интеллекта (ИИ)?
Чтобы решить эту острую и нерешенную правовую проблему, 4 октября 2022 года Белый дом США опубликовал белую книгу, неофициально именуемую Биллем о правах ИИ, которая более официально озаглавлена «Проект Билля о правах ИИ: как сделать работу автоматизированных систем на американский народ». Документ является работой Управления научно-технической политики, федерального органа, которое было создано в середине 1970-х годов и служит для консультирования американского президента и исполнительной канцелярии США по различным технологическим, научным и инженерным аспектам национального значения.
Это первый обширный правовой документ, касающийся данной области, давайте детально разберем Билль о правах ИИ и рассмотрим плюсы и минусы этого последнего заявления, касающегося ИИ и закона.
Правильно. Думать Об Искусственном Интеллекте и Правах Человека.
Название этого документа как Билля о правах ИИ немного странно, так как это может непреднамеренно предположить, что это права, связанные с системами ИИ, которые считаются достигающими чувств или иным образом приближающимися к точке юридического лица. Не так. Чтобы уточнить, этот 73-страничный документ посвящен правам человека на фоне продолжающегося натиска систем ИИ, которые развертываются без достаточного внимания к безопасности и благополучию человечества.
Возможно, вы знаете, что ИИ был использован многочисленными частными и государственными организациями и в конечном итоге действовал различными дискриминационными способами. Наши гражданские права и гражданские свободы подвергаются нападкам, как создается и используется ИИ. ИИ иногда разрушительно подрывает конфиденциальность данных. ИИ пронизывает все виды социальных сетей и может ошибочно подавлять тех, кто критикует и осуждает важные аспекты. ИИ может использоваться для преследования кого-то как в электронном, так и в физическом мире, ставя под угрозу его личную безопасность.
Техническая часть угрозы исходящей от ИИ.
Техническая часть Билля о правах ИИ описывает десятки реальных примеров, демонстрирующих, как ИИ неправильно разрабатывается и способствует потенциальному ущербу. Примеров достаточно. В качестве дополнительного предвестника беспокойства имейте в виду, что ИИ широко внедряется и в конечном итоге будет повсеместным. Вы можете предвидеть непрерывный шквал ИИ среди почти всех наших ежедневных приложений на наших смартфонах, а также приложений на базе искусственного интеллекта, используемых крупными компаниями и государственными учреждениями.
Если мы неумолимо собираемся погрузиться в пронизанный ИИ образ жизни, логический ответ заключается в том, чтобы отстаивать права человечества. Таким образом, аргументированная основа для дальнейшего развития Билля о правах ИИ, который сможет защитить права людей.
Конституция США имеет исторический Билль о правах, который включает в себя жизненно важные гарантии личных свобод и внимательно рассматривает кодификацию юридически оговоренных прав. Первые десять поправок к Конституции захватывают дух по своим масштабам и значению. Этот Билль о правах ИИ пытается использовать почитаемый характер Билля о правах, чтобы привлечь внимание общественности к тому, что необходимо учитывать в эпоху ИИ (некоторые могут легко критиковать попытку несколько «эксплуатировать» знаменитый Билль о правах таким образом именования, возможно, превышая правильное чувство приличия, хотя это может быть небольшая цена за вовлечение общества в предстоящий юридическое болото).
Билль о правах ИИ закрепит пять основных понятий (выдержки из официальной белой книги):
- Безопасные и эффективные системы: «Вы должны быть защищены от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться при консультации с различными сообществами, заинтересованными сторонами и экспертами в области для выявления проблем, рисков и потенциальных последствий системы».
- Защита от алгоритмической дискриминации: «Вы не должны сталкиваться с дискриминацией по алгоритмам, а системы должны использоваться и разрабатываться на справедливой основе. Алгоритмическая дискриминация возникает, когда автоматизированные системы способствуют неоправданному различному обращению или влияют на неблагоприятное положение людей по признаку их расы, цвета кожи, этнической принадлежности, пола (включая беременность, роды и связанные с ними заболевания, гендерную идентичность, интерсекс-статус и сексуальную ориентацию), религии, возраста, национального происхождения, инвалидности, статуса ветерана, генетической информации или любой другой классификации, защищенной законом».
- Конфиденциальность данных: «Вы должны быть защищены от злоупотреблений с данными с помощью встроенной защиты, и у вас должно быть агентство по поводу того, как используются данные о вас. Вы должны быть защищены от нарушений конфиденциальности с помощью вариантов дизайна, которые обеспечивают включение такой защиты по умолчанию, включая обеспечение того, чтобы сбор данных соответствовал разумным ожиданиям, и чтобы собирались только данные, строго необходимые для конкретного контекста».
- Уведомление и объяснение: «Вы должны знать, что используется автоматизированная система, и понимать, как и почему она способствует результатам, которые влияют на вас. Разработчики, разработчики и разработчики автоматизированных систем должны предоставить общедоступную документацию на простом языке, включая четкое описание общего функционирования системы и роли автоматизации, уведомление о том, что такие системы используются, лицо или организация, ответственные за систему, и объяснения результатов, которые ясны, своевременны и доступны».
- Человеческие альтернативы, рассмотрение и запасной вариант: «Вы должны иметь возможность отказаться, где это уместно, и иметь доступ к человеку, который может быстро рассмотреть и устранить проблемы, с которыми вы сталкиваетесь. Вы должны иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно».
ИИ, запрограммированный людьми, может содержать множество скрытых рисков.
Я не ссылаюсь на экзистенциальные риски, такие как ИИ, который поднимается и захватывает человечество (мы еще не на этом уровне). ИИ, с которым сталкивается, состоит из не различного алгоритмического дифференцирования. Усилия по законодательной борьбе с алгоритмическим ИИ включают в себя Конгресс США, который продолжает усилия по разработке Закона об алгоритмической подотчетности, в то время как в европейской сфере в настоящее время находится Закон ЕС об искусственном интеллекте (AIA).
Вам будет трудно выступить против предложенных пяти статей недавно обнародованного Билля о правах ИИ. Эти пять статей, несомненно, разумны. Можно побиться с некоторыми формулировками здесь или там, но в целом указанные меры защиты — это то, что нам нужно тщательно рассмотреть.
Тем не менее, Билль о правах ИИ, возможно, только сбил наш аппетит. Представьте, что это предшественник или закуска, ведущая к более полноценной еде.
Мы уже видели эту закуску в других облике, таких как Министерство обороны США официально заявило этические принципы ИИ и даже несколько сопоставимые директивы Ватикана в своем Римском призыве к этике ИИ. Гораздо более подробное разъяснение этих видов прав человека, имеющих отношение к ИИ, было хорошо задокументировано в Рекомендации по этике искусственного интеллекта, опубликованной в прошлом году ЮНЕСКО (Организация Объединенных Наций по вопросам образования, науки и культуры), которая получила одобрение 193 стран-членов Организации Объединенных Наций [8].
В этом смысле Биллю о правах ИИ есть на что опираться, но и в то же время соответствовать этому.
Билль о правах ИИ можно сказать недостаточным во многих отношениях, включая, но не ограничиваясь:
- Не имеющий юридической силы и совершенно необязательный
- Только консультационная и не рассмотренная государственная политика
- Менее всеобъемлющий по сравнению с другими опубликованными работами
- В первую очередь состоит из широких концепций и не имеет деталей реализации
- Будет сложно превратиться в реальные жизнеспособные практические законы
- Незначительно признает преимущества использования хорошо продуманного ИИ
Несмотря на вышеупомянутые недостатки, безусловно, есть что сказать о попытке поместить палку в землю и заставить мяч катиться на регуляторном управлении ИИ. По-видимому, отдельные области федерального правительства США попытаются опробовать пять статей Билля о правах ИИ (как предлагается в белой книге в рамках «примера»). Кажется, вера в то, что это осветит эффективность статей и раскроет способы их укрепления и заточки.
Те, кому поручено принять наши законы, будут сталкиваться со сложной работой по объединению, настоящей шведский стол рекомендуемых этических практик ИИ мягкого права и лоскутных законов об искусственном интеллекте, которые появляются во всех штатах.
Адвокаты и студенты-юристы скоро увидят, что ИИ и право поднимается на поверхность. По мере того, как разрабатывается и высвобождается все больше ИИ, компаниям и правительствам придется искать опытных юридических консультантов, работающих на ИИ. Между тем, предстоящий избыток новых или воображаемых законов ИИ потребует юридических умов, которые могут гарантировать, что законы, кодифицированные, разумны и практичны. И потенциальный вред, причиненный ИИ, потребует юристов, которые готовы бороться за права человечества против блица злобных систем ИИ.
Согласно высказыванию Луи Брандейса: «Если мы хотим уважения к закону, мы должны сначала сделать закон респектабельным».
Давайте все вступим в действие и сделаем права человечества, связанные с появлением ИИ, главным приоритетом. Это, безусловно, кажется респектабельным делом.
Рубрики: Статьи Техас подал в суд на администрацию Байдена за отмену иммиграционного правила. Самые громкие судебные процессы 2022 года.