Украсть личность за 90 секунд: правовой вакуум в эпоху голосовых клонов

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
56.777
Репутация
64.070
Реакции
282.309
RUB
0
Deepfake-аудио становится реальной угрозой, а законы не успевают за технологиями.

92t0t1ebjxqvu9k5bnvtpnoh2smbvlc2.jpg


Создать цифровую копию голоса известного человека сегодня можно всего за 100 австралийских долларов. Именно такую сумму потратил телеканал ABC News Verify , чтобы создать синтетическую копию голоса федерального сенатора Джеки Лэмби — с её согласия — используя легкодоступную онлайн-платформу.

Этот пример наглядно демонстрирует , как приложения искусственного интеллекта, создающие синтетические копии изображения и голоса в виде дипфейков, становятся дешевле и проще в использовании. Подобные технологии представляют серьёзную угрозу не только для функционирования демократических процессов, особенно в период выборов, но и для идентичности конкретного человека.

Действующее австралийское законодательство об авторском праве неадекватно защищает людей, чьи изображения или голоса подвергаются цифровому клонированию без разрешения. Решением может стать внедрение концепции «прав на индивидуальность» (personality rights).

Современные технологии создания дипфейков способны производить контент, который выглядит всё более реалистичным. Это затрудняет выявление подделок. Действительно, многие люди, которым ABC продемонстрировало клон голоса сенатора Лэмби, изначально не поняли, что имеют дело с фальшивкой.

Данный факт показывает, насколько легко несанкционированные дипфейки и клоны голоса могут использоваться для генерации дезинформации. Они также могут нанести значительный ущерб репутации отдельных личностей.

Это было продемонстрировано ещё в 2020 году, когда в Австралии появилось одно из первых политических дипфейк-видео. На нём занимавшая тогда пост премьера Квинсленда Анастасия Палащук якобы заявляла, что штат «разорён» и имеет «огромные долги». Видео набрало около миллиона просмотров в социальных сетях.

В Австралии законы о диффамации, конфиденциальности, злоупотреблении изображениями, а также законы о защите потребителей теоретически могут применяться к ситуациям с дипфейк-видео или аудиоклипами. Также есть возможность подать жалобу комиссару по электронной безопасности.

В теории законы об авторском праве также могут защищать изображение и голос человека. Однако их применение имеет более нюансированный характер. Во-первых, человек, чья внешность была клонирована платформой ИИ, часто не является владельцем исходного материала. Этот материал может быть изображением, видео или аудиозаписью, которые были скопированы и загружены. Даже если на изображении или в записи голоса представлен конкретный человек, если он не является владельцем исходного материала, он не может подать иск о нарушении.

Используя пример сенатора Лэмби, ABC потребовалось всего 90 секунд оригинальной голосовой записи для создания ИИ-клона. Сам голос сенатора Лэмби не подлежит защите авторским правом, поскольку авторское право может быть применено только к материальному выражению, например, в письменной или записанной форме, но не к речи или невыраженным идеям.

В большинстве юрисдикций США существуют так называемые «права на индивидуальность». Эти права включают право на публичность, которое признаёт, что имя, образ, голос и другие атрибуты человека имеют коммерческую ценность. Знаменитости, такие как Бетт Мидлер и Джонни Карсон, успешно реализовали это право для предотвращения использования элементов своей идентичности компаниями в коммерческих целях без разрешения.

Однако «права на индивидуальность» не всегда применимы к ИИ-клонам голоса. Некоторые юристы утверждают, что защите подлежат только фактически записанные голоса, а не их клоны. Это привело к тому, что такие штаты, как Теннесси, ввели законодательство для решения проблем с контентом, созданным ИИ. Закон об обеспечении безопасности изображения, голоса и образа , введённый в 2024 году, рассматривает вопросы незаконного присвоения голоса человека через использование генеративного ИИ.

В научных кругах давно ведутся дискуссии о том, следует ли Австралии вводить законодательные права на публичность. Одна из проблем заключается в пересечении с существующими законами, такими как австралийское законодательство о защите потребителей и деликтное право. Другая сложность — как обеспечить соблюдение этих прав, если дипфейк, созданный с помощью ИИ, был создан за рубежом.

Австралия также могла бы рассмотреть возможность введения закона, аналогичного законопроекту «No Fakes Bill» , который в настоящее время обсуждается в США. В случае принятия этот законопроект позволил бы людям защищать своё изображение и голос через права интеллектуальной собственности.

Поскольку дипфейки становятся всё более распространёнными и получают широкое распространение во время выборов, австралийцам важно сохранять бдительность в преддверии предстоящих федеральных выборов. Остаётся надеяться, что победитель этих выборов предпримет срочные меры для лучшей защиты изображения и голоса каждого.






 
  • Теги
    deepfake
  • Назад
    Сверху Снизу