«Загробная жизнь в мире искусственного интеллекта» теперь вполне реальна — но что произойдет с вашим правовым статусом?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Вы бы создали интерактивного «цифрового двойника» самого себя, который мог бы общаться с близкими после вашей смерти?

Генеративный искусственный интеллект (ИИ) позволил, казалось бы, воскресить мертвых . Так называемые «боты скорби» или «боты смерти» — голосовые, видеоаватары или текстовые чат-боты, созданные с помощью ИИ и обученные на данных умершего человека, — широко распространены в бурно развивающейся индустрии цифровой загробной жизни , также известной как технологии скорби.

Цифровые двойники умерших обычно создаются самими скорбящими, часто в рамках процесса переживания горя. Но существуют также сервисы, позволяющие создать цифрового двойника себя при жизни. Так почему бы не создать его и после своей смерти ?

Как и любое применение новых технологий, идея подобного цифрового бессмертия порождает множество юридических вопросов, и на большинство из них нет однозначного ответа.

Ваша загробная жизнь в мире ИИ

Чтобы создать свою цифровую копию с помощью ИИ, вы можете зарегистрироваться в сервисе, предоставляющем эту функцию, и ответить на ряд вопросов, чтобы предоставить данные о себе. Вы также можете записать истории, воспоминания и мысли своим собственным голосом. Кроме того, вы можете загрузить свое визуальное изображение в виде фотографий или видео.

Затем программное обеспечение на основе искусственного интеллекта создает цифровую копию на основе этих обучающих данных. После вашей смерти и уведомления компании о ней ваши близкие смогут взаимодействовать с вашим цифровым двойником.

Но, поступая таким образом, вы также делегируете компании право создавать цифровую симуляцию вашего собственного «я» с помощью искусственного интеллекта после вашей смерти.

С самого начала это отличается от использования ИИ для «воскрешения» умершего человека, который не может дать на это согласия. Вместо этого живой человек, по сути, лицензирует данные о себе компании, занимающейся созданием ИИ-технологий для посмертного использования, еще до своей смерти. Он участвует в преднамеренном, договорном создании данных, сгенерированных ИИ, для посмертного использования.

Однако остается много вопросов без ответа. Что насчет авторских прав? Что насчет вашей конфиденциальности? Что произойдет, если технология устареет или компания закроется? Будут ли данные проданы? «Умирает» ли также цифровой двойник, и какое влияние это оказывает на скорбящих во второй раз?

Что гласит закон?

В настоящее время австралийское законодательство не защищает личность, голос, присутствие, ценности или индивидуальность человека как таковые. В отличие от Соединенных Штатов, австралийцы не обладают общим правом на публичность или право на использование своей личности . Это означает, что у гражданина Австралии в настоящее время нет законного права владеть или контролировать свою личность — использование своего голоса, изображения или внешности.

Короче говоря, закон не признает права собственности на большинство уникальных вещей, которые делают вас «вами».

В соответствии с законом об авторском праве, понятие вашего присутствия или «я» является абстрактным, подобно идее. Авторское право не защищает «ваше присутствие» или «я» как таковые. Это связано с тем, что для существования авторского права в определенных категориях произведений должна существовать материальная форма: это осязаемые вещи, такие как книги или фотографии.

Однако, текстовые ответы или голосовые записи, предоставленные ИИ для обучения, являются существенными. Это означает, что данные, используемые для обучения ИИ созданию вашего цифрового двойника, скорее всего, будут защищены авторским правом. Но на результаты работы полностью автономного ИИ вряд ли будут распространяться какие-либо авторские права . Согласно действующему австралийскому законодательству, они, скорее всего, будут считаться беспристрастными, поскольку созданы не в результате «независимого интеллектуального труда» человека, а машиной.

Моральные права в рамках авторского права защищают репутацию создателя от ложного приписывания авторства и от уничижительного отношения к его работе. Однако они не распространяются на цифровой двойник. Это связано с тем, что моральные права распространяются на реальные произведения, созданные человеком, а не на результаты, сгенерированные искусственным интеллектом.

Итак, что же тогда делать с вашим цифровым двойником? Хотя авторское право вряд ли распространяется на результаты, сгенерированные ИИ, в своих условиях использования компании могут заявлять о своем праве собственности на данные, сгенерированные ИИ, пользователям могут быть предоставлены права на результаты, или компания может оставлять за собой широкие права на повторное использование. На это стоит обратить внимание.

Существуют также этические риски.

Использование ИИ для создания цифровых копий людей — живых или умерших — также сопряжено с этическими рисками . Например, даже если обучающие данные для вашего цифрового двойника будут заблокированы после вашей смерти, другие люди смогут получить к ним доступ в будущем, взаимодействуя с ними. Что произойдет, если технология исказит моральные принципы и этику умершего человека?

Поскольку искусственный интеллект обычно носит вероятностный характер и основан на алгоритмах, существует риск искажения или деформаций, когда ответы со временем изменяются. Робот, создавший смерть, может потерять сходство с первоначальным человеком. Неясно, какие меры могут предпринять скорбящие в этом случае.

Искусственный интеллект, позволяющий создавать роботов-убийц и цифровых двойников, может помочь людям пережить горе , но результаты пока носят преимущественно анекдотический характер — необходимы дополнительные исследования. В то же время существует вероятность того, что скорбящие родственники могут развить зависимость от ИИ-версии своего любимого человека, вместо того чтобы переживать горе более здоровым способом . Если результаты работы технологий, использующих ИИ для помощи в переживании горя, вызывают стресс, как с этим справиться и кто будет нести ответственность?

Нынешнее состояние законодательства ясно показывает, что в этой бурно развивающейся индустрии технологий, связанных с переживанием горя, необходимо усилить регулирование. Даже если вы дадите согласие на использование ваших данных для создания цифрового двойника на основе ИИ после вашей смерти, трудно предсказать, как новые технологии изменят способы использования ваших данных в будущем.

На данный момент важно всегда внимательно читать условия использования, если вы решили создать для себя цифровую загробную жизнь. В конце концов, вы связаны подписанным контрактом.

Предоставлено изданием The Conversation


Источник: vk.com

Комментарии: