"Сначала воруйте контент, потом нанимайте юристов" - совет стартапам от бывшего директора

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


"Сначала воруйте контент, потом нанимайте юристов" - совет стартапам от бывшего директора Google. Тем временем, правовая битва между художниками и ИИ-алгоритмами набирает обороты

Эрик Шмидт, экс-руководитель Google, взбудоражил технологическое сообщество своим недавним выступлением в Стэнфордском университете. Его советы начинающим предпринимателям вызвали бурные обсуждения, особенно после того, как видео лекции появилось на YouTube-канале вуза, а затем было спешно удалено.

Говоря о перспективах искусственного интеллекта, Шмидт привёл пример, который многие сочли провокационным:

"Представьте, что TikTok запретили. Вот что я предлагаю каждому из вас сделать: дайте своей языковой модели такую команду: «Сделай мне клон TikTok, перетяни всех пользователей, всю музыку, добавь мои предпочтения. Сгенерируй это приложение за 30 секунд, запусти его, и если через час оно не станет вирусным, придумай что-нибудь похожее». Вот такая команда. И понеслась."

Этот пример вызвал неоднозначную реакцию, но Шмидт не остановился на достигнутом. Развивая свою мысль, он добавил:

"Знаете, в том примере с конкурентом TikTok — и, кстати, я не призываю незаконно присваивать чужую музыку — если вы типичный предприниматель из Кремниевой долины, кем, надеюсь, все вы станете, то в случае успеха вы просто наймёте кучу юристов, чтобы разгрести весь этот бардак, верно? А если вашим продуктом никто не пользуется, какая разница, что вы там позаимствовали?"

Когда Шмидту напомнили о том, что выступление записывается, то он отреагировал с долей иронии:

"Да, точно. Но вы же понимаете, о чём я. По сути, в Кремниевой долине сначала проводят такие эксперименты, а потом разбираются с последствиями. Обычно всё делается именно так."

Несмотря на то, что Шмидт уже не занимает руководящих постов в Google, его слова по-прежнему имеют вес в технологическом мире. Он остаётся активным инвестором и влиятельной фигурой в Кремниевой долине.

Заявления Шмидта отражают распространенный в индустрии ИИ подход к использованию чужого контента. Многие компании годами собирают пользовательские материалы для обучения своих моделей, что вызывает споры о соблюдении авторских прав.

В то время как некоторые организации открыто критикуют подобные практики, Шмидт, похоже, считает возможные юридические проблемы лишь «беспорядком», который можно уладить позже.

*********************************************

И вот именно так это и работает. Все вопли защитников о "такои жи абучении как у чилавекаф , и ано ни франкинштейн, ничиво ни запаминает и нету тама баз даннех" — это или сознательное заблуждение, основанное на том, во что им хочется верить, или прямая ложь.

Но, с каждым таким высказыванием — одно из которых было на стене совсем недавно — шоры постепенно начинают спадать.

Эту отрасль необходимо регулировать. Не запрещать, призывы к чему мне приписывают некоторые шизофреники, у которых и в ушах, и в мозгах восковые затычки из компоста. А регулировать.

На фоне этого другая новость, как раз в пику:

Группа художников, подавших коллективный иск против создателей популярных ИИ-моделей для генерации изображений, не скрывает своей радости. Ещё бы — судья разрешил делу двигаться дальше и санкционировал раскрытие важной информации.

Под прицелом оказались разработчики Midjourney, Runway, Stability AI и DeviantArt. Художники уверены: эти компании без спроса использовали их защищённые авторским правом работы, чтобы научить свои ИИ-системы на базе Stable Diffusion рисовать.

Судья Уильям Оррик из Северного окружного суда Калифорнии, где, кстати, обосновались многие ИИ-гиганты, решил: обвинения достаточно серьёзны, чтобы копнуть глубже. Теперь юристы художников смогут заглянуть в святая святых — внутренние документы компаний-ответчиков. Это значит, что скоро мы можем узнать много интересного о том, как эти ИИ-системы учились и как они работают на самом деле.

Кстати, о том, как они учились. Известно, что Stable Diffusion «насмотрелась» на 5 миллиардов изображений из набора данных LAION-5B. Но вот незадача — в этом наборе были только ссылки и описания, а сами картинки компаниям пришлось собирать самостоятельно. И тут-то и возникает вопрос о разрешении авторов.

Но это ещё не всё. Модели на базе Stable Diffusion используют механизм под названием "CLIP-guided diffusion". Он помогает ИИ создавать изображения на основе запросов пользователей, в которых могут упоминаться имена художников. Метод CLIP (Contrastive Language-Image Pre-training) придумали ребята из OpenAI ещё в 2021 году, задолго до того, как весь мир заговорил о ChatGPT.

CLIP можно представить как огромную базу данных, где хранится информация о стиле разных художников. И вот если при обучении, скажем, Midjourney использовались имена авторов и их работы с описаниями, это может оказаться нарушением авторских прав.

Пока рано говорить о том, чем всё это закончится. Но художники уже празднуют эту маленькую победу. И неспроста — ведь это дело может стать настоящим прецедентом в вопросе использования авторских работ для обучения ИИ.


Источник: vk.com

Комментарии: