"Сначала воруйте контент, потом нанимайте юристов" - совет стартапам от бывшего директора |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-08-17 11:59 "Сначала воруйте контент, потом нанимайте юристов" - совет стартапам от бывшего директора Google. Тем временем, правовая битва между художниками и ИИ-алгоритмами набирает обороты Эрик Шмидт, экс-руководитель Google, взбудоражил технологическое сообщество своим недавним выступлением в Стэнфордском университете. Его советы начинающим предпринимателям вызвали бурные обсуждения, особенно после того, как видео лекции появилось на YouTube-канале вуза, а затем было спешно удалено. Говоря о перспективах искусственного интеллекта, Шмидт привёл пример, который многие сочли провокационным: "Представьте, что TikTok запретили. Вот что я предлагаю каждому из вас сделать: дайте своей языковой модели такую команду: «Сделай мне клон TikTok, перетяни всех пользователей, всю музыку, добавь мои предпочтения. Сгенерируй это приложение за 30 секунд, запусти его, и если через час оно не станет вирусным, придумай что-нибудь похожее». Вот такая команда. И понеслась." Этот пример вызвал неоднозначную реакцию, но Шмидт не остановился на достигнутом. Развивая свою мысль, он добавил: "Знаете, в том примере с конкурентом TikTok — и, кстати, я не призываю незаконно присваивать чужую музыку — если вы типичный предприниматель из Кремниевой долины, кем, надеюсь, все вы станете, то в случае успеха вы просто наймёте кучу юристов, чтобы разгрести весь этот бардак, верно? А если вашим продуктом никто не пользуется, какая разница, что вы там позаимствовали?" Когда Шмидту напомнили о том, что выступление записывается, то он отреагировал с долей иронии: "Да, точно. Но вы же понимаете, о чём я. По сути, в Кремниевой долине сначала проводят такие эксперименты, а потом разбираются с последствиями. Обычно всё делается именно так." Несмотря на то, что Шмидт уже не занимает руководящих постов в Google, его слова по-прежнему имеют вес в технологическом мире. Он остаётся активным инвестором и влиятельной фигурой в Кремниевой долине. Заявления Шмидта отражают распространенный в индустрии ИИ подход к использованию чужого контента. Многие компании годами собирают пользовательские материалы для обучения своих моделей, что вызывает споры о соблюдении авторских прав. В то время как некоторые организации открыто критикуют подобные практики, Шмидт, похоже, считает возможные юридические проблемы лишь «беспорядком», который можно уладить позже. ********************************************* И вот именно так это и работает. Все вопли защитников о "такои жи абучении как у чилавекаф , и ано ни франкинштейн, ничиво ни запаминает и нету тама баз даннех" — это или сознательное заблуждение, основанное на том, во что им хочется верить, или прямая ложь. Но, с каждым таким высказыванием — одно из которых было на стене совсем недавно — шоры постепенно начинают спадать. Эту отрасль необходимо регулировать. Не запрещать, призывы к чему мне приписывают некоторые шизофреники, у которых и в ушах, и в мозгах восковые затычки из компоста. А регулировать. На фоне этого другая новость, как раз в пику: Группа художников, подавших коллективный иск против создателей популярных ИИ-моделей для генерации изображений, не скрывает своей радости. Ещё бы — судья разрешил делу двигаться дальше и санкционировал раскрытие важной информации. Под прицелом оказались разработчики Midjourney, Runway, Stability AI и DeviantArt. Художники уверены: эти компании без спроса использовали их защищённые авторским правом работы, чтобы научить свои ИИ-системы на базе Stable Diffusion рисовать. Судья Уильям Оррик из Северного окружного суда Калифорнии, где, кстати, обосновались многие ИИ-гиганты, решил: обвинения достаточно серьёзны, чтобы копнуть глубже. Теперь юристы художников смогут заглянуть в святая святых — внутренние документы компаний-ответчиков. Это значит, что скоро мы можем узнать много интересного о том, как эти ИИ-системы учились и как они работают на самом деле. Кстати, о том, как они учились. Известно, что Stable Diffusion «насмотрелась» на 5 миллиардов изображений из набора данных LAION-5B. Но вот незадача — в этом наборе были только ссылки и описания, а сами картинки компаниям пришлось собирать самостоятельно. И тут-то и возникает вопрос о разрешении авторов. Но это ещё не всё. Модели на базе Stable Diffusion используют механизм под названием "CLIP-guided diffusion". Он помогает ИИ создавать изображения на основе запросов пользователей, в которых могут упоминаться имена художников. Метод CLIP (Contrastive Language-Image Pre-training) придумали ребята из OpenAI ещё в 2021 году, задолго до того, как весь мир заговорил о ChatGPT. CLIP можно представить как огромную базу данных, где хранится информация о стиле разных художников. И вот если при обучении, скажем, Midjourney использовались имена авторов и их работы с описаниями, это может оказаться нарушением авторских прав. Пока рано говорить о том, чем всё это закончится. Но художники уже празднуют эту маленькую победу. И неспроста — ведь это дело может стать настоящим прецедентом в вопросе использования авторских работ для обучения ИИ. Источник: vk.com Комментарии: |
|