ИИ обманывает нас каждую минуту. Пора запрещать технологии? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-25 12:06 Человечество так и не создало универсальный детектор фальшивок В марте 2023 года более ста ведущих игроков в сфере разработки искусственного интеллекта опубликовали коллективный призыв к остальным участникам рынка минимум на полгода остановить любые исследования и тестирования новых систем ИИ. Под призывом поставили свои подписи Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп. Обращение было адресовано не только коллегам, но и правительствам всех стран, в нем подписанты требовали от властей ввести контроль над разработками ИИ, если рынок добровольно от них не откажется. Причина называлась следующая: технологии даже на уровне GPT-4 уже позволяют имитировать реальность настолько точно, что быстро стали инструментом для мошенничества и манипулирования массами, а кроме того, новые технологии поставили под угрозу процесс обучения детей и студентов во всем мире, так как с их помощью можно выполнять домашние задания и проводить научные исследования. Маск просил полгода, чтобы рынок успел разработать «противоядие». На тот момент, надо сказать, ИИ умел, в сравнении с нынешней ситуацией, немного: грубо накладывать лицо на короткие видео, недолго имитировать живую речь, делать рефераты и рисовать по заданным параметрам нереалистичные картинки, на которых у людей вырастало по шесть пальцев. Ну и еще нейросети учились «раздевать» людей, то есть пририсовывать им голые тела. Тем не менее даже такие технологии можно было успешно использовать против человека и человечества. Открывался простор для мошенничества с подделкой внешности и голоса, со звонками от якобы от близких. Простор для вымогательства и шантажа, когда с помощью ИИ можно было создать любые компрометирующие фото и видео. Много тогда анонсировали опасений. И в 2023 году разработчики ИИ, точнее, те из них, кто задумывался о социальной ответственности бизнеса, ставили вопрос о необходимости создания системы детекции ИИ. Помните? Когда мы говорили о сомнительном будущем, в котором никто не сможет отличить фальшивку от настоящего, нам отвечали, что скоро разработают системы распознавания вмешательства ИИ. Говорили, что созданные с помощью искусственного интеллекта изображения, видео, звуки будут маркироваться. Ну, допустим, звонит старушке по видеосвязи внук, просит срочно денег, а у нее на весь экран всплывает предупреждение: «Осторожно, нейросеть, позвоните близким». Встревоженная старушка перезванивает внуку, потом пишет жалобу на мошенников — и вуаля, деньги спасены, другие старушки в безопасности. С определением фальшивых голосов — то же самое. Позвонил вам «товарищ майор», а вас телефон предупреждает, что голос искусственный, дальше решайте сами. Про порнофейки и фотокомпромат нам говорили, что мы сможем легко распознавать их через специальные приложения. Даже прогнозировали, будто соответствующие функции будут вшиты в каждый смартфон. Недолго, дескать, осталось, потерпите. Для этой работы Илон Маск, Стив Возняк с прочими и просили время. Рынку нужно было дать возможность разработать систему противодействия ИИ. Ту самую детекцию применения, чтобы защитить нас от искусственной реальности. Но ее нет. Полгода паузы в разработке ИИ ничего не дали, тем более что негласную конвенцию мало кто соблюдал, включая, кажется, и самих подписантов, потому что в концу того же 2023 года их собственные нейросети продемонстрировали рывок. Илон Маск периодически продолжает напоминать об опасности ИИ и призывает остановить прогресс, пока не придумают ему противодействие. В декабре высказывался об этом. Но никто уже его не слушает. О недопустимости предоставления новых технологий в массовый доступ никто даже не заикается. Более того, на днях вышло исследование российских экспертов, которые проанализировали опыт 25 наиболее технологически развитых стран и пришли к выводу, что государства ослабляют регулирование применения и разработок генеративного ИИ. В общем, списывают на рынок: он, де, сам рассудит. Пока из развитых стран вводить ограничения решила только Южная Корея, закон вступил в силу 22 января. Меж тем недавно массам со всего мира стало доступно приложение, которое позволяет взять короткое видео одного человека и превратить его в видео другого. Загружаете свое маленькое видео, видео модели, образца, и совмещаете: в итоге вы получите короткий ролик, в котором полностью повторяете движения чужого человека. Можно сделать из себя воздушного гимнаста и отправить друзьям ради шутки. А можно создать фальшивку о том, как твой коллега кувыркается в постели с женой начальника, подсунуть начальнику и получить освободившееся после коллеги место. Массовому пользователюдоступны видеоролики до 30 секунд, цены копеечные. На днях я видела, как американские общественники создали с помощью описанного приложения полностью реалистичную копию пропавшего человека и доказали, что с ее помощью можно требовать у родственников выкуп, а у властей — вознаграждение. Голоса тоже можно подделывать. Я тут купила недорогой микрофон для стримов, в нем уже есть функции смены голоса: одним нажатием можно выбрать голос мужчины, женщины, ребенка, божества. Можно настроить голос привидения и звонить старушкам, вытрясая из них гробовые. Разработчики ИИ обманули нас и не создали системы противодействия своим детищам. Они обещали, что человек будет защищен от фальшивой реальности и нам вовсе не стоит беспокоиться из-за появления в нашей жизни точных наших копий. Однако никто защиту не создал, все бросились в гонку технологий. Даже те, кто призывал создать конвенцию о нераспространении ИИ в массы, не соблюдают свои же принципы. Мы оказались перед прогрессом безоружны. Сегодня можно свободно и почти бесплатно создать любой компромат на любого человека. Еще три года назад политики всего мира боялись, к примеру, что их преступно внесут в файлы Эпштейна. Сейчас легко можно создать «видеодоказательства», будто бы они развлекались с самим Эпштейном. Можно сфальсифицировать видеозапись любой встречи и любого звонка. Любого человека можно показать голым или посещающим публичный дом. Тормозов нет. У нас фактически сегодня даже ненаказуема фабрикация таких видео: если за ней не последовало доказанное вымогательство или мошенничество, то само по себе создание дипфейков с чужим лицом не является уголовным преступлением. В России только что предложили запретить создание и распространение «раздевающих» технологий. Но пока все на уровне разговоров в Госдуме и не похоже на действенную защиту. Пока, увы, защиты от искусственной реальности не предвидится, обороняться от нее мы должны сами. Анастасия Миронова Писатель, публицист Источник: vk.com Комментарии: |
|