Маск и Возняк призвали приостановить обучение систем ИИ из-за «риска для общества» |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-03-29 15:36 Илон Маск, Стив Возняк и более 1000 экспертов призвали на полгода приостановить обучение систем искусственного интеллекта более мощных, чем GPT-4, чтобы понять, как их контролировать. Гонка в создании «мощных цифровых умов» грозит тем, что они заменят людей, предупредили они в открытом письме Глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute). Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме. Американская OpenAI представила новую версию языковой модели с генеративным искусственным интеллектом GPT-4 в марте 2023 года. На базе этой модели работает многозадачный чат-бот ChatGPT, который демонстрирует производительность на уровне человека в различных профессиональных и академических тестах и способен отвечать почти на любые вопросы пользователей и писать тексты по заданию. Исполнительный директор OpenAI Сэм Альтман не подписал письмо, сообщил Reuters представитель Future of Life Institute. При этом сама OpenAI недавно заявила, что, прежде чем приступать к обучению будущих систем, следует согласиться ограничить скорость вычислений, используемых для создания новых моделей. В открытом письме подчеркивается, что сегодня даже создатели «мощных цифровых умов» не в состоянии понимать их или надежно контролировать. При этом современные системы искусственного интеллекта уже становятся конкурентоспособными в решении общих задач, способны «наводнить информационные каналы пропагандой и неправдой» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы письма. Ранее, 27 марта, полиция ЕС — Европол предупредил о потенциальном неправомерном использовании таких передовых систем искусственного интеллекта, как ChatGPT в фишинге, дезинформации и киберпреступности. «Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», — объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, «это осложняет защиту общества от вреда, который может материализоваться». Источник: www.forbes.ru Комментарии: |
|