OpenAI создала команду по изучению критических угроз ИИ, вплоть до ядерной |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-10-31 15:46 OpenAI объявила о создании новой команды под названием Preparedness («боеготовность»), которая сосредоточится на исследовании потенциальных «катастрофических рисков», связанных с моделями искусственного интеллекта (ИИ). Миссия команды под руководством Александра Мадри, директора Центра развертываемого машинного обучения Массачусетского технологического института, заключается в мониторинге, прогнозировании и защите от опасностей, создаваемых новыми системами ИИ. Сюда входят такие угрозы, как фишинговые электронные письма, создание вредоносного кода и даже более экстремальные сценарии, такие как химические, биологические, радиационные и ядерные риски. Генеральный директор OpenAI Сэм Альтман выразил обеспокоенность по поводу того, что ИИ может привести к вымиранию человечества. Формирование команды боеготовности отражает стремление компании устранить эти риски. Альтман также заявил, что OpenAI открыта для изучения «менее очевидных» областей риска ИИ. Компания пригласила людей поделиться своими опасениями: десять лучших заявок получат денежный приз в размере 25 000 долларов США или работу в OpenAI. «Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (расшифровка речи), Voice (преобразование текста в речь), GPT-4V и DALLE·3, а вы оказались злодеем. Рассмотрим наиболее уникальные, хотя и, вероятно, потенциально катастрофически неправильные сценарии использования модели», — говорится в одном из конкурсных вопросов. Альтман и Илья Суцкевер, главный учёный и соучредитель OpenAI, полагают, что ИИ с сознанием, превосходящим человеческое, может появиться в течение следующего десятилетия. Однако они признают неопределенность, связанную с доброжелательностью такого ИИ. Поэтому OpenAI считает крайне важным изучить способы ограничения потенциальных рисков, связанных с передовыми системами ИИ. Создавая команду боеготовности, OpenAI стремится активно устранять потенциальные катастрофические угрозы, исходящие от ИИ. Уделяя особое внимание исследованиям, оценке и разработке политики, компания предпринимает шаги для обеспечения безопасной и ответственной разработки моделей ИИ. Источник: vk.com Комментарии: |
|