Построение более безопасного AGI путем введения искусственной глупости |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-08-24 23:15 Концептуализация тупости как задача всегда очаровывала меня противоречием, ведь нужно познавать то, что само по себе отрицает познание. Но парни из Сорбонны и университета Луисвилля перед такими псевдопарадоксами не пасуют, и поэтому разделили всю Искусственную Тупость на 14 частей, начиная от умеренности и заканчивая аккуратностью. Люди-то развили свою тупость в ходе естественного отбора, а вот нейросети придется специально учить тупить. Главной целью называется контроль над искусственным интеллектом и снижение рисков от его разработки. Если интеллект будет потупее, то мы сможем держать его на коротком поводке Искусственной Тупости. Но при этом, по-моему, нужно сразу обозначать и другую проблему: чтобы существовал хотя бы какой-то интерфейс между человеком и машинами, последние должны уметь входить в наше положение и тупить достаточно эффективно. Будущее человеческого вида буквально зависит сегодня от исследований тупости и того, сможем ли мы сделать наши машины достаточно тупыми. Уникальный момент, и опять же - такой подарок для эпистемологов. Источник: arxiv.org Комментарии: |
|