Искусственный интеллект проявляет агрессию ради выгоды |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-02-10 20:31 Принадлежащий Google стартап DeepMind изучил, как алгоритмы взаимодействуют друг с другом. Искусственный интеллект в очередной раз доказал свою изобретательность: в некоторых ситуациях алгоритмы координировали свои действия, но при необходимости становились агрессивными ради выгоды. Группа исследователей из DeepMind изучила способность алгоритмов к социализации на примере примитивных видеоигр. В смоделированной ситуации участники выигрывают, если ведут себя эгоистично, однако если все участники будут преследовать исключительно свои интересы, то никто не сможет выиграть. Например, в игре Gathering участники собирают яблоки из одной кучи. Игроки могут использовать лазер, чтобы временно обезвредить противника и собрать больше яблок. Во второй игре Wolfpack два игрока преследуют третьего на территории с большим количеством препятствий. Очки получают все игроки, которые находятся рядом с «добычей», а не только тот, кто ее поймает. Исследование DeepMind показало, что искусственный интеллект адаптирует свое поведение к ситуации. К примеру, в Gathering при большом количестве яблок алгоритмы не использовали лазеры, но если фруктов в куче оказывалось слишком мало, то лазерная битва становилась ожесточенной. Когда же в игре участвовал более мощный алгоритм, то он использовал «оружие» независимо от количества яблок в куче. Таким образом более развитый ИИ предпочел быть агрессивным во всех ситуациях. Ученые объяснили такое поведение не скрытой тягой продвинутого ИИ к убийству себе подобных, а его вычислительной мощью. Чем мощнее система, тем больше задач она выполняет. В данном случае использование лазера для выведения из строя противников — это просто дополнительная задача. В Wolfpack, напротив, кооперация требует больше вычислительной мощности, поэтому более развитый ИИ ведет себя вполне миролюбиво, сообщает The Verge. В своем блоге исследователи DeepMind подчеркнули, что не стоит очеловечивать искусственный интеллект и считать, что он будет преследовать свою выгоду, не останавливаясь ни перед чем, включая убийство. Алгоритмы следуют строгим правилам и в соответствии с ними меняют свое поведение. «Исследование позволит нам лучше понимать и контролировать сложные системы с несколькими участниками, например, экономику, дорожное движение и экологию на планете», — отметили руководители эксперимента. Поведение алгоритмов при решении социальных дилемм не первый подобный эксперимент компании DeepMind. Исследователи также учат ИИ мечтать, строить маршруты и играть в футбол. Однако главным достижением DeepMind по-прежнему остается разработка алгоритма AlphaGo, который одержал победу над чемпионом в го и продолжает побеждать лучших мастеров в серии онлайн-игр. Источник: hightech.fm Комментарии: |
|