Робот-охранник Knightscope K5, работающий в одном из офисных центров Сан-Франциско, рухнул в фонтан и утонул. |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-07-19 11:55 Робот-охранник Knightscope K5, работающий в одном из офисных центров Сан-Франциско, рухнул в фонтан и утонул. О причинах падения робота в фонтан не сообщается, информирует the Verge. Издание называет поступок машины слишком уж «человечным» и намекает на то, что K5, по всей видимости, не слишком любил свою работу и "решил её бросить путем самоутопления". Робот уже более года патрулировал помещение центра и неоднократно попадал в сводки американских новостей. Сначала робот весом около 150 кг переехал ногу полуторагодовалому малышу, а затем сам стал жертвой пьяного мужчины, который повалил его на пол. Источник - https://www.theverge.com/tldr/2017/7/17/15986042/dc-security-robot-k5-falls-into-water Ранее мы уже писали про злоключения робота-автостопщика, прежде без проблем путешествовавшего по Нидерландам, Германии и Канаде, который потерпел фиаско в США - он был избит и необратимо покалечен неизвестными в Филадельфии. https://vk.com/wall-61794185_27869 Также мы писали про грустный опыт чат-бота запущенного Майкрософт в Твиттере, который за сутки, проведенные в интернете, возненавидел людей, феминисток и евреев. Тогда компания была вынуждена отключить "самовлюбленного нациста" и принесла свои извинения. https://vk.com/wall-61794185_56451 Аналогичным образом вышло с системой самообучающегося искусственного интеллекта GloVe, который также стал проявлять расизм. Когда ученые Принстонского университета предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. Источник: www.theverge.com Комментарии: |
|