Аналитика: 2018-ый станет годом эмоциональных роботов |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-01-08 12:00 Беспилотный автомобили, искусственный интеллект, новости робототехники 2017-ый был, безусловно, эмоциональным годом для человечества. Несмотря на то, что мы продолжаем жаловаться на Alexa и Siri, актуальность желания людей продолжать отношения с виртуальными помощниками поражает. Поэтому, эксперты робототехники и аналитики предвидят, что в 2018 году нас ждет прорыв в роботах, способных эмоционально поддерживать человека, - сообщает Robotics.ua. Концепция машин, понимающих человеческие эмоции и реагирующих соответственно, была представлена на AI World на прошлой неделе в Бостоне. Rana el Kaliouby, основатель компании искусственного интеллекта Affectiva рассказал о компьютерах, приобретающих эмоциональный интеллект. Affectiva создает «мультимодальный эмоциональный ИИ», чтобы роботы могли понять человеческие чувства и поведение. «Есть исследования, показывающие, что если вы улыбаетесь, махаете или пожимаете плечами, это составляет 55% от того, что вы говорите, а 38% показывает ваш тон», - говорит Kaliouby. - «Только 7% находится в фактическом выборе слов, которые вы говорите. Если конкретные слова используются в Twitter, вы улавливаете только 7% от того, как люди общаются; остальное в основном теряется в киберпространстве». Стратегия Affectiva уже окупается, так как более тысячи мировых брендов используют «Emotion AI» для анализа лицевых образов, чтобы выяснить приверженность людей к их продуктам. Контакт роботов с человеческими эмоциями Добавление сочувствия машинам выходит за рамки рекламных кампаний. В области здравоохранения эмоциональные датчики информируют врачей о ранних предупреждающих признаках различных расстройств, в том числе болезни Паркинсона, заболеваний сердца, подверженности самоубийству и аутизма. В отличие от Affectiva, компания Beyond Verbal использует голосовую аналитику для отслеживания биомаркеров при хронических заболеваниях. Запатентованный компанией инструмент «Mood Detector» в настоящее время находится в клинике Mayo для выявления ранних признаков заболевания коронарной артерии. Эмоциональный ИИ в автономных транспортных средствах Несмотря на то, что эти ИИ-компании разрабатывают программное обеспечение и платформы приложений для улучшения диагнозов, многие робототехники стремятся внедрить такие платформы в новое поколение беспилотных систем. Эмоциональные алгоритмы отслеживания могут обеспечивать мониторинг в режиме реального времени для полуавтоматических и автономных автомобилей, сообщая об уровне усталости, отвлечения внимания водителя и его пассажиров. Национальная администрация безопасности дорожного движения оценивает, что 100 000 аварий каждый год происходят из-за засыпания водителя за рулем. Ключ к массовому принятию роботов По информации robotics.ua, ключом к массовому принятию автономных транспортных средств и даже гуманоидов является сокращение разрывов между людьми и машинами. Уже в японских розничных сетях робот Softbank Pepper общается с людьми и понимает их эмоции, чтобы определить стратегию продаж. Эмоциональное программное обеспечение является первым шагом для эффективного взаимодействия людей и машин. Ольга Славинская Источник: robotics.ua Комментарии: |
|