Microsoft пытается оправдать тенденцию ИИ давать неправильные ответы |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-03-19 12:38 Современные технологии искусственного интеллекта, такие как ChatGPT, часто могут давать неточные ответы, и некоторые технологи беспокоятся о том, что люди могут слишком доверять программному обеспечению. Microsoft позиционирует эту технологию как «неправильную с пользой». Это отсылка к склонности ИИ время от времени спотыкаться на фактах. В феврале, когда Microsoft представила свой чат-инструмент Bing, созданный с использованием технологии GPT-4, люди заметили, что ИИ давал неправильные ответы во время демонстрации. Результаты выдаваемые ИИ могут иногда быть ложными, но пользователи могут принять их за правду. Эти проблемы с фактами не замедлили гонку ИИ. Google объявила, что внедряет технологию на основе искусственного интеллекта в Gmail и Google Docs, позволяя ей создавать электронные письма или документы. В четверг Microsoft заявила, что ее популярные бизнес-приложения, такие как Word и Excel, вскоре будут поставляться в комплекте с технологией, подобной ChatGPT, получившей название Copilot. В онлайн-презентации о новых функциях Copilot руководители Microsoft упомянули тенденцию программного обеспечения давать неточные ответы, но представили это как нечто, что может быть полезным. Пока люди понимают, что ответы ИИ могут быть небрежны с фактами, они могут исправить неточности и быстрее отправить свои электронные письма или закончить слайды для презентации. Например, если человек хочет создать электронное письмо с поздравлением члена семьи с днем ????рождения, Copilot все равно может быть полезен, даже если в письме указана неправильная дата рождения. По мнению Microsoft, сам факт того, что инструмент генерировал текст и сэкономил человеку время, уже делает его полезным. Людям просто нужно проявлять особую осторожность и следить за тем, чтобы в тексте не было ошибок. Тем не менее, остаётся опасность того, что если вы сами не знаете точную информацию, то вы можете попасть в неприятную ситуацию, или поверить в то, чего никогда не было. Источник: vk.com Комментарии: |
|