Microsoft пытается оправдать тенденцию ИИ давать неправильные ответы

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Современные технологии искусственного интеллекта, такие как ChatGPT, часто могут давать неточные ответы, и некоторые технологи беспокоятся о том, что люди могут слишком доверять программному обеспечению. Microsoft позиционирует эту технологию как «неправильную с пользой». Это отсылка к склонности ИИ время от времени спотыкаться на фактах.

В феврале, когда Microsoft представила свой чат-инструмент Bing, созданный с использованием технологии GPT-4, люди заметили, что ИИ давал неправильные ответы во время демонстрации.

Результаты выдаваемые ИИ могут иногда быть ложными, но пользователи могут принять их за правду.

Эти проблемы с фактами не замедлили гонку ИИ.

Google объявила, что внедряет технологию на основе искусственного интеллекта в Gmail и Google Docs, позволяя ей создавать электронные письма или документы.

В четверг Microsoft заявила, что ее популярные бизнес-приложения, такие как Word и Excel, вскоре будут поставляться в комплекте с технологией, подобной ChatGPT, получившей название Copilot.

В онлайн-презентации о новых функциях Copilot руководители Microsoft упомянули тенденцию программного обеспечения давать неточные ответы, но представили это как нечто, что может быть полезным.

Пока люди понимают, что ответы ИИ могут быть небрежны с фактами, они могут исправить неточности и быстрее отправить свои электронные письма или закончить слайды для презентации.

Например, если человек хочет создать электронное письмо с поздравлением члена семьи с днем ????рождения, Copilot все равно может быть полезен, даже если в письме указана неправильная дата рождения.

По мнению Microsoft, сам факт того, что инструмент генерировал текст и сэкономил человеку время, уже делает его полезным. Людям просто нужно проявлять особую осторожность и следить за тем, чтобы в тексте не было ошибок.

Тем не менее, остаётся опасность того, что если вы сами не знаете точную информацию, то вы можете попасть в неприятную ситуацию, или поверить в то, чего никогда не было.


Источник: vk.com

Комментарии: