Кажется, что нейросети скоро всё захватят, но пока это не так

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Кажется, что нейросети скоро всё захватят, но пока это не так. Вот ситуация, когда ChatGPT обманули на простой задачке

Нейросети научились генерировать тонны контента на заданную тему — иногда непросто отличить их сочинения от текстов, написанных людьми. Но инженеры подловили ChatGPT на неожиданно простой задачке под названием «Тест больших букв».

• Как обманули ChatGPT?

Чтобы сбить машину с толку, достаточно в формулировке вопроса написать случайное слово с прописной буквы. Человек догадается, что внезапную большую букву можно пропустить — и поймет содержание вопроса, а робот, вероятно, «споткнется».

• Почему ChatGPT не прошел тест?

Чат-бот не знает, как интерпретировать случайную заглавную букву: обычно компьютер обрабатывает текстовые данные без учета регистра. Но тут может возникнуть путаница: перед ним ошибка, которую можно проигнорировать, или это имя собственное?

• Это ведь похоже на «тест Тьюринга»?

«Тест Тьюринга» всё-таки сложнее. В классическом эксперименте участники переписываются с невидимым собеседником и не знают, кто он: компьютер или человек. Задача машины — ввести в заблуждение тестировщика. Уже есть роботы, которые прошли этот тест.

• Зачем нужны такие тесты?

Люди ищут способы перехитрить искусственный интеллект не только ради морального удовлетворения, но и для кибербезопасности. Чтобы защититься от взломов и спама от интернет-ботов, сайты используют «капчу» — загадки, которые легко разгадать человеку, но трудно компьютеру. Вы точно проходили их много раз.


Источник: vk.com

Комментарии: