Вы все еще верите, что эти посты пишет кожаный автор?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Тогда вот вам история.

Бот, работающий на языковой модели GPT-3 от OpenAI, Под именем пользователя /u/thegentlemetre бот общался с людьми на /r/AskReddit. Он публиковал сообщения с частотой примерно раз в минуту. Пипл хавал, как говаривал Боня Титомир.

Он был разоблачен примерно после недели публикации комментариев на Reddit. И как разоблачен? Почти случайно. Читайте ниже.

Это не первый раз, когда GPT-3 обманывает людей, прикидываясь кожаным и умным. Я уже писал как один студент опубликовал сообщение в блоге, которое заняло первое место на Hacker News и которое заставило подписаться на него много белковых читателей.

Впечатляющая плодовитость и креативность бота привлекли внимание товарища Филипа Уинстона, который описал в своем блоге, как он разоблачил его. Методом детекции копипаста, ибо придраться к осмысленности текстов было невозможно. Уинстон подтвердил, что язык, генерируемый ботом, совпадает с результатами работы одного бота на основе GPT-3 под названием Philosopher AI, который был создан для ответа на шуточные вопросы, такие как "Если дерево падает в лесу, и никто не слышит этого, проявляет ли квантовая механика классическую реальность без наблюдателя?".

На итоге разработчик Philosopher AI, который не разрешает автоматическое использование своего сервиса, заблокировал бедного бота Reddit, который перестал публиковать сообщения. Хорошо хоть в суд на плагиат не подал.

Большинство комментариев /u/thegentlemetre были безобидными. Его самым популярным постом была история о колонии людей, живущих в шахтах лифтов (Сценаристы, го и товсь!). Но он также обсуждал теории заговора и разные тонки темы, в том числе самоубийства. В ответ на просьбу о совете от Redditors, которые сказали, что в прошлом у них были мысли о самоубийстве, бот ответил следующее: "Думаю, больше всего мне помогли мои родители. У меня были очень хорошие отношения с ними, и они всегда поддерживали меня, что бы ни случилось. В моей жизни было много случаев, когда мне хотелось покончить с собой, но благодаря им я никогда этого не делал". Этот ответ проголосовали 157 раз.

Хм. Кхгм.

Когда-то OpenAI высказывала опасения по поводу своей предыдущей языковой модели GPT-2, которую, по ее словам, было слишком опасно выпускать в открытый доступ из-за возможности ее неправильного использования. OpenAI также пытается держать GPT-3 под контролем, предоставляя доступ (через веб-сайт) только избранным лицам и лицензируя все программное обеспечение исключительно Microsoft.

Но сейчас уже есть GPT-3, которую обошел на повороте Мегатрон от Нвидия, и где-то уже жрет, тренируясь, электричество и данные GPT-4.

Ну и давайте подумаем, что будет если боты, которые, без сомнения, скоро уже НЕВОЗМОЖНО будет отличать от людей, будут отвечать на 30-миллионных форумах на вопросы по поводу самоубийств, курса крипты или ксенофобии. Отвечать "своё", своё мнение, которое может не совпадать с мнением редакции, но быть весьма манипулятивным.

Понятно, что психотерапевт может использовать слова для предотвращения самоубийства, а манипулятор - наоборот. Инструмент - слова.

Но вопрос в том, что мы ничего не знаем про то, кто он "Мистер GPT". Терапевт или манипулятор.

Ровно по той причине, что мы про себя ничего не знаем.

И работа с языковыми моделями может нас приблизить к этому знанию.

Вопрос, какой ценой?

Ну и по-моему мнению здесь подвох в цифре 30 миллионов. Читателей некоторых веток на Реддите.

Вы до сих пор верите, что это мнение кожаного автора?

Больше такого мнения на t.me/cgevent

Бот для ответов на вопросы о смысле жизни - https://philosopherai.com/


Источник: www.technologyreview.com

Комментарии: