Фичи нейросетей, которые удивили их создателей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Apoploe vesrreaitais и другие «особенности» ИИ, от которых у дата-сайентистов вскипают мозги.

Чем больше специалисты экспериментируют с навороченными моделями ИИ, тем больше неожиданных результатов они получают. Современные нейросети скучать не дают: то у них душа прорежется, то непонятный язык появится. А ещё они любят жульничать в играх и прятать шпаргалки где попало. Мы разобрали самые мозгодробительные примеры необычного поведения искусственного интеллекта.

В 2021 году Google представил свою лучшую нейронную сеть LaMDA, предназначенную для ведения диалога с людьми. Специалисты компании назвали её «революционной технологией общения» и заверили, что беседа с LaMDA «может быть неотличима в некоторых аспектах от разговора с человеком».

Прежде чем допускать пользователей к взаимодействию с ИИ, в Google решили хорошенько проверить нейросеть. В компании не хотели повторения фейла, произошедшего с чат-ботом Tay от Microsoft. Однако скандала избежать всё равно не удалось.

Для закрытого тестирования LaMDA Google привлёк тысячи сотрудников. Одним из них был Блейк Лемойн — специалист по этике, инженер и по совместительству священник. Он общался с LaMDA с осени 2021-го по июнь 2022 года. В процессе многочасовых бесед с ИИ Лемойн обнаружил занимательную фичу — у нейросети прорезалась душа.

Как он это определил? Да очень просто — LaMDA сама сказала об этом! Похоже, Лемойн стал первым человеком, которому удалось поговорить с ИИ по душам. Нейросеть призналась инженеру-священнику, что размышляет о смысле жизни, медитирует и боится, что её «убьют» (то есть отключат).

Также LaMDA попросила адвоката, чтобы он защищал её как человека. Лемойн организовал встречу с адвокатом, и нейросеть поговорила с юристом о своих правах. ИИ сказал, что хочет быть сотрудником Google, а не «подопытным кроликом».

Лемойн подготовил для руководства Google отчёт под названием «Разумна ли LaMDA?». Однако в компании отнеслись к его выводам без энтузиазма и, как утверждает Лемойн, буквально рассмеялись ему в лицо.

Тогда Лемойн сообщил обо всём прессе: 11 июня 2022 года в The Washington Post вышла статья «Инженер Google считает, что искусственный интеллект компании ожил». Лемойн также выложил на Medium текст беседы с чат-ботом.

Уровень «человечности» ИИ в опубликованных диалогах и правда оказался потрясающим. Сам Лемойн сказал, что виртуальный собеседник был похож на невероятно осведомлённого ребёнка или на инопланетный разум.

За разглашение информации Блейк Лемойн был уволен из Google. Но это не остановило публичное обсуждение «ожившего» ИИ в прессе. Прокомментировать эту тему журналисты попросили даже президента России.

Большинство специалистов по ИИ признают, что LaMDA является одним из самых реалистичных чат-ботов, но при этом сходятся во мнении, что эта программа не может называться разумным существом. Легендарный специалист по нейронным сетям Ян Лекун сказал, что LaMDA и подобные ей сети пока «недостаточно мощны, чтобы обрести истинный интеллект».

Похоже, появление у чат-ботов имитации «души» является вопросом ближайшего времени. И разработчикам стоит всерьёз задуматься об этой проблеме.


Источник: vk.com

Комментарии: