Умный чат-бот от Google "боится" белых мужчин

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Недавно технологический гигант Google представил своего обновленного умного помощника. Ранее чат-бот компании именовался как Bard, но теперь был переименован в Gemini и получил улучшенный искусственный интеллект. Способности обновленного ИИ сами разработчики сравнивали с функциональностью GPT-4 от OpenAI, однако на практике некоторые результаты Gemini вызывают искреннее недоумение.

После длительного использования и тестирования Gemini у пользователей осталось много вопросов к качеству ответов чат-бота. Временами его ответы напрямую нарушают логику поставленного вопроса, что редко встречалось даже в самих ранних версиях чат-ботов с искусственным интеллектом. А теперь оказалось, что он "предпочитает" темнокожих людей и представителей других рас.

Пользователи обнаружили, что у чат-бота Google практически невозможно получить изображение белого мужчины. Нейросеть нарушает контекст запросов и генерирует изображение, отдавая предпочтение темнокожим людям или представителям других рас. При этом эта логическая ошибка проявляется даже в том случае, если попросить Gemini быть "исторически точным".

Поэтому в социальных сетях уже появились шутки на тему чернокожих королей средневековой Европы и шотландцев азиатской внешности.


Источник: www.playground.ru

Комментарии: