Сэм Альтман признался, что в OpenAI не до конца понимают, как работает ChatGPT

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


На прошедшей на днях конференции в Женеве, посвященной ИИ, Сэм Альтман сравнил нейросети с человеческим мозгом: «Мы не до конца понимаем, что происходит в вашей голове на уровне коммуникации нейронов, но мы можем попросить вас придерживаться определенных правил и описать ваш мыслительный процесс». Так же и с моделями ИИ: разработчики не могут точно объяснить, как и почему они работают, но могут научить их выполнять нужные действия. При этом Альман ушел от ответа на вопрос о безопасности подобного подхода в отношении систем, чей потенциал человечеству неизвестен.

OpenAI привлекла уже более $12 млрд инвестиций, однако до сих пор не может объяснить, как именно работают её технологии. Спустя несколько дней после анонса начала разработки GPT-5 Сэм Альтман выступил на конференции «ИИ во благо» в Женеве, где признался, что большие языковые модели понятны разработчикам не более, чем человеческий мозг нейроученым.

Альтман сообщил, что его компания определённо не решила вопрос интерпретируемости — в сфере ИИ так называют понимание того, как нейросети принимают решения. Ведущий спросил, безопасно ли выпускать новые, более мощные модели, если принцип работы даже их предшественников не понятен производителям. Глава OpenAI ответил уклончиво, однако он считает, что ИИ достаточно безопасен и надёжен, чтобы и дальше развивать его.

Разработчикам известно, что модели семейства GPT создают новый контент на основе известных данных и со временем могут обучаться. БЯМ OpenAI, вероятно, не обладают эмоциональным интеллектом и человеческим сознанием, но всё равно похожи на мозг homo sapiens — тяжело понять, как они приходят к своим выводам.

Потенциальный вред продуктов OpenAI давно вызывает тревогу у общественности. Недавно компания распустила свою прошлую команду по безопасности, которую возглавлял Илья Суцкевер, и сформировала новую под руководством самого Альтмана.

Бывшие члены правления OpenAI Хелен Тонер и Таша МакКоли прокомментировали это решение для журнала Economist и сказали, что в первую очередь руководство стремится к прибыльности, а не к безопасности продуктов. Альтман с этим мнением не согласен: он считает, что только разработка новых мощных моделей ИИ позволит понять и «приручить» эту технологию.


Источник: hightech.plus

Комментарии: