”„≈Ќџ≈: —¬≈–’–ј«”ћЌџ… »» ”√–ќ∆ј≈“ „≈Ћќ¬≈„≈—“¬”

ћ≈Ќё


√лавна€ страница
ѕоиск
–егистраци€ на сайте
ѕомощь проекту
јрхив новостей

“≈ћџ


Ќовости »»–азработка »»¬недрение »»–абота разума и сознаниећодель мозга–обототехника, ЅѕЋј“рансгуманизмќбработка текста“еори€ эволюцииƒополненна€ реальность∆елезо иберугрозыЌаучный мир»“ индустри€–азработка ѕќ“еори€ информациићатематика÷ифрова€ экономика

јвторизаци€



RSS


RSS новости


—верхразумный искусственный интеллект может дать сбой и уничтожить человечество. ќб этом предупредили ученые из ќксфордского университета и лаборатории DeepMind в новой научной работе.

 оманда попыталась спрогнозировать, как »» с системами вознаграждени€ могут выйти из-под контрол€ и навредить люд€м. «а основу исследовани€ ученые вз€ли генеративно-сост€зательные нейросети (GAN), состо€щие из двух частей: генератора и дискриминатора.

ѕервый компонент предназначен дл€ создани€ изображений, а второй Ч дл€ их оценки.

”ченые предположили, что в какой-то момент продвинутый »», контролирующий важную функцию, может прибегнуть к мошеннической стратегии дл€ получени€ вознаграждени€.

Ђ¬ заданных услови€х наш вывод намного сильнее любой предыдущей публикации Ч экзистенциальна€ катастрофа не просто возможна, она веро€тнаї, Ч сказал доктор технических наук ќксфордского университета ћайкл  оэн.

”ченый считает, что в мире с ограниченными ресурсами искусственно созданные системы постараютс€ перехитрить конкурентов.

ƒл€ иллюстративных целей исследователи представили сценарии, в которых продвинута€ программа может вмешатьс€ дл€ получени€ вознаграждени€ без достижени€ заданной цели. Ќапример, »» может захотеть Ђустранить потенциальные угрозыї и Ђиспользовать всю доступную энергиюї, чтобы обеспечить контроль над своей наградой.

ЂЌам следует с большей подозрительностью относитьс€ к искусственным агентам, которые мы разворачиваем сегодн€, а не просто слепо ожидать от них исполнени€ поставленных задачї, Ч сказал  оэн.

»сследователи также предположили, что на данном этапе развити€ »» следует замедлить или приостановить разработки сверхразумных алгоритмов.

 омпани€ Google, владеюща€ лабораторией DeepMind, в комментарии дл€ Motherboard за€вила о непричастности к данной работе. ѕо словам представител€ техгиганта, один из соавторов статьи ћаркус ’аттер выступил от имени јвстралийского национального университета.

ЂDeepMind не участвовал в этой работе, и авторы статьи запросили исправлени€, чтобы отразить это. ¬ DeepMind существует широкий спектр взгл€дов и академических интересов. ћногие в нашей команде также занимают профессорские должности в университетах и ??занимаютс€ академическими исследовани€ми отдельно от работы в DeepMind через свои университетские св€зиї, Ч за€вили в Google.

ќднако в компании поддержали усили€ исследователей в обеспечении безопасности использовани€ [https://vk.com/wall-62032126?s=87&q=%D0%98%D0%98-%D0%B0%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC%D0%BE%D0%B2|»»-алгоритмов].

Ќапомним, в сент€бре историк и философ Ёмиль “оррес за€вил, что искусственный интеллект угрожает человечеству полным вымиранием.

¬ €нваре »лон ћаск пообещал не допустить потенциальное восстание машин.


»сточник: vk.com

 омментарии: