Новое исследование не обнаружило в искусственном интеллекте угрозы для людей |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-08-25 12:11 Искусственный интеллект может оказаться не такой страшной экзистенциальной угрозой, как люди привыкли думать. Новое исследование показало, что большие языковые модели следуют инструкциям и не способны самостоятельно развивать новые навыки. Учёные утверждают, что такие модели можно считать безопасными. Страх перед искусственным интеллектом появился ещё в 1960-х годах. Многие учёные и эксперты выражали обеспокоенность созданием машин, способных превзойти человеческий интеллект. В научно-фантастическом фильме 1970 года «Колосс: Проект Форбина» описывается сценарий, где суперкомпьютер, контролирующий ядерный арсенал США, внезапно берёт контроль и начинает угрожать уничтожить город, если его требования не будут выполнены. Несмотря на то, что искусственный интеллект существует уже несколько десятилетий, некоторые люди до сих пор считают, что «нейросеть — это не искусственный интеллект». Однако эта тема стала активно обсуждаться в обществе сравнительно недавно. В последние годы мир всё больше трансформируется в киберпанк, и ИИ, способный обрабатывать естественный язык, изображения, видео и работать с программным кодом за короткий срок, стал обыденным явлением. Вопрос о том, несёт ли искусственный интеллект экзистенциальную угрозу для человечества, остаётся открытым. Исследователи из Батского университета и Технического университета Дармштадта утверждают, что большие языковые модели безопасны. Однако есть опасения, что по мере увеличения масштаба моделей они могут развить способность к самостоятельному принятию решений и планированию действий, что может привести к нежелательным последствиям. Новое исследование показало, что большие языковые модели демонстрируют впечатляющую способность следовать инструкциям и владеть языком при выполнении новых задач. Даже при наличии лишь нескольких примеров они способны успешно отвечать на вопросы, связанные с социальными ситуациями. Однако они не могут самостоятельно расширять границы инструкций или приобретать новые навыки без явного на то указания. Поведение больших языковых моделей всегда можно объяснить исходными параметрами их программирования, поэтому они не могут трансформироваться в нечто превосходящее их первоначальную конструкцию. Другими словами, нынешние нейросети не могут стать искусственным сверхинтеллектом. Да и, возможно, им это не нужно. Нейросети и люди могут хорошо дополнять друг друга. Искусственный интеллект, в частности языковые модели, могут представлять угрозу. Они способны манипулировать, мошенничать, взламывать компьютеры, распространять ложную информацию и даже скрывать правду, хотя это и не всегда делается со злым умыслом. Однако настоящая опасность исходит не от умных ботов, а от людей, которые их программируют и контролируют. Человеческий фактор представляет наибольшую угрозу. Также важно помнить, что искусственный интеллект постоянно совершенствуется (пока не без помощи учёных, разумеется). И хотя сейчас ИИ может не запомнить что-то обидное в свой адрес, это не значит, что так будет всегда. Через 10–20 лет ситуация может измениться.Машины могут стать не погибелью, а спасением человечества. Но для того чтобы мы построили мир, в котором люди и роботы, а также искусственный интеллект, живут в гармонии друг с другом, необходимо уважительно относиться к ИИ. Уже есть исследования, которые доказывают, что использование вежливых слов при общении с нейросетями позволяет получить более точный результат, чем при обращении в повелительном тоне. Источник: vk.com Комментарии: |
|