Принц Гарри и Меган присоединились к разносторонней коалиции ученых, призывая к глобальному запрету на разработку искусственного «суперинтеллекта» |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-10-27 12:08 Принц Гарри и Меган присоединились к разносторонней коалиции ученых, политических лидеров, деятелей искусства и пионеров технологий, призывая к глобальному запрету на разработку искусственного «суперинтеллекта» — систем ИИ, способных превосходить людей в большинстве когнитивных задач, — до тех пор, пока не будет достигнут четкий научный консенсус относительно возможности безопасного внедрения таких технологий. Заявление, подготовленное Институтом будущего жизни (FLI), было опубликовано в среду и представляет собой один из самых широких межсекторальных призывов к сдержанности в разработке ИИ. Среди подписавших — пионеры ИИ Джеффри Хинтон и Йошуа Бенджио, соучредитель Apple Стив Возняк, экономист Дарон Асемоглу, бывший советник по национальной безопасности США Сьюзан Райс, бывший председатель Объединённого комитета начальников штабов Майк Маллен, бывший президент Ирландии Мэри Робинсон, миллиардер Ричард Брэнсон и даже такие противоречивые консервативные деятели, как Стив Бэннон и Гленн Бек. Основная мысль заявления, состоящая из 30 слов, гласит: «Мы призываем к запрету на разработку сверхинтеллекта, который не должен быть снят до тех пор, пока не будет достигнут широкий научный консенсус относительно того, что это будет осуществляться безопасно и контролируемо, а также до тех пор, пока не будет достигнута сильная общественная поддержка». Хотя призывы к регулированию безопасности ИИ звучали и ранее (включая более раннее открытое письмо FLI от 2023 года с призывом временно приостановить углубленное обучение в области ИИ), этот последний призыв отличается широким идеологическим и профессиональным разнообразием. «Всех этих людей, независимо от их политических взглядов, объединяет то, что они на самом деле люди, а не машины. Их глубоко волнует будущее, в котором машины работают на нас, а не становятся новыми цифровыми повелителями», — сказал Макс Тегмарк, профессор Массачусетского технологического института и президент Института исследований физического общества. Тегмарк добавил, что его воодушевляет тот факт, что дискуссия о сверхинтеллекте «вырвалась из пузыря фанатизма» и привлекла внимание политиков, деятелей индустрии развлечений, религии и искусства. Принц Гарри: «Настоящим испытанием прогресса станет то, насколько мудро мы будем им управлять» В личной записке, сопровождавшей письмо, принц Гарри написал: «Будущее ИИ должно служить человечеству, а не заменять его. Истинным показателем прогресса станет не то, насколько быстро мы движемся, а насколько мудро мы рулим. Второго шанса не будет». К нему присоединилась Меган, герцогиня Сассекская, которая ранее говорила о цифровой этике и влиянии технологий на психическое здоровье. Такие светила искусственного интеллекта, как Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, заявили, что это заявление не направлено против технологий, а скорее требует ответственности. «Это не запрет в обычном смысле. Это просто предложение о введении адекватных мер безопасности для технологии, которая, по мнению её разработчиков, имеет значительный риск привести к вымиранию человечества. Разве это слишком много?», — сказал Рассел. Джеффри Хинтон, лауреат премии Тьюринга 2018 года и Нобелевской премии по физике прошлого года за основополагающие работы в области искусственного интеллекта, и его коллега-лауреат Йошуа Бенджио также поддержали запрет. Оба они всё чаще предупреждают об опасности систем, которые могут выйти из-под контроля человека. Недавний опрос FLI показывает, что 73% американцев поддерживают строгое регулирование передового искусственного интеллекта. Отдельный опрос Гэллапа показал, что 88% демократов и 79% республиканцев и независимых поддерживают надзор из соображений безопасности, что подчёркивает редкое двухпартийное единство. Тем не менее, не все консерваторы разделяют эту тревогу. Некоторые, например, Дэвид Сакс, глава отдела искусственного интеллекта при Трампе, выступают против обременительного регулирования, которое может замедлить инновации. Тегмарк сказал, что поддерживает связь с Саксом, добавив: «Он хочет, чтобы крупные центры обработки данных проводили качественные исследования, но я никогда не чувствовал, что он стремится создать цифрового повелителя». Призыв к запрету бросает прямой вызов таким технологическим гигантам, как OpenAI, Google и Meta, которые стремятся разработать более мощные системы, часто описываемые как приближающиеся к «общему искусственному интеллекту» (ОИИ). В преамбуле письма предупреждается, что подобные амбиции порождают угрозы, варьирующиеся от «экономического устаревания человечества и лишения его прав и возможностей, утраты свободы и достоинства до рисков для национальной безопасности и даже потенциального вымирания человечества». Актёр Джозеф Гордон-Левитт, ещё один подписавший петицию, написал, что, хотя ИИ может принести огромную пользу, он не должен стать инструментом манипулирования людьми или подрыва творческих способностей. «Большинство людей не хотят, чтобы ИИ подражал людям, воспитывал наших детей или зарабатывал миллиарды на рекламе», — сказал он. Письмо также разжигает споры в сообществе специалистов по искусственному интеллекту о том, действительно ли «сверхинтеллект» неизбежен или его просто преувеличивают. Некоторые критики утверждают, что страх перед неконтролируемым развитием ИИ способствует росту инвестиций и общественного интереса к современным технологиям. Тем не менее, Тегмарк предупредил, что быстрый прогресс в возможностях ИИ за последние несколько лет вызывает серьезную обеспокоенность: «Существует много шумихи, но это не меняет того факта, что прогресс ИИ идет быстрее, чем кто-либо предсказывал». Несмотря на подобные предупреждения в прошлом, крупные компании, занимающиеся разработкой ИИ, продолжали свои разработки безостановочно. Письмо FLI от 2023 года, подписанное Илоном Маском, не смогло остановить гонку вооружений, даже несмотря на то, что Маск одновременно запустил собственное конкурирующее предприятие в области ИИ. Источник: vk.com Комментарии: |
|