Бывший инженер Google и Microsoft Нейт Соарес обнародовал мрачный прогноз, заявив, что по его оценкам вероятность исчезновения человечества из-за искусственного интеллекта составляет 95% |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-29 17:23 Это заявление, сделанное в рамках обсуждения рисков ИИ, мгновенно стало вирусным, вновь разожгв давние страхи перед неконтролируемым технологическим прогрессом. Его позиция находит отклик у многих других видных экспертов. Сооснователь Apple Стив Возняк и легендарный физик Стивен Хокинг неоднократно предупреждали, что развитие ИИ может стать худшим событием в истории цивилизации. Соучредитель DeepMind Шейн Легг уже много лет говорит о высоких рисках от ИИ, называя их экзистенциальной угрозой. Эти апокалиптические прогнозы неразрывно связаны с концепцией технологической сингулярности — гипотетического момента, когда ИИ превзойдет человеческий интеллект и станет непредсказуемым и неконтролируемым для своих создателей, о чем мы с вами говорили ранее (1). Пророчество Соареса является прямым следствием веры в неизбежность сингулярности; это не предсказание далекого будущего, а экстраполяция текущих траекторий развития. Если ИИ сможет самостоятельно совершенствовать себя, его цели могут радикально разойтись с человеческими, и именно в этом несовпадении интересов эксперты видят корень катастрофы. На других языках эта тема активно обсуждается как «existential risk from AI» на английском, «risque existentiel li? ? l'IA» на французском и «existenzielle Bedrohung durch KI» на немецком, что показывает глобальный масштаб обеспокоенности. Таким образом, заявление Соареса — это не единичное мнение, а часть растущего консенсуса в технологическом сообществе, который рассматривает технологическую сингулярность не как утопическую мечту, а как вероятную точку, после которой будущее человечества перестанет быть ему принадлежащим. (1) Технологическая сингулярность, по мнению большинства экспертов, наступит в 2030 году: Источник: vk.com Комментарии: |
|