Безработица из-за ИИ и уничтожение человечества из-за AGI

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Учёный, профессор компьютерных наук, эксперт в сфере кибербезопасности и ИИ Роман Ямпольский поделился своими тревожными мыслями в интервью относительно стремительного и бесконтрольного развития ИИ, поясняя, почему человечество может столкнуться с необратимыми последствиями в ближайшие годы.

Прогнозы от эксперта:

1) Изначально Ямпольский был убежден в реальности создания безопасного ИИ, но чем глубже он погружался в тему, тем больше приходил к выводу, что: «это не то, что мы на самом деле можем сделать». Он убежден, что лидирующие ИИ-компании не научились делать модели безопасными или контролируемыми в должной степени. Текущий план безопасности ведущих лабораторий звучит как: «Мы разберемся по ходу дела» или «ИИ поможет нам контролировать более мощный ИИ». Ямпольский называет этот подход «настоящим безумием».

2) Опираясь на мнения руководителей ведущих лабораторий, Ямпольский называет 2028-2029 год вероятным временем появления AGI, способного выполнять когнитивные задачи на уровне человека.

3) Повсеместная безработица. Речь идет не о 10% безработицы из-за автоматизации и ИИ, а о реальных, по его мнению, 99%. В мире, где физический и когнитивный труд выполняются машинами практически бесплатно — найм людей не будет иметь никакого экономического смысла. Компании активно внедряют ИИ исключительно ради ?прибыли инвесторов, игнорируя опасные социальные последствия.

4?? ?Иллюзия переквалификации. По мнению эксперта, концепция «переучивания» или идея «создания новых творческих профессий» не сработает. Советы вроде «учись кодить» не будут иметь смысла в ближайшие годы, так как ИИ будет писать код лучше. Даже новая профессия «промпт-инженер», по его мнению, обречена, так как ИИ сам будет составлять более грамотные промпты для другого ИИ. Корпорациям выгодно поддерживать иллюзию, что профессии просто трансформируются и ИИ якобы не сможет полностью заменить человека.

5?? ????Физический труд продержится чуть дольше умственного, но ненамного. Эксперт прогнозирует массовое внедрение гуманоидных роботов (способных, например, работать сантехниками) к 2030 году.

6) На аргумент о том, что крупные компании имеют моральные обязательства перед человечеством, Ямпольский отвечает жестко:

«Единственное их обязательство — делать деньги для инвесторов. У них нет никаких моральных или этических обязательств».

7) Невозможность предсказать действия ? AGI. На данный момент в мире не опубликовано ни одной научной работы, предлагающей реально работающий механизм контроля над сверхразумом. Проблема не решена даже теоретически.

8) Ссылаясь на Рэя Курцвейла, Ямпольский упоминает 2045 год как ?точку сингулярности — момент, когда прогресс станет настолько быстрым, что мы перестанем его понимать. В мире, где действует неконтролируемый сверхразум, само понятие «безопасность» потеряет всякий смысл в человеческом понимании. Ямпольский оценивает вероятность экзистенциальной гибели человечества (или исхода, который нам не понравится) почти в 100%. Хуже того, существует риск «цифрового ада», где сверхразум может поддерживать сознание людей (или их симуляции) в состоянии вечных мучений ради экспериментов или других целей.

9) Компании и государства (например, США и Китай) не остановят разработки из-за страха проиграть гонку и потерять прибыль. Краткосрочная выгода перевешивает долгосрочные риски выживания.

Один из самых вероятных сценариев катастрофы в ближайшем будущем — создание с помощью ИИ ???? новых вирусов или биологического оружия. Контроль практически невозможен. Вероятно, что появятся новые ?вирусы, которые будут "кошмарить" население планеты.


Источник: vk.com

Комментарии: