Стивен Хокинг: мы прошли точку невозврата |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-11-09 09:12 Стивен Хокинг считает, что у человечества в скором времени не останется выбора, как покинуть Землю и заняться поиском нового дома. С подобными заявлениями знаменитый физик-теоретик уже выступал и ранее. По его мнению, шанс на выживание у нас с вами появится только в том случае, если мы превратимся в межпланетный вид, в противном случае мы будем просто обречены на вымирание. В последнем интервью изданию WIRED Хокинг подчеркнул, что мы уже перешли так называемую «точку невозврата». В интервью он еще раз напомнил, что его мысли о необходимости поиска второго дома для людей связаны сразу с двумя причинами: перенаселением нашей планеты и совсем не иллюзорной, а вполне реальной угрозой развития искусственного интеллекта (ИИ). Машины, по его мнению, очень скоро станут настолько умными, что в конечном итоге решат «заменить» человечество.
Это определенно не первый раз, когда Хокинг пугает нас такими предупреждениями. В интервью издательству «Таймс» в марте этого года он также предупреждал всех об апокалипсисе и необходимости создания «новой формы мирового правительства», которое смогло бы держать эту технологию под контролем. Кроме того, физик-теоретик выражал беспокойство о том, что ИИ окажет существенное влияние на объем свободных рабочих мест для среднего класса, и даже призвал к запрету разработки и использования искусственного интеллекта в военных целях. Как бы там ни было, его предупреждения практически полностью игнорируются технологическими компаниями, вовлеченными в создание и развитие ИИ. Однако уже сейчас некоторые отмечают, что интеллектуальные машины начинают постепенно отнимать рабочие места, заменяя живых людей, а в некоторых странах, включая США и Россию, преследуется цель создания вооружения, управляемого искусственным интеллектом. Чего греха таить, все мы в свое время смеялись над российским роботом Федором (он же FEDOR, или Final Experimental Demonstration Object Research), разработанным НПО «Андроидная техника» и Фондом перспективных исследований по заказу МЧС России. Однако на Западе люди к презентации этой машины отнеслись гораздо серьезнее, ведь российская разработка демонстрирует возможности, которых лишены даже роботы Boston Dynamics — одной из самых продвинутых робототехнических компаний в мире. Федора позиционируют как робота-спасателя, а также будущего космонавта, который должен будет отправиться в космос на новом космическом аппарате «Федерация» в 2021 году, но на Западе отмечают его явно боевой потенциал. В последние годы разработка ИИ стала очень резонансной темой. Некоторые эксперты соглашаются с Хокингом и выдвигают аналогичные аргументы, взять хотя бы того же Илона Маска и Билла Гейтса. Оба видят в разработке искусственного интеллекта опасность для человечества. Ряд экспертов с «противоположной стороны баррикад» говорят о том, что подобные страхи в большей степени основаны на надуманных сценариях захвата мира сверхразумным ИИ, а потому очень вредны, так как имеют возможность негативно сказаться на восприятии общественностью истинной пользы от ИИ в будущем. Хокинг, в свою очередь, непреклонен и уверен, что эти страхи имеют под собой вполне реальную основу.
Здесь Хокинг, скорее всего, говорит о развитии ИИ до человеческого уровня мышления или даже превосходящего этот уровень мышления. Другими словами, он говорит о событии, которое предсказывают многие современные футурологи – технологической сингулярности. Касательно того, когда, по мнению Хокинга, это событие произойдет, физик-теоретик не предложил каких-либо конкретных дат. Можно лишь предположить, что речь идет о промежутке в течение 100 лет, которые нам выделил Хокинг для выживания на Земле. Другие, такие как глава SoftBank Масаеси Сон и старший инженер Google Рэй Курцвейл, предполагают приход сингулярности еще раньше – в течение ближайших 30 лет. Мы по-прежнему находимся очень далеко от развития по-настоящему полноценного искусственного интеллекта. Касаемо сингулярности — это тоже пока одно лишь гадание на кофейной гуще. По крайней мере с точки зрения того, что же эта сингулярность нам принесет. Станет ли это событие началом заката для человечества или, напротив, ознаменует начало новый эры, в которой люди и машины будут мирно сосуществовать? В любом случае потенциал ИИ может использован как для хороших, так плохих целей, поэтому неплохо было бы соблюдать необходимый уровень предосторожности. Источник: hi-news.ru Комментарии: |
|