Роботы — не убийцы? Какие виды искусственного интеллекта надо запретить

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В 2022 году Шахматный робот сломал палец семилетнему мальчику — участнику турнира в Москве. На записи видно, что ребёнок немного поторопился и начал делать ответный ход, не дождавшись, пока робот завершит своё действие. Машина вдруг ухватила его указательный палец и сильно сдавила. Как оказалось, разработчики не предупредили детей, что робот может быть опасен при лишних движениях.

Насколько в принципе роботы и искусственный интеллект могут угрожать людям? Об этом aif.ru рассказала президент группы компаний Cognitive Technologies, занимающихся разработкой искусственного интеллекта Ольга Ускова.

«Робот сам не нападет»

— Ольга Анатольевна, системы с искусственным интеллектом (ИИ) все больше проникают в нашу жизнь, и все чаще при их использовании гибнут люди. В чем причины таких инцидентов? Насколько правильно объяснять их нападением на человека?

— Несчастный случай с участием роботизированных систем не может классифицироваться как сознательная работа механизма. И само слово «нападение» здесь токсичное. Оно значит, что механизм будто бы осознанно принял решение нанести вред человеку. Но такого на нынешней стадии развития технологий быть не может. Робот сам не нападёт.

Искусственный интеллект — это программа, решающая определённые задачи: если бы была записана такая программа, в которую входит задача повредить палец мальчику, тогда можно было бы говорить о том, что это нападение на человека. И то — нападение не самого робота, а программиста. Но подобной программы нет. А есть стандартная ситуация — авария или сбой в системе. Например, когда у вас закоротит проводка у лампы — это что, нападение лампочки? Или если в автомобиле, в котором вы едете на скорости 100 км в час, вдруг падает передний мост и укатывается колесо — разве это агрессия машины? Это лишь поломка, которая привела к несчастному случаю.

— Могут злоумышленники, например, хакеры, взломать программу и использовать роботов, чтобы нанести вред людям?

— Могут, но опять же, сам искусственный интеллект будет тут не при чем. Преступления совершают люди, а не софт в компьютере и не управляемые человеком машины.

— Под силу ли нам обучить искусственный разум морали? И надо ли это делать?

— Робота — да, под силу. Обучение устройств с ИИ происходит по принципам программирования, которым машины следуют неукоснительно. Но человеку, который пишет программу для робота, привить мораль можно далеко не всегда. Население многих стран и целых континентов учили христианской морали две тысячи лет. Но, как показала жизнь, так и не научили. В этом смысле человек — очень плохо обучаемая система. И очень уязвимая для моральной деградации.

«Безлюдных войн не бывает»

— Реально ли вообще запрограммировать робота так, чтобы он совсем не мог навредить человеку? Какие разработки ведутся в этой сфере?

— Вести их стало уже невозможно. От создания таких роботов люди отказались. И главным «неподписантом» из числа международных корпораций — разработчиков ИИ, кстати, здесь стал Google, сославшись на то, что у него уже есть контракты с Минобороны США. Джинна выпустили из бутылки, и его уже не загнать обратно. Когда «все пошли на войну», а кто-то отказывается, это уже выглядит как дезертирство.

Например, еще до начала СВО на Украине, на международном уровне высказывались предложения о запрещении высоких технологий в военных целях. Но на это не пошли США. И в этом смысле человечество, увы, сделало свой выбор. Теперь этот процесс уже трудно остановить, потому что любой пацифистски настроенный в этом деле человек будет безоружен перед внешней ситуацией.

К сожалению, здесь пошла раскручиваться очень серьёзная гонка нового типа вооружений. Американцы, не скрываясь, разрабатывают и внедряют в свои вооруженные силы как минимум 12 различных видов боевых роботов — наземных, летающих, подводных. Есть и роботы-разведчики, специально обученные действовать в городских условиях.

Сейчас победа зависит от того, насколько много есть у противника технологических устройств, которыми можно управлять дистанционно и которые могут воевать вместо людей. И в этом смысле убивать стало на порядок легче: все происходит словно в компьютерной игре. Военные, управляющие боевыми роботами, не чувствуют запаха крови, и это снимает моральные барьеры даже у тех, у кого они были.

— Фантаст Станислав Лем еще в 1980-х предрекал безлюдные войны на Земле и в космосе — без сражений с участием людей…

— В этом смысле мы «допрыгались» — будущее уже наступило. Но совсем безлюдных войн не бывает: ведь люди — и военные, и гражданские — все равно гибнут, жертв меньше не становится.

Расчеловечивание человечества

— Сможет ли искусственный интеллект осознать себя как личность и обрести свободу воли?

— Если найдётся какой-то злодей, который решит создать совершенное оружие — наверное, если он очень постарается, то сможет сделать этакого «бешеного» робота с зашкаливающим уровнем электрического напряжения. Он будет по-своему независим — но до определённой степени, поскольку ведь и сам человек несвободен от своего гормонального фона, метеоусловий и проч. Однако изначально роботы делаются как помощники, механические рабы человека. Очень странно было бы ломать концепцию и наделять их свободой воли.

— Способен ли робот переписать свою программу?

— Нет, так же как человек не может переписать свой генетический код — пока, во всяком случае. Все идёт от постановки задачи: человек строит себе помощника и задает ему определённые параметры. Если человек захочет сделать из этого игру — создать не помощника, а, скажем, философа, собеседника, собутыльника и т. д. — то из такого направления досуга, действительно, может родиться бунт машин.

— Какие виды ИИ надо запретить и почему?

— Надо остановить разработки летального вооружения на основе искусственного интеллекта — там, где роботов, машины используют для убийства. Поскольку это точно когда-нибудь приведёт к гибели человечества.

К сожалению, сейчас это лишь вопрос технического задания, которое выставляет заказчик. Робот сам по себе ничего не определяет. Вопрос только в том, что именно востребовано в данный момент. Кому-то интересно, чтобы люди были сытыми, кому-то — чтобы они были покорными. А кому-то — чтобы они не рожали или вообще были мёртвыми. Сейчас, когда человечество морально деградирует, заказчик может быть любым. Поэтому, кстати, позволено так врать в адрес России — на самом высоком уровне. И в этом плане такой угрозы человечеству не было ещё никогда. Это не вопрос того, кто первым нажмет красную кнопку. Прогресс не должен убивать. Если человечество потеряет свой облик, оно будет стерто с лица земли. А кем — роботами с искусственным интеллектом, или самой экосистемой планеты — уже не так важно. Мы как вид уже не будем нужны, поскольку задумывался человек по-другому.

— Когда началось расчеловечивание человечества?

— Когда были сброшены атомные бомбы на Хиросиму и Нагасаки — потому что это «прокатило», за это никто не был наказан. И постепенно в историю такой масштаб жертв и разрушений вошёл как приемлемое событие. В этом разница между убийством и геноцидом, и этим отличается бой от бойни — дело в количестве жертв среди мирного населения.

Термин сегодняшнего дня — «расчеловечивание» — связан не с роботами, а с самим человеком: с его отказом от религии, моральных устоев, семьи, пола, детей — то есть со всеобщим оскотиниванием. Машины и искусственный интеллект здесь вообще ни при чем. Наоборот, они пока что помогают нам не сойти с ума: регламентируют повседневную жизнь и берут на себя грязную работу.


Источник: aif.ru

Комментарии: