Роботы-расисты на защите правых интересов

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2019-06-08 19:37

Философия ИИ

«Роботы являются расистами и сексистами, в той же мере, в какой являются расистами и сексистами их создатели, потому что машины могут действовать только лишь отталкиваясь от той информации, которую им предоставили инженеры, обычно это белые и гетеросексуальные мужчины, которые преобладают в области высоких технологий и робототехники».

Этот текст — нечто, которое совместило в себе роботов-сексистов, роботов-расистов, красивых белых мужчин, африканцев-обезьян, машинное обучение и Microsoft с Google.

Перевод статьи Лори Пэнни для The Guardian: «Robots are racist and sexist. Just like the people who created them».

Могут ли роботы думать? Способны ли они критически мыслить о расе и гендере? Недавние новости показали, что системы машинного обучения впитывают расистские и сексистские идеи в словесном эквиваленте, которые они получают от инженеров, создавших их.

Мысль о том, что роботы могут быть одержимы теми или иными идеями, беспокоит многих людей, которые верят в нормы морали и нравственные ценности, которым обязательно найдётся место в цифровом будущем. Тем не менее, здесь не о чем беспокоиться. «Машинное обучение» — это всего лишь забавный синоним фразы «уметь выделять главное из потока информации».

Лидия Николас, старший научный сотрудник и thinktank фонда Nesta, объясняет, что «вся эта информация накопилась давно в прошлом и с тех пор общество сильно поменялось, а значит, можно покончить со старыми клише. Если эти паттерны оказывают влияние на людей — это порождает дискриминацию».

Роботы являются расистами и сексистами, в той же мере, в какой являются расистами и сексистами их создатели, потому что машины могут действовать только лишь отталкиваясь от той информации, которую им предоставили инженеры, обычно это белые и гетеросексуальные мужчины, которые преобладают в области высоких технологий и робототехники.

В далёком 1986 году медицинская школа госпиталя Святого Георгия в Лондоне столкнулась с проблемой расовой и гендерной дискриминации в процессе работы автоматизированных систем, которые обрабатывали массивы данных за 1970 год. Программа ознакомилась с информацией о кандидатах на работу, которые имели успех в прошлом и давала на основе этой информации соответствующую характеристику нынешним соискателям. Неудивительно, что люди, которых машина посчитала подходящими, были мужчинами с именами англо-саксонской группы.

Автоматизация — хороший повод для шуток. Несмотря ни на что, это всего лишь цифры и вся магия Big Data является причиной для отказа от предрассудков. Машинное обучение, как считает Мачей Цегловски, это машина по отмывания денег для предвзятости.

Это проблема, которая станет еще более острой, пока мы не обратим на неё внимание. Мы постепенно подходим к эре, когда умные роботы будут серьезно влиять на нашу жизнь. Моральные особенности машин нельзя рассматривать через призму общечеловеческих особенностей и ценностей. В прошлом году Майкрософт разработали чатбот Тэй, который мог учиться, общаясь пользователями в Твиттере. Через несколько часов он высказался в поддержку Гитлера и начал повторять все лозунги альтрайтов — что обязательно произойдёт с ребёнком, стоит вам дать ему Твиттер.

Менее шокирующий, но столь же неудобный случай имел место с системой автоматического теггирования фотографий от Google, который посчитал, что на фотографии с афроамериканцами изображены обезьяны (гориллы).

Это одни из самых вопиющих примеров. Остальные случаи, которые мы не замечаем в повседневной жизни, вряд ли будут в ближайшее время выявлены и исправлены.

Чем больше наших рутинных ежедневных занятий будет подвержено автоматизации, от работы с банками и бизнесом до социальной жизни, тем дольше они будут пронизаны понятиями прошлого, пока мы не предпримем шаги, чтобы изменить эту тенденцию.

Должны ли мы вкладывать в роботов некие моральные законы? Должны ли инженеры создавать искусственный интеллект, способный понимать основы понятий о правосудии и справедливости? У меня есть неприятное ощущение, которое появилось после всех тех фильмов, что всё это закончится довольно неприятно для человечества. Есть и другие пугающие перспективы, одна из которых — это общество, где мы позволяем паттернам прошлого становиться частью исходного кода настоящего. Машины изучают язык, усваивая большие объёмы данных из источников, доступных в сети. Это означает, что голоса, которые доминировали в мире литературы на протяжении веков — голоса белых мужчин западного мира — осели в языковых паттернах, влияющих на настоящее, наряду с их идеями об остальных людях, которые отличались от них самих. Это не означает, что роботы — расисты, это лишь означает, что люди — это расисты, которые заставляют машин подчинятся и соответствовать их собственным предрассудкам.

В конце концов, люди осознают свои недостатки. Мы развиваемся и познаем мир через изучение истории предыдущих поколений. Мы понимаем, что слово «люди» («men» — «мужчины» или «люди») означает всё «человечество», но «женщина» («women») — не всегда, так как является специфичной классификацией. Мы понимаем, что когда наши лидеры или родители говорят о том, как человек ведёт себя по отношению к «тем ребятам» — это иногда означает людей определенной расы, а значит, что люди с другим цветом кожи не являются частью «нас».

В английском языке есть два местоимения — он или она — и поэтому мы знаем, что гендер является особенностью характеристики человека, в которой нет места цифре больше двух. Именно поэтому, те из нас, кто обеспокоен социальной справедливостью, зачастую действует на уровне языка. Вот почему многие люди, сталкивающиеся с резкой реакцией на их предрассудки, жалуются на некую «языковую цензуру», будто слова никак не связаны с миром, который они создают.

Язык является инструментом для предсказывания действий людей. Он не объясняет наш мир, он — его отражение. «Приверженность» систем машинного обучения к тем или иным идеям, является хорошим примером того, как это работает на практике. Но люди, в отличие от машин, имеют понимание морали — мы имеем способность к отказу от предрассудков и мы обязательно должны это сделать.

Иногда у нас не получается быть справедливыми настолько, насколько мы бы хотели, но это не потому, что мы хотим быть фанатиками и дураками, а потому, что мы действуем на основе предположений (или стереотипов) в отношении расы, пола и социального положения. Мы изучаем модели поведения на основе устаревшей информации. Это не делает нас плохими людьми, но и не освобождает от ответственности. Машинные алгоритмы должны обновлять ответы на основе свежей информации, а моральный сбой происходит в момент, когда люди отказываются делать то же самое. Если роботы смогли, то и мы сможем.


Источник: localcrew.ru

Комментарии: