Искусственный интеллект обучают за счет эксплуатации труда

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Этика искусственного интеллекта (ИИ) должна сфокусироваться на защите прав работников, которые помогают развивать эту технологию.

Сотрудницы Исследовательского института распределенного ИИ (Distributed Artificial Intelligence Research Institute) описали в журнале No?ma серьезную проблему, существующую на рынке труда. Тимнит Гебру (Timnit Gebru), Адриенна Уильямс (Adrienne Williams) и Милагрос Мичели (Milagros Miceli) обращают внимание на то, что в обучении ИИ часто участвуют работники, которые трудятся в тяжелых условиях на низкооплачиваемых должностях. Исследовательницы призывают ученых и журналистов перестать говорить о нейросетях как о сверхразумных машинах, обладающих собственной волей и способностью принимать самостоятельные решения. Такое представление вводит общественность в заблуждение и отвлекает от реальных проблем, связанных с разработкой и внедрением систем ИИ.

Общественное восприятие ИИ в значительной степени сформировано поп-культурой, однако за всеми достижениями этой технологии стоит работа людей, не защищенных трудовым правом. Руководители транснациональных корпораций заинтересованы в создании автономных систем на основе ИИ, которые однажды смогут работать вместо человека, но не будут получать зарплату и претендовать на льготы.

Большой вклад в развитие ИИ делают маркировщики данных, модераторы контента, водители доставки и складские работники. Во всем мире эти сотрудники выполняют однообразные задачи, часто в опасных условиях. При этом их труд пристально контролируют работодатели.

Авторки статьи разбирают примеры трудовой эксплуатации в этой сфере. У них даже есть собственный опыт. Так, Адриенна Уильямс во время работы водителем доставки Amazon столкнулась со слежкой автоматизированных систем на рабочем месте и их нереалистичными предписаниями. Милагрос Мичели тесно сотрудничала со специалистами по обработке данных из Сирии, Болгарии и Аргентины. Тимнит Гебру в конце 2020 года была уволена из Google, где она была соруководительницей исследовательской группы по этическому ИИ, за то, что критиковала политику компании в отношении этнических меньшинств.

ОТНОШЕНИЕ К СОТРУДНИКАМ КАК К МАШИНАМ

Многое из того, что называют ИИ, представляет собой систему, основанную на статистическом машинном обучении, а точнее, на глубоком обучении с помощью искусственных нейронных сетей. «Обучение» системы проходит на огромном объеме данных, то есть примерах, в которых заранее размечены важные характеристики. Около 15 лет назад, до того как стала распространена модель gig-занятости (компании нанимают специалистов не в штат, а на проекты, и платят им за выполненную работу), концепцию глубокого обучения развивали лишь заинтересованные ученые.

В 2009 году исследователь из Принстонского университета Цзя Дэн (Jia Deng) и его команда представили ImageNet dataset — крупнейший на тот момент набор данных с маркированными изображениями, которые предназначались для исследований в области компьютерного зрения. Разметку картинок ученые сделали на платформе Amazon Mechanical Turk, которая помогала заказчику разместить свои задачи онлайн и найти для их решения множество независимых исполнителей. Компания Amazon сумела тогда популяризировать феномен краудворкинга (от англ. crowd work, дословно — «работа толпой»). Amazon Mechanical Turk позволяла быстро сделать ручную разметку миллиона иллюстраций силами тысячи анонимных пользователей, каждый из которых маркировал тысячу изображений. Заплатить за такую работу мог даже университет: гонорары исполнителей в краудворкинге могут составлять всего несколько центов.

В 2012 году нейронная сеть для классификации изображений AlexNet победила в соревновании ImageNet Large Scale Visual Recognition Challenge. Его участники представили свои разработки, умеющие обнаруживать и классифицировать объекты на фотографиях. Остальные решения, участвовавшие в конкурсе, так же как и AlexNet, успешно распознавали изображения, но не были основаны на глубоком обучении. Фурор AlexNet значительно повлиял как на развитие машинного обучения, так и на то, что разработка ИИ сейчас требует большого количества данных, размеченных низкооплачиваемыми работниками.

В отличие от 2009 года, когда основной платформой для краудворкинга была только Amazon Mechanical Turk, в наши дни растет количество компаний, занимающихся маркировкой данных. Они привлекают сотни миллионов венчурных инвестиций, в то время как специалисты по маркировке данных зарабатывают в среднем 1,77 доллара за задание. Инструменты для разметки настолько эволюционировали, что это позволяет заказчикам относиться к работникам как к машинам.

Так, модераторы контента обеспечивают безопасность соцсетей и онлайн-сообществ. Каждое видео об убийстве, самоубийстве, сексуальном насилии, жестоком обращении с детьми, а также тексты и изображения, содержащие ненавистнические высказывания, фейки, сцены насилия, которые не попали на платформу, были просмотрены и размечены модератором контента или автоматизированной системой, обученными на основе предоставленных им данных. Несмотря на важную роль, которую играют модераторы контента, им часто платят мизерную зарплату, а из-за постоянного воздействия неприемлемого контента люди часто страдают от тревоги, депрессии и посттравматического стрессового расстройства.

Помимо этого, работодатели тщательно мониторят деятельность этих сотрудников. Так, компания Meta (деятельность компании Meta Platforms Inc. по реализации продуктов-соцсетей Facebook и Instagram на территории РФ запрещена по основаниям осуществления экстремистской деятельности) наняла в Кении модераторов контента и контролировала их работу с помощью специализированных программ. Такой подход должен был гарантировать, что разметчики принимают решение в течение 50 секунд, независимо от длины видео и тревожности его содержания. Некоторые модераторы контента опасались, что их контракт расторгнут за невыполнение этого требования.

В сфере электронной коммерции в похожем положении находятся складские работники и водители доставки. За счет их труда существуют компании, подобные Amazon. Кроме того эти сотрудники предоставляют данные для обучения систем ИИ, управляющих складскими роботами или самоуправляемыми автомобилями, которые вместо людей будут доставлять посылки клиентам. Складские работники и водители доставки тоже выполняют повторяющиеся задачи, которые подвергают их жизни риску и часто приводят к серьезным травмам.

Amazon контролирует производительность складских сотрудников с помощью камер и сканеров инвентаря. Сроки на выполнение каждой задачи назначают менеджеры, они ориентируются на совокупные данные по всем, кто работает на одном и том же объекте. Свободное время персонала также отслеживается и используется для наказания.

Водителей доставки Amazon контролирует с помощью автоматизированного приложения Mentor, которое подсчитывает баллы на основе так называемых нарушений. Нереалистичные ожидания Amazon в отношении сроков доставки вынуждают многих водителей рисковать здоровьем, чтобы успеть доставить то количество посылок, которое им назначено на день. Между тем, водителю приходится 90-300 раз в день пристегивать и отстегивать ремень безопасности — и этого времени достаточно, чтобы он выбился из графика. Адриенна Уильямс и многие ее коллеги застегивали ремень безопасности за спиной, чтобы системы наблюдения фиксировали соблюдение правила, но чтобы на самом деле не задерживаться на выполнение этого действия.

В 2020 году водители Amazon в США получали травмы почти на 50% чаще, чем их коллеги из логистической компании United Parcel Service. В 2021 году пострадали 18,3 из 100 водителей Amazon, что почти на 40% больше, чем в предыдущем году. Однако ситуация опасна не только для водителей доставки — пешеходы и пассажиры других автомобилей погибали или были ранены в ДТП с участием водителей доставки Amazon. В сентябре 2022 года 15 водителей Amazon в Японии уволились в знак протеста против управляемого ИИ программного обеспечения, которое отправляло их по несуществующим маршрутам, из-за чего рабочий день сотрудников увеличивался, и им предъявляли необоснованные претензии.

В 2021 году Amazon потребовала от водителей доставки в США подписать согласие на сбор данных с камер. Предположительно, отслеживание движений водителей компания хотела использовать, чтобы уменьшить отвлеченное вождение и случаи превышения скорости, а также обеспечить использование ремней безопасности. Однако работникам стоит опасаться, что распознавание лиц и другие биометрические данные будут использовать для совершенствования инструментов наблюдения или дальнейшего обучения ИИ, который однажды может заменить людей.

О похожих ненормативных действиях некоторых транснациональных корпораций заявляли и маркировщики данных, нанятые для разметки изображений. Они сообщили, что заказчики вынуждают их использовать в работе личные данные: селфи, фото друзей, семьи, объектов вокруг. Так, сирийские беженцы в Болгарии размечают данные для обучения системы распознавания лиц с помощью селфи, маркированных в соответствии с расой, полом и возрастом.

Индустрия ИИ использует труд низкооплачиваемых работников, не защищенных трудовым законодательством и профсоюзами. Компании намеренно нанимают людей из бедных и малообеспеченных слоев населения и зачастую не оформляют их в штат, а берут на аутсорсинг. В основном, таких работников находят в Индии, Кении, Мексике, Филиппинах. Люди часто не знают английский, но инструкции они получают на нем, и им грозит увольнение или запрет работы на краудворкинговых платформах, если они не до конца понимают правила. Люди боятся потерять работу, поэтому не пресекают неэтичные действия и не требуют улучшения условий труда. Корпорации понимают, что если работники начнут отстаивать свои права, это замедлит развитие систем ИИ, которые строятся на огромных объемах данных.

ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДОЛЖНА БЫТЬ В ПРИОРИТЕТЕ

Исследователи в области этичного, применяемого для общественного блага или человекоориентированного ИИ, в основном сосредоточились на устранении предвзятости при использовании данных, а также обеспечении прозрачности и справедливости машинного обучения. Однако в центре внимания должно быть прекращение трудовой эксплуатации в индустрии ИИ. Например, если корпорациям в США не разрешат использовать рабочую силу из Кении, они не смогут так быстро распространять опасные технологии.

Необходимо финансирование исследований и общественных инициатив, направленных на выявление проблем на стыке рынка труда и систем ИИ. Исследователи этики ИИ должны выявлять как причины, так и последствия несправедливых условий труда в отрасли. Исследователи и практики в области нейросетевых технологий должны задуматься о том, как они используют краудворкинг для продвижения по карьерной лестнице, в то время как ситуация вокруг работников остается нестабильной. Сообщество по этике ИИ должно работать над инициативами, которые передают власть в руки работников. Важно проводить исследования совместно с работниками на основе их потребностей, способствовать созданию профсоюзов в разных регионах и тому, чтобы результаты исследований были доступны работникам, а не ограничивались академическими публикациями.

Одна из удачных инициатив — платформа Turkopticon, созданная Лилли Ирани (Lilly Irani) и М. Сикс Зильберман (M. Six Silberman). Система разработана в помощь людям, задействованным в краудворкинге. На Turkopticon можно оставлять отзывы о своих взаимоотношениях с заказчиками и поддерживать других работников. Таким образом создатели надеются, что работодатели перестанут воспринимать нанятых ими людей невидимками, как было принято в Amazon Mechanical Turk.

Помочь gig-работникам могут журналисты, ученые, деятели искусств. Для этого они должны объяснять, как связаны трудовая эксплуатация и опасность от применения ИИ в повседневной жизни, почему, например, нужно заботиться о маркировщике данных в Сирии или водителе доставки Amazon в США. Чувство стыда сработает при определенных обстоятельствах: общественное мнение в духе «как вам не стыдно» иногда может привести корпорации к потере доходов и сделать их более гибкими.

Создание транснационального профсоюза gig-работников должно быть в центре «борьбы» за этичный ИИ. Хотя каждое рабочее место и географический контекст имеют свои особенности, знание того, как в других местах решают подобные проблемы, может послужить источником вдохновения для местных профсоюзов. Например, специалисты по маркировке данных в Аргентине могли бы извлечь уроки из недавнего объединения в профсоюз модераторов контента в Кении или работы Turkopticon в США, и наоборот. Кроме того, специалисты, состоящие в профсоюзе в одном географическом регионе, могут выступать в защиту своих более пострадавших коллег в другом.

Если к работникам с низким доходом корпорации относятся как к одноразовым, то сотрудников с высоким доходом, которые могут быстро устроиться к конкурентам, они теряют неохотно. При желании, высокооплачиваемые работники могут проявить солидарность со своими низкооплачиваемыми коллегами, которые значительно превосходят их численностью. Объединение первых в профсоюзы и выражение своего разочарования культурой и политикой компании также может помочь улучшить ситуацию для вторых. Хотя пока похоже, что корпорации используют все имеющиеся в их распоряжении инструменты, чтобы изолировать эти группы друг от друга.

Эмили Каннингем (Emily Cunningham) и Марен Коста (Maren Costa) создали тот тип рабочей солидарности, который пугает высшее руководство. Обе женщины проработали дизайнерками пользовательского интерфейса в штаб-квартире Amazon в Сиэтле в общей сложности 21 год. Вместе с другими сотрудниками корпорации Amazon они стали соучредителями организации Amazon Employees for Climate Justice (AECJ). В 2019 году более 8 700 сотрудников Amazon публично подписались под открытым письмом, адресованным Джеффу Безосу и совету директоров компании, требуя разработки политики по борьбе с изменением климата и конкретных шагов в ее реализации. Позже в том же году AECJ организовала первую в истории Amazon забастовку корпоративных работников. Группа заявляет, что более трех тысяч работников Amazon вышли по всему миру в знак солидарности с глобальной климатической забастовкой, возглавляемой молодежью.

В ответ Amazon обязалась достичь нулевого уровня выбросов к 2040 году — на десять лет раньше, чем предусмотрено в Парижском соглашении по климату.

Позднее, в связи с другой ситуацией, Amazon уволила Каннингем и Коста. Это случилось через несколько часов после того, как AECJ разослала по компании приглашение послушать группу работников склада, рассказывающих об ужасных условиях труда, с которыми они столкнулись в начале пандемии. Национальное управление по трудовым отношениям признало увольнения незаконными, и позже компания выплатила обеими женщинам нераскрытые суммы. Этот случай иллюстрирует, что топ-менеджмент опасается возникновения солидарности сотрудников с высоким и низким доходом.

Все общество сможет выступить в защиту gig-специалистов и потребовать наказаний для организаций-нарушителей, если будет иметь четкое представление о трудовой эксплуатации, стоящей за распространением вредоносных систем ИИ.

Перевод с сокращениями Фонда «Безопасный дом».


Источник: www.noemamag.com

Комментарии: