Заказ на "славянина" заблокировали, на "мусульманина" — выполнили: Эксперимент с заказом в Яндекс.Такси |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-09 15:57 Цифровые фильтры и человеческий фактор: почему алгоритмы такси выбирают избирательную вежливость Современные сервисы заказа такси давно перестали быть просто посредниками между пассажиром и водителем, превратившись в сложные экосистемы, управляемые искусственным интеллектом. Мы привыкли доверять алгоритмам выбор кратчайшего пути и расчет стоимости поездки, однако недавний инцидент заставил общественность задуматься о том, насколько беспристрастны программные коды в вопросах этики и равенства. Ситуация, возникшая вокруг системы модерации комментариев одного из крупнейших агрегаторов, продемонстрировала, что цифровая среда может иметь весьма специфические настройки «справедливости». История получила огласку после того, как один из пользователей решил проверить, как именно работают встроенные фильтры безопасности и этики в мобильном приложении. Эксперимент был простым, но наглядным: мужчина попытался заказать машину, указав в примечаниях конкретные предпочтения относительно личности водителя. Результаты этого теста оказались настолько контрастными, что вызвали волну обсуждений о корректности работы программного обеспечения, которое ежедневно обслуживает миллионы людей. Механика избирательной блокировки В ходе первой попытки пользователь ввел в поле для пожеланий фразу, ограничивающую выбор исполнителя по этническому признаку, указав на необходимость наличия определенной внешности у водителя. Реакция платформы была практически мгновенной и технически безупречной — система заблокировала заказ, сославшись на нарушение корпоративных стандартов и недопустимость дискриминации. С точки зрения логики крупного бизнеса такой подход выглядит абсолютно оправданным, ведь любая компания стремится создать равные условия для всех своих партнеров и клиентов. Однако вторая часть эксперимента поставила под сомнение последовательность этих настроек. Когда пользователь изменил формулировку, указав иную конфессиональную принадлежность желаемого водителя, алгоритм не нашел в тексте никаких нарушений. Заказ был принят в работу без дополнительных вопросов или предупреждений, и вскоре машина была подана по адресу. Такой явный контраст в работе автоматизированных систем вызвал закономерные вопросы о том, по каким критериям обучаются нейросети и кто именно составляет списки «запрещенных» и «допустимых» понятий. Этический зазор в программном обеспечении Проблема здесь кроется не в самом факте существования фильтров, а в их очевидной асимметрии. Разработчики подобных платформ часто подчеркивают, что их целью является создание безопасной и комфортной среды для каждого участника процесса. Но когда одна и та же по своей сути просьба — выбор человека по определенному признаку — в одном случае считается грубым нарушением, а в другом — обычным комментарием, возникает ощущение двойных стандартов. Это создает ситуацию, при которой правила игры становятся непрозрачными для части аудитории. Специалисты в области информационных технологий часто отмечают, что алгоритмы не обладают собственным сознанием и лишь отражают те установки, которые в них заложили создатели или те данные, на которых они обучались. Если база данных содержит определенные перекосы или если модераторы сознательно делают акцент на защите одних групп в ущерб другим, это неизбежно проявляется в повседневной эксплуатации сервиса. В данном случае мы наблюдаем классический пример того, как технологическое решение вместо того, чтобы сглаживать социальные противоречия, случайно или намеренно их подсвечивает. Источник: vk.com Комментарии: |
|