Нужно остановить big data: «темная сторона» больших данных, о которой вы, возможно, не задумывались |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-03-01 07:30 Блогер Джереми Эрдман в своей колонке на Medium рассуждает о недостатках больших данных. Он считает, что необходимо остановить этот растущий тренд, пока не поздно. Типология Майерс-Бриггс. Пять вопросов на определение личности. Тест «Какой у вас патронус». Скорее всего, вы либо слышали о таких тестах, либо проходили их. Они помогают нам сводить наши мысли и поведение к определенным рамкам, которые позволят нам лучше понимать себя. В подростковом возрасте почти все мои одноклассники обожали типологию Майерс-Бриггс. Они проходили тест и делились результатами друг с другом. Он объяснял, почему мы интерпретируем ситуации определенным образом и реагируем на них по-разному. Многим он помог лучше понять себя. С тех пор технологии сильно прогрессировали. Большие данные и искусственный интеллект позволили нам лучше понимать мир вокруг и друг друга. Данные о наших интересах, онлайн-активности и покупках дают теперь более точную модель нашей личности и характера. Итак, что же происходит, когда компании собирают и анализируют эту информацию не только для того, чтобы понять нас, но и чтобы оказать на нас определенное влияние? Cambridge Analytica Фото: Unsplash В марте о Cambridge Analytica не говорил разве что ленивый. Она прославилась благодаря скандалу с Facebook. Компания использовала приложение Facebook «This Is your Digital Life», чтобы собирать информацию о 270 тысячах пользователей и их друзьях. В этом приложении пользователи должны были пройти викторину на определение личности, которая измеряла их уровень:
После установки приложение запрашивало разрешение на доступ к личной информации: место проживания, список друзей и посты, которые пользователь отметил как понравившиеся. Cambridge Analytica взяла результаты оценки личности и сравнила их с информацией о 270 тысячах пользователей Facebook, установив взаимосвязи между определенными интересами и особенностями личности. Cambridge Analytica была политической консалтинговой компанией, поэтому ей нужно было куда большее влияние. Приложение также собрало данные друзей, принявших участие в викторине пользователей. В итоге Cambridge Analytica получила доступ к данным 81 миллиона пользователей Facebook. На основе установленных взаимосвязей компания составила личностные профили 81 миллиона человек. Затем она использовала их для таргетированной политической рекламы. Характер человека, его данные и предпочтения использовались для того, чтобы повлиять на его поведение как избирателя. Что дальше? Что произойдет, когда эти данные будут использоваться не только для того, чтобы повлиять на поведение, но и чтобы наказать тех, кто отказывается подчиняться? Фото: Unsplash Система социального кредита в Китае В июне 2014 года Государственный совет КНР опубликовал «Программу создания системы социального кредита». В документе подробно рассказывалось о разработке мер по оценке «надежности» 1,3 миллиардов жителей страны. Что это такое? Система социального кредита в Китае собирает информацию о транзакциях и взаимодействиях граждан. Затем она оценивает людей на основе их «надежности». Система уже работает в пилотном режиме примерно в тридцати городах. На данный момент китайские техногиганты управляют двумя самыми известными проектами в стране. Один из них – Sesame Credit, находящейся под управлением Ant Financial Services Group, дочерней компании Alibaba. При подсчете рейтинга система учитывает пять факторов:
Выстраивание таких профилей и подсчет очков требует огромного количества данных – от всех ваших покупок и личной информации до взаимодействий онлайн и знакомств. Как и Cambridge Analytica, правительство Китая планирует больше, чем просто создать и отслеживать профили людей. Цель системы социального кредита – поощрять надежность посредством наград и наказаний. Людей с низким рейтингом не берут почти ни на какую работу, не дают кредиты, не продают билеты на скоростные поезда и самолеты, не дают в аренду автомобиль и велосипед без залога. Уже 6,15 миллионов граждан занесены в черные списки авиакомпаний. Фото: Unsplash Такие запреты представляют собой довольно серьезную проблему. Когда четко не оговорено, что можно, а что нельзя, начинается административный произвол. Если системе не будет хватать прозрачности, людям будет сложно понять, за что их наказали и как им набрать больше очков. Многие из перечисленных наказаний – такие, как запрет на путешествия или отказ в приеме на работу – не дают людям совершенствоваться. В результате низкий рейтинг может помешать человеку добиться прогресса в экономическом плане. И это препятствие умышленно. Си Цзиньпин описал суть программы следующим образом: «Один раз провинился, всегда наказан». Что нам делать? У нас есть врожденное желание лучше понимать мир вокруг нас. В эру больших данных это желание наряду со стремлением к власти может привести к целенаправленной манипуляции и контролю.
У меня нет ответов на эти вопросы, но я уверен, что не один я хочу их найти. Источник: hackernoon.com Комментарии: |
|