Кибер-ДНК

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Наследили

У экранов гаджетов есть прозвище — «черное зеркало»; их холодные и глянцевые поверхности глядят на нас с каждого рабочего стола и из каждой ладони. По ту сторону экрана мы оставляем необычное отражение — свой подробный цифровой автопортрет. Каждый раз, когда мы касаемся интерактивного экрана смартфона или клацаем по клавиатуре ноутбука, сквозь наши пальцы убегают данные. Мы лайкаем, подписываемся на интересные страницы, разбрасываемся геометками, вбиваем запросы в Яндекс, скачиваем музыку, смотрим видео, выкладываем фотографии.

А еще пишем, и пишем, и пишем. В романе «Война и мир» 2,5 миллиона знаков, а в Твиттере буквенный эквивалент романа набирается каждые полторы секунды. За секунду мы отправляем под 3 миллиона электронных писем — никто и никогда не писал так неутомимо, как пользователи сети.

Наш цифровой след становится все длиннее, и значимость этих данных мы недооцениваем. То, что мы оставляем после себя в одних только соцсетях, — вовсе не дебри ерунды. Страничка в Фейсбуке легко переводится в психологический портрет, где отражены характер, слабости и чаяния ее автора. Еще в 2013 году исследователи из Кембриджа и Университета Северного Иллинойса научились по текстам фейсбучных постов довольно точно определять IQ. И даже измерять «большую пятерку» черт личности (Big Five — модель личности, выделяющая пять переменных, которые прежде всего склонны замечать и оценивать в нас другие люди: открытость, эмоциональность, экстраверсия, добросовестность и доброжелательность).

По лайкам можно выявить не только политические предпочтения, но и отношение к религии, сексуальные предпочтения, пристрастия к алкоголю или наркотикам и многое другое. «Большой брат» из фантазий ХХ века о тотальной слежке оказался программой, и чтобы вторгнуться на нашу личную территорию, ему достаточно проанализировать статистику.

Я согласен

— Удешевление компьютеров и появление сети в каждом доме породило лавину цифровых данных, — рассказывает Борис Орехов, доцент факультета гуманитарных наук НИУ ВШЭ. — Возможности машинного обучения основаны на статистике — а тут появился гигантский массив данных, с которыми можно работать. Например, нейронные сети часто используют для распознавания образов на изображениях. Как можно этому научить компьютер? Сначала пользователи Фейсбука стали выставлять фотографии, потом сами отмечали друзей на фото, и получилась огромная обучающая выборка для нейронной сети, по которой она училась узнавать людей на изображениях.

Вам встречались веселые приложения вроде «Кто ты в “Игре престолов” или «Какой у тебя психологический возраст»? По сути, это короткие психологические тесты. Миллионы пользователей играют в эти игры, чтобы поделиться смешным результатом, и не чувствуют подвоха, соглашаясь на требование приложения предоставить ему доступ к личной информации. Алгоритму остается лишь сравнить ответы на тест с тем, как мы ставим лайки и что пишем в ленту. Машины глотают и анализируют данные миллионов пользователей, обучаясь вычислять наши черты все лучше — этот анализ человеческой психики машинами продолжается уже лет десять.

Одно из первых таких тестов-приложений, собирающих и анализирующих информацию о пользователях, придумали еще в 2008 году в Кембридже студенты-психологи Дэвид Стиллуэлл и Михал Косински (теперь уже профессора). Они надеялись заполучить информацию хотя бы сотни пользователей, но их приложение myPersonality стало вирусным: миллионы людей как одержимые заполняли тесты и без оглядки отдавали свои данные. Алгоритм научился по лайкам и записям определять цвет кожи пользователя, его сексуальную ориентацию, возраст, религиозную принадлежность, курит ли и даже в разводе ли его родители! Совершенно не обязательно быть помешанным на соцсетях гиком, который ежеминутно теребит смартфон; достаточно кликнуть пару раз в день. Всего десяток-другой лайков, и программа может узнать о вас больше, чем знают коллеги. Сотня лайков — и она знает о ваших чертах и предпочтениях точнее, чем друзья; несколько сотен ?— и она понимает вас лучше, чем супруг(а).

Главным фигурантом скандалов вокруг анализа цифровых следов пользователей соцсетей стала компания Cambridge Analytica, в 2015 году выпустившая приложение «Это ваша цифровая жизнь». Создатели честно признавались в описании, что игра создана для исследования: изучить цифровые следы и на их основе построить психологические профили. Добровольцев набралось около 270 тысяч, за помощь науке им выплатили по доллару. Но на самом деле всего за доллар участники продали не только свое цифровое «я», но и информацию друзей. «Вы не против, если мы просмотрим данные ваших друзей?» — спрашивала программа. «ОК, пожалуйста! Я же хочу пройти этот забавный тест!» — так реагировали участники. В итоге в сети компании попались данные 50 миллионов человек. Алгоритм, переварив все это, научился расфасовывать пользователей по категориям: интроверт или экстраверт; консерватор или либерал; чаще опирается на логику или эмоции, и так далее.

В обрусевшем Фейсбуке — «ВКонтакте» — такие веселые и словно бы невинные тесты тоже популярны. Возмущаться беспардонным вторжением не получится: ведь технически никто данные не воровал, мы сами ставим галочку «я согласен» под пользовательским соглашением, навсегда прощаясь с правами на свои записи, фотографии, комментарии, лайки и любые выводы, которые можно сделать на основе этих данных.

Мы, кстати, можем посмотреть, что о нас известно. И Фейсбук, и «ВКонтакте» по первому обращению любезно присылают архив всего, что вы делали на просторах соцсети. Это зрелище для храбрых духом! «ВКонтакте», как оказалось, бережно хранит каждый лайк, комментарий, запись и каждую букву моей личной переписки (даже удаленной) с момента регистрации — 12 лет цифровой жизни.

Между строк

Конечно, читая наши записи, компьютер ничего не понимает.

— Главная проблема всей сферы искусственного интеллекта — это понимание, — рассказывает Борис Орехов. — Компьютер может анализировать текст, но не может вникнуть в суть. Есть знаменитый мысленный эксперимент — «китайская комната». Представьте, человек сидит в комнате, а ему под дверь подсовывают картинки с китайскими иероглифами. Человек не знает китайского языка, но у него есть четкие инструкции, как раскладывать картинки с иероглифами и какие картинки в итоге просовывать под дверь в ответ. У стороннего наблюдателя может создаться ощущение, что человек в комнате знает китайский язык — ведь его ответы выглядят разумно! — но на самом деле он просто следует правилам. Так вот, компьютер — это человек в китайской комнате.

На этом хорошие новости заканчиваются. Потому что, хотя смысла прочитанного алгоритм не поймет, с помощью правильной инструкции он вытащит информацию, которая осталась между строк. Переведет язык комментариев, постов и сообщений в обоснованные предположения, касающиеся наших личных качеств. А чтобы заполучить заветные правила, у алгоритма есть два способа. Можно скормить программе огромный массив данных, и система сама разберется — так поступили Cambridge Analytica и группа Косински. Второй вариант — дать алгоритму наставника-ученого; так работают экспертные системы искусственного интеллекта. С хорошим учителем бездушная машина может легко определить наполняющие текст эмоции.

— Много лет назад я разработал типологию текстов, которая предполагает, что в художественной литературе есть разные типы текстов: «светлые», «темные», «веселые», «печальные», «красивые», — рассказывает психолингвист, учитель искусственного интеллекта Валерий Белянин. — Они словно описывают совершенно разные, непересекающиеся миры. Я составил словари (тезаурусы) для этих типов текстов. В зависимости от того, как часто в тексте встречаются слова «темного», «красивого» или другого списка, я могу вручную отнести его к одному из классов. Не все тексты и не всегда, но часто. Эти словари я предоставил команде программистов RemoteAssembly.

Длинные-длинные списки слов разной окраски становятся своеобразным градусником для определения эмоций. Машина ищет слова маркеры в любых текстах и определяет их настроение.

— Если, например, применить такой анализ к тексту «Ромео и Джульетты», получится график, описывающий сюжет трагедии в терминах эмоций, — говорит Борис Орехов. — Когда Ромео и Джульетта влюбляются, график ползет вверх к радостному настроению. Когда узнают, что принадлежат к враждующим семьям, кривая летит вниз. Женятся — вверх, умирают — вниз. Нейронные сети показали нам: чтобы вытащить из текста информацию о его эмоциональной тональности, достаточно распределения букв, даже не слов.

Лингвистический портрет

Эмоциональная окраска текстов пользователя может рассказать алгоритму, каким чаще видится человеку мир — темным или светлым, веселым или серьезным. Эмоциональная тональность текста — лишь одна из анализируемых машинами характеристик, в зависимости от их коктейля получаются разные модули анализа. Например, российская компания в сфере обеспечения информационной безопасности SearchInform придумала систему ProfileCenter, анализирующую тональность текста, длину предложений и какие слова преобладают в речи — редкие или часто употребляемые. Их алгоритм анализа переписки может выявить более 50 психологических характеристик, оценить взаимодействие людей в коллективе и риски правонарушений в отношении компании.

Не обязательно теребить смартфон ежеминутно — достаточно кликнуть пару раз в день. Всего десятокдругой лайков, и программа может узнать о вас больше, чем знают коллеги. Сотня лайков  —  и она знает о ваших чертах и предпочтениях точнее, чем друзья; несколько сотен  — и она лучше понимает вас, чем супруг

— Если человек использует короткие предложения — «пойдем», «о’кей», «давай», это говорит, что он сосредоточен на действии, — рассказывает  руководитель направления профайлинг в «СёрчИнформ» Алексей Филатов. — А длинные предложения — это текст, стилистически направленный на осознание, поиск смысла. Такими предложениями пишут учебники и философские трактаты. В длиннющих предложениях человек будет мяться: «с какой точки зрения», «не все так однозначно». Картина мира пользователя, который переписывается короткими предложениями, проще и очевидней, чем у человека с длинными фразами. То же касается редких и высокочастотных слов. Те, у кого в речи преобладают часто встречающиеся слова, не думают о подборе слов — эти люди больше ориентированы на действие. А те, кто использует редкие слова, более склонны к рассуждению.

 056_rusrep_16-1.jpg Zuma/TASS

Zuma/TASS

— У меня, например, предложения короткие, всегда стоят знаки препинания, тексты изобилуют глаголами и носят негативную окраску. Это типичный лингвистический портрет безопасника, — приводит пример Иван Бируля, руководитель службы безопасности Search Inform.

Любопытно, что рассказывает моя речь в сети? Я попросила разработчиков скормить алгоритму текст моих переписок (около 15 тысяч слов). Программа ProfileCenter что-то внутри себя покрутила, потрещала, проанализировала — и прислала забавные и, в общем, правдивые психологические портреты. Например, программа отметила, что меня часто кидает от радости к тревоге, лестно отозвалась о моих творческих способностях. Самая замечательная фраза притаилась на последних страницах отчета: «невысокие навыки хранения конфиденциальной информации». В свете того, что я несколько раз прогнала свои аккаунты через программы профайлинга и добровольно отдала десятки тысяч слов личной переписки на анализ — ну да, наверное, не очень высокие.

Только вот решительно не знаю, где я умудрилась все это рассказать.

Увидеть невидимое

— Дело в том, что почти все, что мы говорим, остается неосознаваемым, — рассказывает психолингвист Марина Новикова-Грунд, декан факультета психологии Московского международного университета. — Это происходит автоматически. Когда мы идем по лестнице, мы же не обдумываем каждый шаг! Делаем первый шаг, предполагаем, что все остальные ступеньки такие же, и бежим дальше, не думая. Речь мы тоже когда-то освоили, но, преуспев в этом, перестали задумываться, что мы говорим или пишем. Мы подсознательно выбираем определенные формы речи, синтаксис. И поскольку мы осознаем лишь малую часть того, что говорим, оставшаяся часть рассказывает про нас не только то, что мы не хотим про себя рассказывать, но даже и то, что мы знать про себя не знаем.

Когда алгоритм, исследующий текст, оставляют пастись на поле статистики без чуткого руководства учителей, становится совершенно непонятно, как он пришел к своим выводам об авторе текста. Ведь нет эксперта, который мог бы объяснить, почему вот эта конкретная особенность текста раскрывает такую-то информацию о его авторе.

Первоначально на логотипе компании Cambridge Analytica был изображен генеральный директор Facebook Марк Цукерберг, но теперь его убрали с логотипа 056_rusrep_16-2.jpg Jaap Arriens/Zuma/TASS

Первоначально на логотипе компании Cambridge Analytica был изображен генеральный директор Facebook Марк Цукерберг, но теперь его убрали с логотипа

Jaap Arriens/Zuma/TASS

— Раньше эксперт смотрел материал и находил в нем закономерности, — говорит Орехов. — А сейчас эти закономерности выискивает и описывает сам компьютер — это машинное обучение. Именно потому, что машина сама разбирается, закономерности, которые она выявляет, гораздо богаче и сложнее, чем то, что находит человек. Нам сложно понять, как компьютер дает правильные ответы. Даже если забраться внутрь нейронной сети — непонятно. Есть такое мнение: любая развитая технология выглядит как магия. Вот нейронные сети как раз подходят на роль магии.

В данных, которые нам кажутся невинными и неинформативными, вроде набора лайков под смешными картинками, компьютер находит мельчайшие статистические отклонения в сторону того или иного личного качества. Эти отклонения едва различимы и остаются за порогом человеческого восприятия. Но компьютеры, которым совершенно не лень хранить и обрабатывать массу информации, умудряются сложить из них правильный пазл. Например, алгоритм группы Михала Косински, которого, кстати, на сайте центра психометрии Кембриджа называют не иначе как «главный по магии», обнаружил, что в верхнюю пятерку лайков-индикаторов высокого интеллекта входит клик по сердечку на странице картофеля фри, нарезанного спиральками (это популярное в США блюдо называется «кудрявый картофель»). То, что мы неспособны увидеть взаимосвязь IQ и картошки, не означает, что этой связи нет. Исследователи предполагают, что «дружбу» IQ с кудрявым картофелем может объяснить социологическая теория гомофильности, согласно которой умные люди предпочитают дружить с умными, так же как молодые — с молодыми, а любители вечеринок — с такими же тусовщиками. Когда-то какой-то умник лайкнул кудрявый картофель, его умные друзья тоже лайкнули, а потом их умные друзья переняли традицию — и понеслось. Дотошному компьютеру оставалось только заметить, что кудрявый картофель почему-то лайкают люди с IQ выше среднего.

Проблема в том, что мы совершенно не знаем, что же именно рассказывают наши бездумные клики мышкой и щелчки по клавиатуре. Может, соцсетям стоит обзавестись оповещениями вроде «вы, конечно, можете это написать (или лайкнуть), но тогда будет легче определить вашу сексуальную ориентацию, употребляете ли вы наркотики и насколько вы уживчивы». Лайкнули бы?

Обмани меня

Невозможность предсказать, какие выводы сделает компьютер, — не единственная головная боль. Измерением всего подряд, от умственных способностей до личностных качеств и суждений, ученые занимаются очень давно. Еще в 1880-х в Кембридже Джеймс Маккин Кеттелл открыл первую лабораторию психометрии. Но с тех пор полтора века нам удавалось обдуривать тесты и кадровиков на собеседованиях — ведь люди пишут и говорят не правду о себе, а то, что им представляется выгодным.

— Я трачу по 30–40 минут на то, чтобы на собеседовании войти в доверительные отношения, — рассказывает Иван Бируля. — Потому что человек прекрасно понимает, что его тестируют, и закрывается масками — это мешает определять его психологические особенности. Но цифровой профайлинг не требует участия человека. Он делает свою работу незаметно.

Поэтому когда психометрия переезжает в естественную среду цифрового обитания — в социальные сети — правила игры меняются: мы можем даже не знать, что в этот самый момент кто-то оценивает и измеряет наши самые интимные особенности. Притворяться становится сложнее. А пытаться через призму соцсетей показаться лучше — умнее, успешнее, интереснее — бессмысленная затея. Ведь алгоритму все равно, что вы говорите, ему важнее — как.

— То, что в своих постах в соцсетях мы не вполне искренни, не помеха, — говорит Марина Новикова-Грунд. — Мы не умеем быть полностью правдивыми даже в личных дневниках. Но синтаксические конструкции, например, мы не контролируем — в них мы всегда правдивы.

— Нам часто на конференциях задают вопрос: «А если я специально буду писать вот так вот?», — продолжает Иван Бируля. — А попробуйте месяц писать «вот так»! Думаю, получаться будет дня три. Ведь особенности письма — это привычка, ее очень трудно сломать.

Чтобы обмануть систему, придется изменить свое поведение и придерживаться его долгое время. Скажем, вы хотя бы месяц хотите играть спектакль для алгоритмов и изображать организованного человека. Но если вы месяц оставляете за собой правильный цифровой след — подделываете лайки, имитируете речь в мессенджерах и так далее — вряд ли у вас когда-то были проблемы с организованностью.

Человеку сложно обмануть машину. А значит, ему нужен помощник — другой алгоритм. Такой способ «скрыться с радара» находится в разработке компании BiolinkTech. Она создает систему, которая будет постоянно дурить алгоритмы:

— Мы ставим завесу из «белого шума», чтобы тебя невозможно было срисовать. Каждые две минуты вас представляют в новом виде: сначала Вася Пупкин из Ростова, потом домохозяйка из Техаса, потом японец с нездоровым интересом к хентаю, — рассказывает на странице в Фейсбуке директор компании Евгений Черешнев.

Бывший сотрудник компании Cambridge Analytica  Кристофер Уайли присягает, прежде чем дать показания в Судебном комитете сената на слушаниях в связи с влиянием компании на выборы в США 058_rusrep_16-2.jpg Jose Luis Magana/AP/TASS

Бывший сотрудник компании Cambridge Analytica Кристофер Уайли присягает, прежде чем дать показания в Судебном комитете сената на слушаниях в связи с влиянием компании на выборы в США

Jose Luis Magana/AP/TASS

Кому Трамп обязан победой

— Профилирование по соцсетям может запустить важный тренд в цифровой среде, — рассказывает Борис Орехов. — Ведь на его основе можно управлять поведением людей. Если в правильный момент в правильном виде выбрасывают правильную информацию — можно заставить кого-то полюбить, а кого-то возненавидеть.

Cambridge Analytica, например, использовала свою базу данных из 50 миллионов человек, разбитых по психотипам, для нахождения правильного подхода к каждому в предвыборной кампании Дональда Трампа. Была создана программа, которая анализировала, что пользователь пишет, что любит и с кем общается. И на основе этих данных Cambridge Analytica выдавала инструкцию: что и как сказать человеку, чтобы он поверил и «правильно» отреагировал. Оказалось, чтобы получить отклик людей разных типов, достаточно лишь сменить упаковку одной и той же идеи. Кому-то нужно говорить в лоб, а кого-то очень долго подготавливать аккуратными сообщениями. Бывший сотрудник компании Кристофер Уайли признавался: «Мы использовали несовершенство Фейсбука для сбора миллионов пользовательских профилей и построения моделей, которые позволяли нам узнать о людях многое и применить знания для активации их внутренних демонов». А покровитель проекта Стив Бенон (бывший советник Трампа) прямо назвал проект «инструментом запудривания мозгов для психологической войны».

Cambridge Analytica хвасталась, что с помощью Фейсбука смогла «взломать» 200 выборов в разных странах мира. Самые громкие трофеи компании — голосование о выходе Великобритании из Евросоюза и выборы президента США. Снайперски нацеленную политическую рекламу Трампа в зарубежной прессе даже называли одной из главных причин его победы на выборах. Алгоритм отбирал пользователей, которые могли бы проголосовать за Трампа, и подсовывал им правильные слова — рассказывал ту часть программы, которая могла их заинтересовать. К примеру, фермеры видели сообщения о решении проблем, связанных с сельским хозяйством. И Трамп обошел всех во многом именно потому, что поговорил с избирателями «один на один». Это стало историей успеха парня без поддержки крупных лоббистов, без внятной идеи, зато с данными пользователей Фейсбука, парой ученых и хорошим алгоритмом.

Точно оценить могущество метода Cambridge Analytica никто не может, но даже отсутствие достоверных доказательств того, что компания решающим образом повлияла на политические процессы, не очень успокаивает — ведь реальная возможность воспользоваться своей «магией» у нее была.

«Если человек использует в речи короткие предложения — “пойдем”, “окей”, “давай”, — это говорит, что он сосредоточен на действии. А длинные предложения — это текст, стилистически направленный на осознание, поиск смысла. То же касается высокочастотных и редких слов»

«Продавать» пользователям можно что угодно. Предвыборная агитация за кандидата в президенты не слишком отличается от продвижения на рынок новых пельменей, хотя последствия успеха будут ощутимо разные. В обоих случаях, чтобы сломить сопротивление «покупателя», алгоритм должен правильно разложить пользователей по категориям и выбрать правильную стратегию. Ну а компании готовы платить, чтобы в нужном виде попасться на глаза нужным людям, соответствующим портрету потребителя вроде «консервативный мужчина среднего возраста». Чем детальнее портрет, тем лучше. А цифровой портрет тем точнее, чем больше досье на пользователя.

— Речь идет о бешеных объемах данных, которые люди не задумываясь выкладывают на всеобщее обозрение, — рассказывает Борис Орехов. — Это стало самым дорогим товаром — персональные данные пользователей сети. Наша информация извлекается, хранится и продается задорого.

Приторговывая нашими данными, Фейсбук, например, зарабатывает на рекламе около 40 млрд долларов в год. Закрадываются сомнения, кто тут пользователь, а кого используют.

А теперь хорошие новости

Ощущение, что на наших цифровых следах беспардонно паразитируют алгоритмы, не совсем верно. Мы скорее симбионты: отдавать данные нам выгодно, даже если не очень приятно. Так мы расплачиваемся за комфорт, за доступ к информации, за возможность общаться в соцсетях.

Если вас нервирует анализ цифровых следов — подождите пару лет. Какой-нибудь заботливый алгоритм напишет: «Судя по текстам твитов и лайкам в Фейсбуке, у вас растет уровень тревожности — пора обратиться за медицинской помощью!». Ведь уже сейчас компьютеры постепенно учатся распознавать в цифровых следах признаки психологических проблем. Например, ученые из Гарварда и Университета Вермонта разработали алгоритм, который с помощью компьютерной лингвистики может уловить признаки развития депрессии и посттравматического стрессового расстройства в постах в Твиттере. Схожие исследования проводятся в Институте проблем искусственного интеллекта ФИЦ РАН: по активности человека в социальных сетях ученые могут выявить склонность к депрессии, обнаруживать фрустрацию или агрессивность. А ведь сейчас диагностика психологических проблем недоступна подавляющему большинству человечества, так как требует много средств и времени. Почти половина случаев тяжелой депрессии ускользает от диагностики на ранней стадии. Но компьютер уже сейчас может распознать в цифровых следах симптомы проблемы на полгода раньше. А при развитии депрессии разница в полгода может стоить кому-то жизни. Наверное, это неплохая компенсация за анализ данных — и с алгоритмами есть смысл сотрудничать. Ведь они могут предупредить нас и о других опасностях.

— Многие трагедии можно было бы предупредить, воспользовавшись таким анализом, — говорит Алексей Филатов. — Например, массовый расстрел в Керчинском политехническом колледже, где погиб 21 человек. Событие было абсолютно прогнозируемо по профилированию в соцсетях! Если заглянуть на страницу Владислава Рослякова, устроившего взрыв и открывшего стрельбу, все было ужас как очевидно. Открытым текстом писал: «круто было бы устроить бойню». Был подписан на страницу, посвященную маньякам. С другой стороны, перегибать палку в плане контроля тоже плохо. Хотя бы потому, что гарантированных стопроцентных корреляций нет. Точность предсказаний алгоритма остается на уровне 80–90%. А в 10–20% исключений может попасть кто угодно. Кроме того, «Большой брат» сейчас следит за нами очень незаметно. И хорошо бы это регулировать: кто какие данные использует и в каком объеме, как их анализируют и зачем.

Протестующие с плакатами, призывающими остановить сбор информации «Фейсбуком» о пользователях, выстроились перед зданием сената США, где дает показания Марк Цукерберг1 058_rusrep_16-1.jpg Alex Edelman/Zuma/TASS

Протестующие с плакатами, призывающими остановить сбор информации «Фейсбуком» о пользователях, выстроились перед зданием сената США, где дает показания Марк Цукерберг1

Alex Edelman/Zuma/TASS

Мы только учимся уживаться с «Большим братом» — он может, например, подсказать нам, как развиваться и чему учиться. Компания BiolinkTech также занимается разработкой алгоритма-наставника. Краткий пересказ истории создания компании такой: Евгений Черешнев на несколько лет киборгизировался — вживил себе чип, посмотрел, сколько цифровых данных плетется за ним вслед, ужаснулся и решил обратить анализ цифровых следов во благо. Полный набор данных в компании называют «цифровая ДНК». А их приватный искусственный интеллект — это такой цифровой психоаналитик, который на основе кибер-ДНК пользователя строит свои рекомендации.

«Если у подконтрольного человеку искусственного интеллекта есть доступ к поведенческой истории и статистике своего хозяина, то цифровой ассистент сможет помогать человеку становиться лучше, — пишет Евгений Черешнев в Фейсбуке. — Художник сможет раньше понять, что он художник, математик — что ему надо учиться дальше. Я уверен, что деньги не должны быть единственным мерилом успешности человека. Многие из нас несчастны потому, что человек, например, мог бы быть лучшим в мире резчиком по дереву, но ради содержания семьи он должен работать адвокатом. Сколько таких людей? Большие данные пользователя, которые принадлежат человеку и его личному алгоритму-ассистенту, могут помочь людям раскрыться. Система проанализирует, что нравится, и предложит: попробуй печь булочки. Не понравится — предложит другие варианты».

Эра постприватности

Остается принять, что мы стали жить в насквозь прозрачной среде, где каждый шаг может оказаться под лупой алгоритма. Наш цифровой след все толще, а машины все лучше высасывают из этой информации личные качества. Очень может быть, что война за личные данные уже проиграна: ведь бунт против системы, в его радикальном варианте, обойдется практически превращением в пещерного человека с причудами. Речь же не только об удалении из соцсетей — придется перестать пользоваться электронной почтой и навигатором, забросить Google и Яндекс, удалить все приложения с телефона. А еще лучше заменить навороченный смартфон на какую-нибудь кнопочную черно-белую Nokia. И даже разговаривая по допотопному мобильнику, желательно менять голос. На улицу придется выходить в маске — там же всевидящие камеры наблюдения, которые ловят наши цифровые изображения! Список предосторожностей можно продолжать бесконечно.

Мы можем и должны играть с алгоритмами в прятки, придумывать надежное шифрование, менять законы о персональных данных. Но пока мы бьемся за почти проигранную приватность, не хотелось бы пропустить самое интересное. Мир меняется — сегодня мы еще можем выбирать, говорить или скрывать свои политические взгляды, сексуальную ориентацию, религиозность и так далее. Но в будущем, населенном алгоритмами, которые видят тебя насквозь, такого выбора может и не быть.

За поворотом нас поджидает мир, где места для тайны не остается, — эра постприватности. И, может, вместо того, чтобы трястись над собственным сундучком данных, нам стоит попытаться создать открытое и терпимое общество, в котором никому не страшно оказаться на виду — ни гею, ни атеисту, ни либералу, ни консерватору, ни кому-либо еще.

Нам стоит учиться устойчивости к манипуляциям. Потому что управление мнением людей становится изощреннее: алгоритмы прекрасно нажимают на правильные кнопочки. И стоит свыкнуться с мыслью, что обманывать скоро станет не просто «нехорошо», но и практически бесполезно.

Возможно, это как раз тот случай, когда технологии сделают нас лучше.


Источник: expert.ru

Комментарии: