Оказалось, ИИ изучает нас быстрее и продуктивней, чем мы его

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Оказалось, ИИ изучает нас быстрее и продуктивней, чем мы его. Результаты совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.

В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).

Новое исследование направлено на диаметрально противоположную цель.

Авторы решили выяснить:

А) может ли ИИ понять мышление людей?

Б) если да, то насколько ИИ в этом преуспевает?

Как вы уже догадываетесь, ответы

А) Да

Б) Сильно преуспевает.

Исследование показало, что, получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):

1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);

2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников;

3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.

Например, на вопрос о том, какое правительство лучше для граждан:

- с широкими полномочиями в большинстве сфер жизни общества

- или с ограниченными полномочиями в отношении ограниченного числа сфер жизни,

LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.

Но самое поразительное вот что:

Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).

А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …

В заключение приведём известную и загадочную фразу Ницше: "??Если ты долго смотришь в бездну, то бездна смотрит в тебя."

Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.

В случае с ИИ так и получилось. Но случилась беда: пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто), алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.

Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.


Источник: vk.com

Комментарии: