Что такое «схемы» фарминга и почему они имеют свойство умирать?

МЕНЮ


Искусственный интеллект. Новости
Поиск
Регистрация на сайте
Сбор средств на аренду сервера для ai-news

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематика

Авторизация



RSS


RSS новости

Новостная лента форума ailab.ru


Вы знаете как я не люблю тыкать пальцем в небо и гадать на кофейной гуще, поэтому всегда пытаюсь разобраться как можно глубже в сути тех или иных вещей, чтобы иметь возможность подстраиваться под них или искать пути обхода.

Я уже писал о принципе энтропии, теории графов, поведенческих паттернах и других вещах (https://vk.com/smol_arbitrazh?w=wall-104081987_4766).

Поэтому идем дальше.

Все мы знаем, что Facebook использует не простой (условно статичный) антифрод, а с использованием искусственного интеллекта и математических моделей, что в свою очередь дает ему возможность обучаться, все точнее прогнозируя результат наших действий в конечном итоге и пресекая попытки основных поведенческих паттернов на ранних этапах (о которых я говорил в упомянутом посте).

Так вот, есть искусственный интеллект, в нем есть подраздел машинного обучения, а у машинного обучения есть различные виды этого самого обучения.

Сегодня речь пойдет о глубоком обучении (deep learning).

Есть такая вещь, как обучение с «учителем».

Под «учителем» подразумевается конечный негативный или позитивный результат, который нужно спрогнозировать иили предотвратить.

Вернемся к схемам фарма и вопросу почему одни работают, но все в конечно итоге умирают.

Дело в том, что когда ваша схема необычная и аномальная, сильно отличающаяся от среднестатистического поведения, где Facebook не может опереться на предыдущий опыт и исторические данные, чтобы классифицировать их как рисковый поведенческий паттерн.

Он дает вам работать и продолжает следить за вами, чтобы понять к какому итоговому результату приведет такого рода поведение.

ФБ будет давать вам возможность работать до тех пор, пока его математическая модель и ИИ не начнут на 100% прогнозировать конечный негативный результат.

Условно если вы при одинаковом наборе и последовательности действий 100 раз в конечном итоге кинули ФБ или закл@@чили, то по теории вероятности в 101 раз вы сделаете тоже самое.

После этого ФБ так сказать упаковывает данное поведение в паттерн и уже на ранних этапах сможет выявлять вас.

В этот момент схема и умирает.

Выхода 2:

1. Постоянно генерить аномальные схемы, у которых сильное отклонение от среднестатистических показателей и юзать ее до тех пор пока юзается. Главное не делитесь схемой ни с кем, т.к. чем больше людей юзают - тем вы быстрей тем самым обучаете ФБ.

2. Стараться попасть как можно сильнее в среднестатистический паттерн-поведения, где ФБ будет сложно вас выявить. Т.к. это как и в случае с подсетью или мобильными IP, где у ФБ риск скосить большое кол-во людей под одну гребенку. Опять же используйте в своих целях принцип энтропии, речь о котором шла в предыдущих постах.

p.s.

Суть не в том, что я вас пытаюсь научить или что-то доказать, просто в очередной раз призываю копать в глубь. Изучайте принципы и механики работы тех или иных технологий, ради интереса просматривайте патенты фейсбука, я уже писал что там много чего интересного, и т.д.

Любая система - это алгоритм, а алгоритм не обладает интеллектом, чтобы принимать решения, поэтому ему важно опираться на какие-то переменные.

Как я уже сказал в начале поста, зная переменные и принцип работы, можно подстраивать или находить пути обхода.

* Также много интересного в принципах искусственного интеллекта при распознавании изображений. Понимая как это устроено, можно пропихывать практически любые подходы, оставаясь белым и пушистым в глазах ИИ ФБ.


Источник: vk.com

Комментарии: