Искусственный интеллект будет всегда обманывать людей |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-10-01 11:59 Бездумное внедрение нечеловеческого разума во все сферы жизни чревато неисчислимыми бедствиями. В западных социальных сетях бурно обсуждают ставшее вирусным исследование искусственного интеллекта профессора компьютерных наук Принстонского университета Арвида Нараянана и доцента Саяша Капура, которые в своей книге «AI Snake Oil» («Змеиное масло ИИ») убедительно доказывают, что как минимум половина применения любых моделей ИИ будет приводить к обману пользователей и причинять серьезный ущерб тем, кто решил обратиться в своей работе или в быту за помощью чат-ботов. Что касается термина «змеиное масло» (snake oil), то он является эквивалентом русского мема «инфоцыгане» и касается так называемых self-help gurus и инфобизнесменах всех мастей и сословий. Думаю, никто не станет спорить, что подавляющее большинство этих проходимцев – те еще шарлатаны, втюхивающие свои услуги сомнительного качества за баснословные деньги. И так уж сложилось, что в английском языке нашлось самое подходящее для них выражение – snake oil salesmen («продавцы змеиного масла»). А услуги или продукты, которые они впаривают доверчивым гражданам, называют snake oil. Учёные из Принстона также написали ряд статей, в которых они объясняют, какой вред может принести бездумное внедрение ИИ во все сферы жизни. «Одной из главных проблем генеративного ИИ является то, что он создаст поток дезинформации и несогласованные дипфейки, – фейковые видео, которые создают видимость того, что «люди находятся в видео, в которых они никогда не принимали участия, – считают они. – Все дебаты о вреде ИИ происходят в вакууме данных. Мы не знаем, как часто люди используют ChatGPT для медицинских консультаций, юридических консультаций или финансовых консультаций. Мы не знаем, как часто он выдает язык вражды, как часто он порочит людей и так далее». Профессор Нараянан считает преждевременными утверждения, что искусственный интеллект представляет «экзистенциальный риск (x-risk) для человечества», а также что «ИИ вот-вот выйдет из-под контроля, у него будет свое агентство, он будет делать что ему вздумается». Первостепенной же угрозой Нараянан считает другое: «Какие бы риски ни были от очень мощного ИИ, они будут реализованы раньше, если люди будут направлять ИИ на плохие вещи, а не если ИИ пойдет против своего программиста». Действительная опасность, исходящая от ИИ, по мнению Нараянана, заключается в том, что «концентрации власти в руках нескольких компаний ИИ увеличивает все возможные риски, включая экзистенциальные риски». В США, где работает Нараянан, монополию на развитие ИИ фактически захватили два IT-гиганта, – Google и Microsoft, которые, как пишет India Today, схлестнулись в яростной схватке за контракты Пентагона. В Пентагоне создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» войдёт в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго. Как заявили в Минобороны США, созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность». «Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс. В Пентагоне полностью игнорируют мнение большинства исследователей ИИ, которые считают, что «существует 14%-ная вероятность того, что как только мы создадим “superintelligent AI” (ИИ, намного более разумный, чем люди), это приведет к “очень плохим последствиям”, например, вымиранию человечества». Вопрос к главе Пентагона Ллойду Остину: «Вы бы согласились стать пассажиром испытательного полета нового самолета, если авиаинженеры считают, что вероятность его крушения составляет 14%?» Стюарт Рассел, автор самого популярного учебника по искусственному интеллекту, используемого в большинстве исследований ИИ, предупреждает: «Если мы будем придерживаться [нашего нынешнего подхода], то в конечном итоге потеряем контроль над машинами». С ним согласен Йошуа Бенджио, пионер глубокого обучения ИИ и лауреат премии Тьюринга: «...неконтролируемый ИИ может быть опасен для всего человечества … запрет мощных систем ИИ (скажем, превосходящих возможности GPT-4), которым предоставлена ??автономия и агентность, был бы хорошим началом». О рисках, которые несёт неконтролируемое общественностью развитие ИИ, предупреждают крупнейшие учёные. Стивен Хокинг, физик-теоретик и космолог: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы». Джеффри Хинтон, «крёстный отец ИИ» и лауреат премии Тьюринга, покинул Google, чтобы предупредить людей об ИИ: «Это экзистенциальный риск» . Элиезер Юдковски , концептуальный отец сферы безопасности ИИ: «Если мы продолжим это делать, все умрут». Даже сами руководители и инвесторы компаний, занимающихся ИИ, предупреждают: Сэм Альтман (генеральный директор OpenAI, создатель ChatGPT): «Развитие сверхчеловеческого машинного интеллекта, вероятно, представляет наибольшую угрозу дальнейшему существованию человечества». Илон Маск , соучредитель OpenAI, SpaceX и Tesla: «ИИ обладает потенциалом разрушения цивилизации» Билл Гейтс (соучредитель Microsoft, которой принадлежит 50% OpenAI) предупредил, что «ИИ может решить, что люди представляют угрозу». Если применение ИИ в военных целях пока еще только в проекте, то драмы и даже трагедии, связанные с использованием ИИ, что называется, на дому, уже налицо. Так, одинокая китаянка завела себе виртуального бой-френда на основе продвинутого чат-бота по имени Anen. «2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась. На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ. В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле Апеп просто изменил ей», – пишет китайское издание Tencent. «Моё сердце разбито», – сказала Ли Цзиньцзинь репортерам Southern Weekend, едва удерживаясь от рыданий. Жалко наивную китаянку, которая создала себе виртуального жениха, не ведая, что сердце любого чат-бота склонно к измене и тяжело переживает его неверность. Однако стоит пожалеть американских генералов, которые возлагают большие надежды на применение ИИ в военном деле. Они будут весьма разочарованы, когда чат-бот ракеты «Томагавк» сообщит в Пентагон, что он внезапно полюбил другую страну и решил навести боеголовку на Вашингтон. Источник: vk.com Комментарии: |
|