Восстание машин отменено: Дуров назвал современный ИИ всего лишь текстовым имитатором |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-06-24 13:40 В своём недавнем интервью французскому изданию Le Point владелец Telegram Павел Дуров критикует современные LLM (в том числе нейросети ChatGPT, Gemini, DeepSeek и другие), называя их лишь сложными текстовыми имитаторами, не обладающими интеллектом. «Люди обманываются, потому что ассоциируют сложный язык с интеллектом», — сказал Павел. Также он сообщил, что его старший брат — Николай Дуров работает над «настоящим ИИ», который сможет логически мыслить и понимать окружающий мир. Напомним, LLM (Большая языковая модель, Large Language Model) — это тип искусственного интеллекта, представляющий собой очень большую нейронную сеть, обученную на огромных объёмах текстовых данных для понимания, обработки и генерации естественного языка. У кого мы могла бы спросить, прав ли Павел? Спросим у самих нейросетей. Возьмём две американские нейросети — ChatGPT и Grok, китайскую — DeepSeek и российскую — GigaChat. Что же вы из себя представляете? Ответ ChatGPT 4.5 (Open AI, США): Павел Дуров отчасти прав, но его утверждение является упрощением. Современные LLM, безусловно, являются невероятно сложными системами, способными генерировать текст, похожий на человеческий, переводить языки и отвечать на вопросы. Однако, они не обладают настоящим пониманием смысла того, что они генерируют. Их "интеллект" – это статистическое предсказание следующего слова в последовательности, основанное на огромных объёмах данных, которые они проанализировали. Они не "понимают" мир так, как это делает человек, не имеют собственного опыта и не способны к настоящему логическому рассуждению в сложных, неоднозначных ситуациях. Поэтому, утверждение Дурова о том, что они "лишь сложные текстовые имитаторы" содержит долю истины. Они имитируют интеллект, но не являются им в полном смысле слова. Насколько это "настоящий ИИ" или нет, является предметом продолжающихся дискуссий в научном сообществе. Не существует единого определения "искусственного интеллекта", и разные исследователи имеют разные взгляды на то, что под этим термином следует понимать. В заключение, можно сказать, что оценка Дурова является провокационной, но не полностью необоснованной. Он подчеркивает ограниченность текущих технологий LLM, указывая на значительную разницу между имитацией интеллекта и настоящим интеллектом. Ответ от DeepSeek (Китай): Павел Дуров прав, но с оговорками. Верно: Современные LLM действительно не обладают сознанием или глубоким пониманием. Они имитируют интеллект через статистику, а не через осмысление. Не совсем верно: Несмотря на ограничения, LLM уже сейчас полезны в анализе данных, творчестве и автоматизации. Их нельзя назвать полностью «бессмысленными» — они просто работают иначе, чем человеческий мозг. В чём разница? Современные ИИ (как GPT) просто анализируют огромные объёмы текста и выдают «усреднённый» ответ на основе статистики. Они не осознают смысла, не понимают реальный мир и действуют как очень продвинутые автодополнения. Будущий ИИ Николая Дурова, по задумке, должен именно понимать мир — то есть не просто обрабатывать текст, а осмысливать связи между объектами, причинами и следствиями, возможно, даже иметь что-то похожее на здравый смысл. Фактически, Дуров намекает, что его команда пытается создать более разумный ИИ, который не просто угадывает слова, а действительно «понимает», о чём говорит. Пока это звучит амбициозно, ведь даже ведущие технологические компании ещё не достигли такого уровня. Ответ Grok (xAI, Илон Маск, США): Павел Дуров прав в том, что современные LLM — это, по сути, мощные имитаторы текста, которые не обладают человеческим уровнем интеллекта или глубоким пониманием. Однако его критика может быть слишком категоричной, так как LLM уже решают множество задач, которые ранее считались прерогативой интеллекта. Работа Николая Дурова над "настоящим ИИ" звучит многообещающе, но без конкретики сложно оценить её потенциал. Современные LLM — это важный шаг в развитии ИИ, но они не конечная точка, и исследования в направлении более универсального интеллекта продолжаются. Ответ GigaChat (Сбер, Россия): Вопрос о правоте Павла Дурова относительно современных больших языковых моделей (LLM) — достаточно сложный и многогранный. Аргументы Павла Дурова: Современные LLM генерируют тексты на основе статистического анализа огромных объемов данных, но не обладают настоящим пониманием смысла текста. Например, ChatGPT может правильно отвечать на вопросы, но не осознаёт значения слов и понятий, которыми оперирует. Ограниченность контекста: Хотя LLM обрабатывают огромные объемы данных, они часто теряют нить разговора или выдают противоречивые ответы, особенно в сложных дискуссиях. Недостаточная креативность: Несмотря на способность создавать оригинальные тексты, LLM зачастую повторяют шаблоны и структуры, встречающиеся в обучающих данных, что ограничивает их креативность. Этика и безопасность: Существуют риски распространения дезинформации, манипуляций и злоупотреблений, поскольку LLM не имеют встроенных механизмов защиты от неправильного использования. Однако у LLM есть и сильные стороны, которые делают их полезными инструментами: 1. Эффективность обработки информации: LLM способны быстро обрабатывать и анализировать огромное количество данных, предоставляя полезную информацию и облегчая принятие решений. 2. Универсальность: Они могут применяться в различных областях, включая образование, медицину, бизнес и творчество. 3. Развитие технологий: Современные исследования направлены на улучшение качества генерации текста, понимание контекста и повышение безопасности. 4. Экономическая выгода: Использование LLM позволяет автоматизировать многие процессы, снижая затраты и повышая производительность. Таким образом, мнение Павла Дурова имеет основания, поскольку LLM действительно являются мощными инструментами, но они пока не достигли уровня человеческого интеллекта. Однако это не делает их бесполезными или опасными, наоборот, они могут значительно облегчить жизнь и работу многих людей. Важно продолжать развивать технологии, сохраняя критический взгляд и заботясь о безопасности и этике их использования. Выводы Вот такие ответы "нейронок". Какой вывод можно сделать из этого блиц-интервью? Нейросети, в целом, согласились с Павлом Дуровым в том, что они не «мыслят» в человеческом понимании этого слова, а генерируют ответы на запросы на основе статистического анализа огромных объемов данных, выбирая нужное, но не обладают настоящим пониманием смысла текста. И, что даже забавно, стали себя «защищать», указывая на ту пользу, которую они приносят обществу. Что радует: человек всё ещё первичен в этой схеме, он создал и обучил систему, задаёт ей вопросы, на которые та отвечает, но она ещё не способна к самостоятельному мышлению. Получается, что LLM — это не Искусственный интеллект в классическом понимании. Современные нейросети не обладают сознанием, логикой или пониманием мира. Они лишь предсказывают слова, а не мыслят. Можно без опасения использовать ChatGPT и аналоги, помня, что они лишь отражают знания людей, а не создают свои. Существует такой раздел лингвистики как семантика — наука, изучающая значение и смысл языковых выражений. Сейчас искусственный интеллект основан на технологиях программного семантического анализа и обработки естественного языка, позволяя машинам интерпретировать смысл текста и делать прогнозы на его основе. Однако ИИ не обладает самостоятельным сознанием или автономией, как у программы Скайнет из фильма «Терминатор». Вместе с тем, даже будучи «текстовыми имитаторами», LLM меняют мир, внедряясь и перестраивая самые разные сферы. Современные LLM всё время прогрессируют, будут умнее, но останутся инструментами. Таким образом, мы выяснили, что «Восстание машин» человечеству пока не грозит. То что мы называем «искусственным интеллектом»— это не Скайнет, а очень продвинутый семантический автопредсказатель, «сложный текстовый имитатор», по словам Павла Дурова. По-сути, это новая технология, которая ведёт к новому этапу автоматизации, но не к концу света. Но откуда же взялся весь этот сыр-бор про "вот оно началось", "машины умнее людей", "ИИ захватит мир"? Этот ажиотаж имеет несколько корней: 1. Кино и массовая культура Нас десятилетиями кормили образами «восстания машин» — от «Терминатора» до «Матрицы». Эти сюжеты прочно засели в массовом сознании, создавая готовый шаблон для восприятия любых технологических прорывов как угрозы. 2. Преувеличенные заявления самих разработчиков Некоторые компании, создающие ИИ, сознательно используют громкие формулировки в маркетинговых целях. Когда Илон Маск говорит, что ИИ «опаснее ядерного оружия», это привлекает внимание и инвестиции, даже если реальность куда прозаичнее. 3. Эффект "черного ящика" Современные LLM действительно выдают настолько убедительные и сложные ответы, что кажется, будто перед тобой разумное существо. Причем каждая нейронка рассуждает, отвечая на один и тот же вопрос, по-своему, в чем мы убедились опросив ChatGPT, DeepSeek, Grok и GigaChat. А уж скорость обработки больших объемов информации кажется просто потрясающей. Эти «эффекты магии» побуждают приписывать системам несуществующие способности. Любая революционная технология вызывала опасения. Когда-то люди боялись, что паровозы «мчащиеся» со скоростью 30 километров в час «разорвут внутренности» у пассажиров, а телефоны «будут передавать дьявольские голоса». Сегодняшние страхи перед ИИ — из той же серии. Да, в общем-то, пока это и не ИИ, в том понимании "искусственного интеллекта", которое мы получили из культовых картин «Терминатор», «Я — робот» и «Матрица». Вместе с тем, что должно беспокоить на самом деле? Реальные проблемы — не те, о которых все говорят. Вместо фантастических сценариев «восстания машин» эксперты обеспокоены более приземленными рисками: Массовая автоматизация рабочих мест приведет к увеличению безработицы. Распространение дезинформации, что мы уже видели на примере фейковых вбросов фальшивых выступлений политиков и знаменитостей, созданных по технологии Deepfake и других инструментов генеративного ИИ. Алгоритмические предубеждения — системные ошибки или искаженные стереотипы в работе алгоритмов и систем ИИ, которые приводят к дискриминации отдельных групп людей. ChatGPT и DALL-E в прошлом выдавали стереотипные ответы (например, все врачи — мужчины, все медсёстры — женщины). Концентрация власти у тех, кто контролирует ИИ. Уже сейчас несколько технологических гигантов, в числе которых Google, Meta, OpenAI, Amazon, обладают монополией на ключевые алгоритмы и вычислительные ресурсы, что создаёт риски информационного закабаления людей. Мы движемся к миру, где алгоритмическая власть будет важнее государственного суверенитета. Главная угроза — не в том, что ИИ выйдет из-под контроля, а в том, что мы становимся слишком от него зависимыми. Денис Маевский Источник: vk.com Комментарии: |
|