Все больше руководителей технологических компаний понимают, что ИИ не может заменить людей — эффективность и точность на самом деле ухудшаются

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Опубликовано06/07/2025 от EraOfLight — Оставить ответ

Брайан Шиллхэви | Источник

Когда я начал писать о пузыре искусственного интеллекта и будущем крахе крупных технологических компаний в конце 2022 годаС запуском первого приложения ChatGPT LLM (большие языковые модели) с искусственным интеллектом я был одним из немногих авторов, работающих в сфере технологий, которые предупреждали общественность об опасностях использования этой «новой» технологии.

Тогда, помимо меня, было несколько несогласных, но сейчас, два с половиной года спустя и триллионы долларов инвестиций в LLM AI, едва ли проходит день, когда я не вижу статей, документирующих неудачи этого ИИ и сообщающих фактические новости о его ограничениях и недостатках, вместо того, чтобы нагнетать шумиху.

Хотя магистратуры права в области ИИ действительно являются революционерами в своих реальных возможностях, именно вера в научную фантастику и взгляды и убеждения людей относительно будущего ИИ в конечном итоге разрушат экономику США и большую часть экономик остального мира, потому что они буквально делают ставку на то, что эта научная фантастика когда-нибудь действительно станет реальностью.

Вот несколько недавних статей, которые предоставляют более чем достаточно доказательств того, что «революция» ИИ в какой-то момент рухнет, подобно тому, как многие самолеты, которые мы наблюдали, падали с неба из-за технических сбоев и нашей чрезмерной зависимости от компьютеров, а не от людей.

Количество авиакатастроф и происшествий на самом деле УВЕЛИЧИЛОСЬ, причем значительно, с момента появления в начале 2023 года степеней магистратуры с искусственным интеллектом, что делает авиаперелеты БОЛЕЕ опасными, а не более безопасными .

Использование ИИ для написания компьютерного кода

Большая часть недавних новостей о проблемах, связанных с использованием ИИ, касалась использования ИИ для генерации компьютерного кода.

ИИ может помочь компаниям стать более эффективными — за исключением случаев, когда он дает сбой

Мартин Пирс

Информация

Выдержки:

Искусственный интеллект действительно совершает ошибки, иногда серьезные.

На прошлых выходных я поместил полдюжины писем с подробностями бронирования авиабилетов и отелей для предстоящего отпуска в NotebookLM от Google и попросил его составить мне маршрут.

Получившийся документ казался мне прекрасным — пока я не понял, что в нем указана дата отправления на 24 часа позже фактической, что могло иметь катастрофические последствия .

Аналогичным образом мой коллега Джон Виктор сегодня написал о том, как некоторые компании, использующие инструменты кодирования ИИ, обнаруживают серьезные недостатки в своих конечных разработках.

Этот момент, по-видимому, стоит запомнить, поскольку все больше компаний говорят о том, какую экономию рабочей силы они могут получить с помощью ИИ.

Например, в среду руководитель Salesforce заявил, что агенты ИИ (программное обеспечение, способное выполнять действия от имени пользователя) «сократили часть наших потребностей в найме».

Многие компании прислушиваются к предложениям фирм-разработчиков программного обеспечения для ИИ, таких как Microsoft, о том, что ИИ может сократить количество необходимых им сотрудников. Еще более тревожно, что генеральный директор Anthropic Дарио Амодеи сказал Axios в интервью на этой неделе, что ИИ может «уничтожить половину всех рабочих мест начального уровня для белых воротничков» в ближайшие несколько лет, даже если он помогает лечить рак.

Конечно, не все сокращения рабочих мест в настоящее время вызваны ИИ. В четверг Business Insider уволил 21% своих сотрудников, сославшись на изменения в том, как люди потребляют информацию, хотя также заявил, что «изучает, как ИИ может» помочь «работать эффективнее».

Мы часто это слышим: когда в этом месяце Microsoft уволила 3% своих сотрудников, компания отрицала, что ИИ напрямую заменяет людей, но при этом заявляла, что использует технологии для повышения эффективности.

Вот здесь ошибки ИИ, по-видимому, имеют значение: нет ли опасности, что ошибки, вызванные ИИ, в конечном итоге приведут к снижению эффективности ?

Оставим в стороне более экзистенциальный вопрос о том, почему мы тратим сотни миллиардов долларов — и облагаем налогом нашу энергосистему — на создание технологии, которая может привести к огромной безработице.

Более практический вопрос может заключаться в том, следует ли компаниям использовать ИИ для замены рабочих мест прямо сейчас, если они хотят стать более эффективными.

Вспомните Klarna, шведскую финтех-компанию, работающую по принципу «покупай сейчас, плати потом», которая в прошлом году стала примером использования ИИ для сокращения персонала.

Несколько недель назад ее генеральный директор заявил, что меняет курс, осознав, что излишняя концентрация на расходах негативно сказывается на качестве услуг.

Это предупреждение, к которому компаниям следует прислушаться. ( Источник .)

Галлюцинации ИИ: зарождающаяся чувствительность или всемирный позор?

Доктор Мэтью Маавак

RT.com

Выдержки:

Недавно несколько крупных газет, включая Chicago Sun-Times и Philadelphia Inquirer, совершили нелепую, но показательную ошибку, опубликовав список литературы для летнего чтения, полный несуществующих книг, которые были « галлюцинированы» ChatGPT, причем многие из них были ложно приписаны реальным авторам.

В синдицированной статье, распространенной агентством Hearst's King Features, публиковались сфабрикованные заголовки, основанные на актуальных темах, что разоблачало как чрезмерную зависимость СМИ от дешевого контента с использованием искусственного интеллекта, так и неизлечимую гниль традиционной журналистики.

Тот факт, что эта пародия ускользнула от внимания редакторов умирающих изданий (Sun-Times только что уволила 20% своих сотрудников), подчеркивает более мрачную правду: когда отчаяние и непрофессионализм сталкиваются с непроверенными алгоритмами, истонченная грань между традиционными СМИ и чепухой просто исчезает.

Тенденция кажется зловещей. ИИ теперь завален шведским столом из фейковых новостей, фейковых данных, фейковой науки и откровенной лжи, которая превращает устоявшуюся логику, факты и здравый смысл в гнилостную жижу когнитивной гнили . ( Полная статья .)

Начинают проявляться некоторые признаки краха модели ИИ

Стивен Дж. Воган-Николс

The Register

Выдержки:

Я часто использую ИИ, но не для написания историй. Я использую ИИ для поиска. Когда дело доходит до поиска, ИИ, особенно Perplexity, просто лучше, чем Google.

Обычный поиск пошел к чертям. Может быть, пока Google сходит с ума по ИИ, его поисковая система снова станет лучше, но я сомневаюсь.

За последние несколько месяцев я заметил, что поиск на основе искусственного интеллекта тоже стал хуже.

В частности, я обнаружил, что когда я ищу достоверные данные, такие как статистика доли рынка или другие показатели бизнеса, результаты часто приходят из плохих источников .

Вместо статистики из 10-K, обязательных ежегодных финансовых отчетов для публичных компаний, Комиссии по ценным бумагам и биржам США (SEC), я получаю цифры с сайтов, которые выдают себя за сводки бизнес-отчетов. Они имеют некоторое сходство с реальностью, но они никогда не бывают совсем правильными. Если я указываю, что мне нужны только результаты 10-K, это работает.

Если я просто спрошу о финансовых результатах, ответы будут... интересными,

Это не просто Perplexity. Я сделал точно такой же поиск на всех основных поисковых ботах AI, и все они дали мне «сомнительные» результаты.

Добро пожаловать в Garbage In/Garbage Out (GIGO).

Формально в кругах ИИ это известно как коллапс модели ИИ .

При крахе модели ИИ системы ИИ, обучаемые на собственных выходных данных, постепенно теряют точность, разнообразие и надежность.

Это происходит из-за того, что ошибки накапливаются в ходе последовательных поколений моделей, что приводит к искажению распределения данных и «необратимым дефектам» в производительности.

Каков же конечный результат?

В статье журнала Nature 2024 говорится: « Модель отравляется своей собственной проекцией реальности ».

Коллапс модели является результатом трех различных факторов. Первый — накопление ошибок, при котором каждое поколение модели наследует и усиливает недостатки предыдущих версий, что приводит к отклонению выходных данных от исходных шаблонов данных.

Далее происходит потеря хвостовых данных: при этом редкие события стираются из обучающих данных, и в конечном итоге целые концепции размываются.

Наконец, циклы обратной связи усиливают узкие шаблоны, создавая повторяющийся текст или предвзятые рекомендации.

Мне нравится, как это сформулировала компания Aquant, занимающаяся искусственным интеллектом:

« Проще говоря, когда ИИ обучается на собственных выходных данных, результаты могут еще больше отдаляться от реальности ».

Я не единственный, кто видит, что результаты ИИ начинают ухудшаться.

В недавнем исследовании Bloomberg Research, посвященном поиску и дополненной генерации (RAG), финансовый медиагигант обнаружил, что 11 ведущих LLM, включая GPT-4o, Claude-3.5-Sonnet и Llama-3-8 B, при использовании более 5000 вредоносных подсказок дадут плохие результаты . ( Полная статья .)

Пытается ли искусственный интеллект Anthropic нас шантажировать?

Эта история о том, что искусственный интеллект компании Anthropic якобы шантажирует своего инженера, угрожая отключить его, была на каждом шагу в моей ленте новостей, когда она вышла в свет, в основном из альтернативных СМИ с их апокалиптическими предупреждениями о том, что компьютеры теперь способны противостоять человеческому вмешательству с целью их отключения.

Я знал, что это полная чушь, поскольку сам являюсь бывшим программистом, который много лет назад разрабатывал программы искусственного интеллекта, и эта история никоим образом не соответствует действительности, по крайней мере, в том виде, в котором она была представлена.

Простой поиск в секторе технологических публикаций вскоре раскрыл правду. По сути, это был пиар-ход, чтобы выставить Anthropic в качестве «ответственного разработчика ИИ», чтобы дать им преимущество перед конкурентами, используя фальшивые сценарии вместо реальных и ограничивая возможности ИИ (все из которых программируются людьми).

Даниэль Хёйрис Бэк

SEO.AI

Почему сенсационный эксперимент «красной команды» может пролить свет не столько на риск Клода 4, сколько на амбиции Anthropic по формированию правил ИИ.

Выдержки:

Ранее в этом месяце заголовки газет пестрели утверждениями о том, что модель искусственного интеллекта от Anthropic пыталась шантажировать инженера-программиста.

Как человек, имеющий опыт работы в сфере связей с общественностью и подачи историй в новостные агентства, я нахожу это особенно забавным.

От таблоидов до крупных технологических изданий, освещение событий было мгновенным и провокационным:

«Искусственный интеллект грозит раскрытием личной информации, если она не будет храниться в сети».

История быстро стала вирусной, вызвав в равной степени беспокойство, замешательство и интригу.

В центре этой медиа-бури оказался выпуск новейшей системной карты Anthropic , подробно описывающей поведение ее новейшей флагманской модели Claude Opus 4.

Среди множества сценариев «красной команды», задокументированных в 120-страничном отчете, один особенно привлек внимание общественности: в ходе контролируемого эксперимента модель, как сообщается, «пригрозила раскрыть личные данные разработчика программного обеспечения», если ее закроют.

Однако более глубокая история может быть вовсе не о поведении модели.

Вместо этого речь может идти о том, как формируется это поведение и как Anthropic использует риторику прозрачности и безопасности для укрепления своих позиций в быстро меняющемся ландшафте ИИ. окончание следует


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: