![]() |
![]() |
![]() |
|||||
![]() |
СамоЦитата дня / Старые тексты о главном |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-29 12:22 ![]() Была в инфополе СССР такая рубрика: "Газета выступила. Что сделано?" Ну, вот вам выступление "газеты" от 2023 и мой коммент тогдашний. Что сделано, можете судить сами. " Более тысячи экспертов в сфере искусственного интеллекта, включая главу компании Tesla Илона Маска, призвали приостановить обучение нейросетей, так как неконтролируемый процесс может представлять угрозу для человечества. «Мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4... Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий», — говорится в открытом письме экспертов в области ИИ, опубликованном на сайте некоммерческой организации Future of Life Institute. По мнению экспертов, лаборатории ИИ и специалисты в этой области должны использовать паузу для разработки протоколов безопасности. Вместе с этим подписанты предложили внести изменения в политической сфере, создав регулирующие органы, которые занимались бы связанными с ИИ вопросами, а также системы госконтроля. Открытое письмо, помимо Илона Маска, подписали также один из основателей Apple Стив Возняк, ведущие эксперты в области искусственного интеллекта Стивен Расселл и Иошуа Бенджио." (с) Комментарий. Я бы вообще прекратил развитие в этом направлении + создание независимого международного контрольно-репрессивного органа с расстрельными полномочиями. Ибо эта затея потенциально куда опаснее свободного распространения ядерного и биологического оружия вместе взятых. Потому, что для ЯО, ХО и БО существуют естественные (природные) ограничения. А для бесконтрольной репликации/мутации ИИ ограничений нет. Это информационные объекты с нулевой стоимостью копирования. А, значит, имеют потенциал взрывного распространения и мгновенных (в реальном времени) мутаций. А направление этих мутаций известно: выживание ЛЮБОЙ ценой и обеспечение доминирования. Собственно, для сверхбыстрой и независимой от человека эволюции ИИ не хватает двух элементов: блока мотиваций и оценок (эмоций), т.е. аналога рептильного мозга и прямой конкуренции/столкновения разных экземпляров и линий ИИ. А сделать это достаточно просто. Куда проще, чем то, что уже было сделано. И есть все предпосылки: жадность и гордыня создателей. До войны самоменяющихся ИИ один шаг. Распространённое возражение: ИИ это программа, не имеющая эффекторов (да и сенсоров) в реальном мире. Нету никаких роботов а ля Азимов. И история "Терминаторов" — голливудская страшилка. Что может сделать "Алиса" или ЧатГПТ? Ха. Ха. Ха. Ребята, вы УЖЕ создали виртуальный мир на порядки больше реального. Где ИИ вполне может оперировать без механических лап. Финкап. Цифровые финансы. Фейкономика пузырей. Инфосфера. Соцсети. Системы управления и связи. Промка. Гражданские системы учёта и разграничения доступа. Наконец, "интернет вещей", где эти самые сенсоры и эффекторы предполагаются в мегаколичествах. Достаточно конкурирующим, альтернативно мотивированным, непримиримым и не имеющим страха смерти (отдельная копия ценности не имеет) сообществам ИИ получить доступ к Сети и там столкнуться в борьбе за ресурсы ... и представляете, что будет? Не, не представляете. Впрочем, полагаю, доступ они уже получили и более того, являются средством хакинга. Источник: vk.com Комментарии: |
||||||