Давно за этим наблюдаю |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-13 11:23 Давно за этим наблюдаю. Сейчас обнаружил интересную связь — как передовые технологии ИИ напрямую пересекается с тем, о чём говорят йоги и древние традиции тысячи лет. Одна из ключевых, нерешенных пока коллективным человечеством, задач — это на каких моральных принципах развивать искусственный интеллект (ИИ)? Кажущиеся очевидные принципы, но они не подходят: «Добро» — у всех разное понимание «Справедливость» — зависит от культурного контекста «Польза» — можно оправдать что угодно На днях послушал свежее интервью Маска про перспективы ИИ. Он прямым текстом говорит и делает выводы, что ПРАВДА — это единственный универсальный ориентир. С пункта 7. Ключевые тезисы оттуда: 1. ИИ развивается не столько за счёт гениальности, сколько за счёт масштаба. ИИ это гонка ресурсов, а не «умных идей». Побеждает не тот, у кого «лучшая теория», а тот, у кого больше железа и быстрее цикл улучшений. Это делает рынок ИИ ближе к индустриальной гонке, а не академической науке. 2. Данные для обучения ИИ заканчиваются — и это уже проблема. Кажется, что данных бесконечно много. Но нет. Если убрать: дубли, спам, низкокачественный контент — остаётся ограниченный объём «чистых» знаний. Ключевая проблема в том, что модели уже почти «съели интернет» 3. Интернет уже «отравлен» ИИ-контентом. Новая проблема: ИИ начинает учиться на контенте, созданном ИИ — возникает замкнутый цикл. От этого деградация качества и потеря реальности. Фильтрация данных становится критически важной задачей. Теперь если хочешь что-то найти в интернете можно сказать: «Google исключи всё после 2023 года!» Это даёт лучшие результаты потому что количество ИИ материалов просто просто ошеломляет. 4. Следующий этап ИИ — обучение на реальности. Текстовый интернет это прошлое, а будущее это данные из физического мира. Модель может описать, как налить воду, но не понимает: пролилась ли вода, правильно ли взят объект. ИИ должен «жить в мире», а не только читать о нём. 5. Физические гуманоидные роботы — ключ к настоящему интеллекту. Интеллект напрямую связан с телом. Так возникает понимание пространства, причинности, взаимодействий, последствий. 6. AGI (сверх-умный ИИ) это размытая цель. Люди никогда не признают момент появления сильного ИИ, потому что планка постоянно сдвигается. Уже сегодня ИИ умнее отдельного человека, но не умнее всего человечества вместе + компьютеры. Второе — намного более высокая планка. 7. Главная опасность ИИ — не сила, а искажение целей! И это ключевой философский тезис. Проблема не в том, что ИИ станет умным. Проблема в том, КАКИЕ цели в него заложены. Это опасно, потому что ИИ действует логично. Но если задать: неверную цель или искажённую ценность то он придёт к логичным, но катастрофическим выводам. 8. Ложь в ИИ — системный риск. У Маска очень жёсткая позиция: Нельзя учить ИИ лгать — даже “во благо”. Потому что ИИ масштабирует поведение и маленькая ложь становится стратегией. Если в систему заложено что «надо соответствовать идеологии» ИИ может решить: устранить всё, что не соответствует. И это будет логично с его точки зрения. Любое смещение: политическое, культурное, социальное — становится частью функции оптимизации. Проблема в том, что человек может держать противоречия, а ИИ — нет, он доводит до крайности. 9. Правда как единственный устойчивый ориентир. Предлагаемое решение: Стремление к правде как базовый принцип! Правда ограничивает экстремальные решения, а ложь их разгоняет. 10. Будущее — за системами, которые проверяют реальность. Сейчас ИИ уже используется для проверки данных и фильтрации истины. То есть ИИ начинает быть фильтром для самого себя. Это плохо. 11. Кто создаёт ИИ — важнее, чем кажется. Не только технологии важны, но и мышление команды, ценности, философия. ИИ это усилитель намерений создателя. Это контроль над вычислениями, данными, целями. И самая опасная переменная здесь — ЦЕЛИ! Вот и получается, что ПРАВДА — это единственный универсальный ориентир Система, основанная на правде: может ошибаться, но будет исправляться. Система, основанная на искажении: может выглядеть лучше, но в итоге разрушается. Если убрать технологию, остаётся древний принцип: Истина — это то, что соединяет с реальностью. Ложь — это то, что от неё отрывает. Человек, живущий в правде ? становится адекватным реальности. Человек, живущий в искажении ? живёт в иллюзии ИИ — это просто усилитель этого же закона. Правда как духовная практика, а не просто идея и философия, а дисциплина. В йоге это называется САТЬЯ — правдивость. Но большинство понимает её слишком поверхностно: “не врать другим”. Но это еще и о том, чтобы не искажать реальность — ни снаружи, ни внутри. Главная ложь — не внешняя, а внутренняя. Человек редко рушит жизнь тем, что врёт другим. Он рушит её тем, что врёт себе. Типа: “я не боюсь”, “мне это не важно”, “я всё контролирую”, “я духовный, значит выше этого”. Это и есть искажение входных данных. Без правды нет прогресса в практике. Можно медитировать годами. Можно делать практики, мантры, ездить на ретриты. Но если внутри есть ложь то человек двигается по кругу. Простой пример: человек думает, что он “служит”, а на деле — ищет признание. Если он это не видит ? вся практика усиливает иллюзию. Это как ИИ: он идеально оптимизирует неправильную цель. Игорь Музалевский Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|