Момент установки контроля ИИ упущен, теперь будущее за "закаленным обществом" |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-25 10:40 Так считает профессор Колин Льюис . В своем эссе он утверждает что мы стремительно приближаемся к моменту, когда привычные представления о контроле над ИИ и технологиями перестают работать. Иными словами, наступает та самая техносингулярность (ТС). Но она не только благо, а также и серьёзный вызов всему человечеству. Возможно, технологическая сингулярность — апокалипсис. Но не в смысле конца света или цивилизации. Пугающее пока-что смертное человечество слово "апокалипсис" также означает "откровение, момент истины, снятие покрова". В Библии, откуда и пришло это слово, не только про плохое. Апокалипсис также означает радикальные перемены и смену парадигм. Потому в таком ключе техносингулярность можно считать "изменением мироустройства". Ведь по мнению Льюиса и других вопрос уже не в том, как будут развиваться технологии, а в том, сможет ли человечество выдержать последствия "взрывного" прогресса. Долгое время мы воспринимали технологии, включая ИИ как захватывающее зрелище, но далекого будущего. Однако прогресс уже ускоряется настолько, что сейчас становится понятно: на самом деле это проверка того, насколько хорошо работают наши институты. Первый перелом по мнению Льюиса произошел незаметно — "когда у ворот просто сломали замок". В 2020 году обучение передовых ИИ стоило миллионы долларов, однако уже через два года эти затраты снизились примерно в десять раз. Сегодня, как отмечает Льюис, "небольшая команда с приличным сервером способна снять защитные фильтры, на которые раньше уходили бюджеты уровня крупных корпораций". Это означает, что прежняя стратегия контроля через ограничение доступа ИИ больше не работает. Эта мысль подробно раскрыта в исследовании, подготовленном группой ученых во главе с Джейми Бернарди. Авторы фиксируют: "бутылочное горлышко" контроля не сужается — оно исчезает. Методы вроде "многократного взлома" позволяют обходить ограничения даже без доступа к внутренним параметрам нейросети. Более того, попытки сделать системы безопасными через запреты порождают новые риски. Как объясняет Льюис, здесь действует "компромисс между использованием и злоупотреблением": если вы запрещаете модели знать, как работает вирус, чтобы остановить биотеррориста, вы одновременно лишаете следующее поколение врачей инструмента для борьбы с реальной пандемией. А если вы учите ИИ распознавать компоненты взрывчатки или биологического оружия, чтобы он мог блокировать опасные запросы, вы неизбежно передаете эту информацию тем, кто ищет способы обойти такую защиту. Вторая, возможная фаза попадания в техносингулярность, по его мнению, оказалась ещё глубже. К 2025 году стало очевидно, что ИИ нельзя воспринимать как прямой аналог человеческого интеллекта. Это что-то иное. Как подчеркнул профессор Йельского университета Лучано Флориди, это скорее формы "действующей субъектности", что-то похожее на духи, но "живущие" в цифровой среде. Они способны выполнять задачи, но не имеют в привычном для нас плане ни намерений, ни ответственности. Потому военные ИИ способны уничтожить человечество атомным оружием. НО не потому, что они злые, как мы думаем, так как зло требует намерения, а из-за того, что перед ними поставили задачу максимально эффективно добиться успеха на поле боя. И очевидно, что атомное оружие с этим справится лучше всего. «Мы не спрашиваем, подстраивается ли ИИ под нас, — добавляет Льюис. — Пускай в угоду себе, мы сокращаем собственные институты, чтобы алгоритмы могли проходить через них быстрее». За последние годы экономика, медиа и государственные процессы были оцифрованы и стандартизированы как никогда ранее — так, чтобы их можно было эффективно обрабатывать ИИ и роботам. И это не есть хорошо.Мы всё больше зависимы от нейросетей. Однако, это уже не инженерная проблема, а политическая. Речь идет не о донастройке моделей, а о переустройстве общества. А общество,если быть честным, к этому не готово. Потому и получается киберпанковский «Hi tech, low life». Технологии не избавляют людей от своих несовершенств, а на против, потакают нашим порокам. А поскольку пока-что у человечества "лень — двигатель прогресса", мы всё больше отдаем машинам той работы которую выполняли — вплоть до управлением социумом и политику. Но нужно менять "двигатель" развития цивилизации, иначе вряд ли к чему-то хорошему это приведёт. Из этого вытекает необходимость строить "закалённое" общество. Нужна системная адаптация: от подтверждения человеческой идентичности на цифровых платформах до создания защитных ИИ-систем и резервной инфраструктуры для критически важных сфер, например, энергетики и здравоохранения. Это не яркое технологическое будущее, а скучная, но необходимая работа: постоянные проверки, запасные системы и готовность к сбоям. Главный вопрос эпохи ИИ и кибертеха— не в том, смогут ли нейросети думать как люди, а в том, сможет ли сохранить способность управлять собой, когда зажжется основа фаза техносингулярности. «Пришло время перестать быть зрителями и начать быть создателями», — считает Льюис. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|