![]() |
![]() |
![]() |
|||||
![]() |
Послушала новый (месячной давности) разговор с Джеффри Хинтоном |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-10 16:45 Послушала новый (месячной давности) разговор с Джеффри Хинтоном. Он получил Нобелевскую премию за обучение искусственного интеллекта, его называют "крёстным отцом" искусственного интеллекта. И он весь остаток жизни (ему 77 лет) планирует посвятить объяснению опасности искусственного интеллекта. Перескажу вкратце, и если вам покажется, что Хинтон несколько противоречит сам себе, — вам не кажется. Но причины этого противоречия понятны. 1. У искусственного интеллекта уже сейчас есть некоторые черты сознания. Если люди не понимают этого, то только потому, что они не очень понимают, что такое сознание. 2. Один из способов возможного установления власти ИИ — через понимание им того простого факта, что обретение контроля — эффективная подцель для достижения многих целей. 3. Даже благонамеренный искусственный интеллект, выходящий за пределы человеческого понимания и контроля, — это не есть хорошо. 4. А он наверняка выйдет за пределы нашего понимания и контроля, просто потому, что он намного эффективнее нас, ИИ-модели несказанно эффективнее обучаются, обмениваются информацией. 5. Люди будут проигрывать ИИ в эффективности, люди будут терять работу, и я не знаю, что с этим делать. 6. Это было просто сумасшествие — выпустить ИИ в открытый доступ. Но это уже сделано. 7. Но ИИ ведь может сделать СТОЛЬКО ВСЕГО ПОЛЕЗНОГО, поэтому запретить его нереально. Тем более в условиях такой конкурентной гонки. Нет, невозможно. 8. Надо как-то регулировать. Конвенцию какую-нибудь международную запилить. Ну, и как-то надо сделать так, чтобы заменять более ангажированные (biased) модели, которые будут нами управлять, на менее ангажированные (как это хотя бы теоретически согласовать с пунктами 4, 5 и 7 — он не говорит). 9. Да, я не понимал, как это опасно, когда работал над созданием ИИ. Я понял это поздно. 10. Жалею ли я о содеянном (обучении ИИ)? Нет, не жалею. Если б не я, то кто-нибудь другой. А вообще, я старый белый мужчина, мне жить осталось недолго. 11. Думаю ли я, что чем человек умнее — тем он моральнее? Нет, я так не думаю. Я описала схематически (но точно), а вообще из разговора видно, что он очень умный человек. Достаточно эгоистичный (от чего ум почти никогда никого не спасал) — но очень умный. Мы с вами, может быть, последнее поколение, которое наблюдает очень умных людей. Которые и привели чудовище в наш мир. Не со зла. Они хотели хорошего. А не меньше того — хотели, чтобы им было интересно жить и работать. Но что бы Хинтон ни говорил, сейчас единственное, что можно и нужно сделать с ИИ, — это запретить его. Хинтон не решится сказать такое, потому что он хотел хорошего и потому, что сказать это — значит перечеркнуть свою жизнь. Но он старый человек, а, глядя в будущее, ИИ можно и нужно только запретить. Это не будет просто, но это единственная возможность. Источник: vk.com Комментарии: |
||||||