Послушала разговор историка и футуролога Юваля Ноя Харари с генеральным директором "Майкрософт ИИ" Мустафой Сулейманом |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-04-13 15:12 Послушала разговор историка и футуролога Юваля Ноя Харари с генеральным директором "Майкрософт ИИ" Мустафой Сулейманом. Про искусственный интеллект, разумеется. https://www.youtube.com/watch?v=7JkPWHr7sTY Далее краткий пересказ. Харари: Я думаю, что наступает конец человеческой истории. Не вообще истории, а именно той, когда человек был главным действующим лицом, принимающим решения. Сулейман: Ну а что, технологии всегда развиваются. Харари: Я вижу катастрофическое падение доверия людей друг к другу. Люди привыкли общаться в интернете, и теперь они уже даже не могут быть уверены, что общаются с человеком. Сулейман: Да, это надо как-то регулировать. Харари: Я вижу необходимость создания новых независимых институций, которые бы занимались контролем над ИИ. Но я не уверен, что мы сможем их создать при таком падении доверия. Сейчас единственные, кто понимает, что происходит, — это разработчики ИИ. Даже они не всегда понимают. Сулейман: Да, иногда успехи ИИ превосходят наши ожидания. Харари: Я не знаю, как можно контролировать то, что умнее тебя. Допустим, ИИ создаст финансовые инструменты, которые понимает только он. Как это контролировать? Сулейман: Ну, мы стараемся. Я верю, что это возможно. ИИ принесёт много блага! Харари: Да, наверняка, если б не ожидалось столько блага, в него не вкладывалось бы столько денег, и мы бы сейчас с вами не разговаривали. Но я задаю себе вопрос: не будет ли это благо в конечном итоге стоить слишком дорого... И так далее. Я просто хочу подчеркнуть, что на конкретные опасения не следует конкретных ответов "это невозможно, потому что". Ничего подобного. Фактически, разработчики признают, что всё возможно, правда, они постараются что-то сделать. Меня это не успокаивает. И я не знаю, как это может кого-то успокаивать. Забавное совпадение: Харари тоже сравнил ИИ с инопланетянами, только не прилетевшими с другой планеты, а выпестованными в научных лабораториях. Это моя аналогия, я тоже считаю, что по эффекту это примерно одинаково. Что (этого Харари не сказал, но я так провожу аналогию) искусственный интеллект мог прижиться только в обществе, иммунитет которого сильно ослаблен толерантностью, то есть общество не отторгает чужое и чужеродное. Что противопоставить искусственному интеллекту можно только "шовинизм человеческой расы". Харари этого не сказал, но я именно так думаю. Источник: vk.com Комментарии: |
|