Пять технологических экспертов поделились своими страхами и опасениями в отношении ИИ |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-09-18 21:37 Универсальный искусственный интеллект сможет сделать современный мир более привлекательным местом для жизни, заявляют исследователи. Он сможет лечить нас от рака, в целом улучшит здравоохранение по всему миру и освободит нас от ежедневных рутинных задач, на которые мы тратим большую частью своей жизни. Именно эти аспекты были главной темой для разговора среди инженеров, инвесторов, исследователей и политиков, собравшихся на недавней совместной мультиконференции по вопросам разработки искусственного интеллекта человеческого уровня. Но были на этом мероприятии и те, кто видит в искусственном интеллекте не только пользу, но и потенциальную угрозу. Одни выражали свои опасения по поводу повышения безработицы, поскольку с приходом полноценного ИИ люди начнут терять свои рабочие места, освободив их для более гибких, не подверженных усталости роботов, наделенных сверхразумом; другие намекали о возможность восстания машин, если мы все пустим на самотек. Но где именно нам следует провести черту между беспочвенным паникерством и реальной заботой о нашем будущем? Кеннет Стенли, профессор Университета Центральной Флориды, старший технический директор и научный сотрудник лаборатории искусственного интеллекта компании Uber: «Я думаю, что наиболее очевидные опасения связаны с тем, что ИИ будет использован во вред человеку. И на самом деле есть множество сфер, где такое может произойти. Мы должны приложить все усилия для того, чтобы эта плохая сторона в итоге не вышла наружу. Весьма сложно найти правильное решение в вопросе о том, как сохранить ответственность принятых действий за ИИ. Этот вопрос многогранен и требует рассмотрения не только с научной позиции. Другими словами, в поиске его решения потребуется участие всего общества, а не только научной среды». О том, как разработать безопасный ИИ: «Любая технология может быть использована как во благо, так и во вред. Искусственный интеллект в этом отношении является очередным примером. Люди всегда боролись с тем, чтобы новые технологии не попали в плохие руки и не использовались в гнусных целях. Я считаю, что и в вопросе ИИ мы сможем справится с этой задачей. Необходима правильная расстановка акцентов и поиск баланса в использовании этой технологии. Это сможет предостеречь нас от очень многих потенциальных проблем. Более конкретные решения, я, наверно, предложить не смогу. Единственное, что хотелось бы сказать: мы должны понять и принять ответственность за то воздействие, которое ИИ может оказать на все общество». Ираклий Беридзе, глава Центра искусственного интеллекта и робототехники при Межрегиональном научно-исследовательском институте ООН по вопросам преступности и правосудия (ЮНИКРИ): «Я думаю, что самая опасная вещь вокруг ИИ связана с темпами разработки – с тем, как быстро он будет создан и как быстро мы сможем к нему адаптироваться. Если этот баланс будет нарушен, мы можем столкнуться с проблемами». О терроризме, преступности и других источниках риска: «С моей точки зрения, основная опасность может заключаться в том, что ИИ смогут воспользоваться криминальные структуры и большие террористические организации, направленные на дестабилизацию мирового порядка. Кибертерроризм и дроны, оснащенные ракетами и бомбами – это уже реальность. В будущем сюда могут добавиться роботы, оснащенные системами ИИ. Это может стать серьезной проблемой. Другой большой риск массового внедрения ИИ может быть связан с вероятной потерей рабочих мест людьми. Если эти потери будут массовыми, а подходящего решения у нас не будет, то это станет очень опасной проблемой». «Но это лишь негативная сторона медали данной технологии. Я убежден в том, что в своей основе ИИ не является оружием. Это, скорее, инструмент. Очень мощный инструмент. И этот мощный инструмент может быть использован как в хороших, так и плохих целях. Наша задача заключается в том, чтобы понять и минимизировать риски, связанные с его использованием, а также в том, чтобы он использовался только в хороших целях. Мы должны сосредоточится на том, чтобы извлечь максимум положительной выгоды от использования данной технологии». Джон Лэнгфорд, главный научный сотрудник корпорации Microsoft: «Я думаю, что основную опасность будут представлять дроны. Автоматизированные дроны могут стать настоящей проблемой. Текущий уровень вычислительной мощности автономного вооружения недостаточно высок для выполнения каких-то экстраординарных задач. Однако я вполне могу себе представить, как через 5-10 лет на борту автономного вооружения будут проводиться расчеты на уровне суперкомпьютеров. Дроны используются при боевых действиях уже сегодня, но они по-прежнему управляются человеком. Через некоторое время оператор-человек уже не понадобиться. Машины станут достаточно эффективны для самостоятельного выполнения поставленных задач. Именно это меня беспокоит». Хава Зигельман, программный менеджер микросистемых технологий DARPA: «Любая технология может быть использована во вред. Я думаю, что все зависит о того, в чьи руки эта технология попадет. Я не думаю, что существуют плохие технологии, я думаю, что существуют плохие люди. Все сводится к тому, кто имеет доступ к этим технологиям и как именно он их использует». Томас Миколов, научный сотрудник лаборатории Facebook AI: «Если что-то привлекает интерес и инвестиции, вокруг этого всегда находятся люди, которые не против этим злоупотребить. Меня расстраивает тот факт, что некоторые люди пытаются продать ИИ и красочно описывают то, какие проблемы этот ИИ сможет решить. Хотя по факту никакого ИИ еще не создано. При этом любой, кто хоть как-то начнет критиковать подобные системы тут же сталкивается с проблемами, которые будут идти вразрез со сладкими заявлениями таких компаний». Если говорить откровенно, большинство последних якобы технологических прорывов подобных организаций, названия которых мне бы не хотелось называть, никому до этого не были интересны, не потому, что никто больше не мог их совершить, а просто потому, что эти технологии не генерируют никакой финансовой выручки. Они совершенно бесполезны. Это ближе к шарлатанству. Особенно в тех случаях, когда ИИ рассматривается как инструмент, позволяющий максимально оптимизировать процесс решения одной единственной и узконаправленной задачи. Его невозможно масштабировать ни под что-либо другое, кроме как на выполнение самых простых задач. Все эти стартапы-однодневки обещают золотые горы и приводят примеры якобы работы ИИ, хотя на самом деле, нам показывают лишь усовершенствованные или оптимизированные технологии настоящего. При этом в большинстве случаев об усовершенствовании или оптимизации этих технологий мало кто задумывался. Потому что они бесполезны. Взять хотя бы тех же чат-ботов, которых выдают за искусственный интеллект. И вот, потратив десятки тысяч часов на оптимизацию выполнения одной единственной задачи, эти стартапы приходят к нам и говорят о том, что достигли чего-то, чего не могли достигнуть другие. Но это же смешно. Источник: m.vk.com Комментарии: |
|