Совершенно незамеченной прошла любопытнейшая новость о том, что специалисты перестали понимать принцип принятия решений, которым руководствуется ИИ.
Как обычно водится новости подобного направления порождают панические вскрики о том, что «SkyNet близко», «мы все умрем» и вообще «началось!» На мой взгляд, однако, произошедшее хоть и действительно было очень ожидаемо, вместе с тем служит как раз поводом для оптимизма относительно человеческого будущего.
То, что ИИ рано или поздно достигнет такой сложности при которой нам станет практические невозможно без дополнительных ухищрений понимать «ход его мысли» – было очевидно. Однако выводы из этого, как частично подмечено и в самой публикации, могут быть прямо обратные тем, которые обычно ожидаются. Принимать как должное действия машины без понимания ее логики — не просто легкомысленно, но и едва ли возможно для человека, ведь, например, чтобы люди приняли модели машинного обучения, им нужно знать, чем именно руководствуется ИИ, решая, как именно следует поступить в конкретной ситуации.
Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» зачастую бывает не столь идеальным, в результате чего машиной проводятся неправильные аналогии.
Даже такие ошибки на практике могут дорого обойтись, особенно если придется управлять сложными проектами. Вместе с тем, подобные ошибки и баги искусственного интеллекта — являются будущей защитой человечества от господства машинного разума, или спровоцированной этим разумом глобальной катастрофы.
Во-первых, если вы не можете на 100 % быть уверены в правильности, логичности и оправданности решений принимаемых искусственным разумом, то вы вынуждены будете с одной стороны не доверять ему ничего по настоящему ответственного, а с другой стороны подробно проверять весь алгоритм принятия ИИ ответственных решений в каждом отдельном случае. Либо же… вы будете руководствоваться верой в то, что «ИИ логичен и не может ошибиться», т.е. принимать его выводы без проверки, вместе со всеми последствиями такого принятия.
Мне, разумеется могут возразить, что человечество в вопросе искусственного интеллекта вовсе не обязано вести себя адекватно и вполне может прибегнуть к системе «безоговорочного доверия» к выводам сверхмашины без ее проверки. И вот тут-то нас ждет скайнет, или что-то в таком духе.
Однако, не все так просто, и как ни странно на выручку человечеству приходят банальные баги, а нашей защитой от глобальной катастрофы, является серия катастроф локальных.
Ни одна из известных нам систем, тем более рукотворных, не избавлена от «багов» и ошибок. «Ошибки» есть даже в нашем генетическом коде. Так что наивно предполагать, что человечеству будет по силам изобрести искусственный интеллект не страдающий сбоями, не подверженный ложным аналогиям, оценкам, или просто не выдающий иногда совершенно иррациональные решения, то ли из-за проблем с исходными данными, то ли из-за ошибки в одной или нескольких сотен миллионов операций.
Поручите машинному интеллекту контроль за сложными процессами, и откажитесь от пристального контроля за ходом его "мыслительных процессов" и наградой вам станет катастрофа.
В тот момент, когда расхваленный и облизанный с ног до головы как образец вычислительного совершенства и рациональности, машинный интеллект в результате своей собственной «непостижимой логики» зальет нечистотами улицы города, которые ему надлежит очищать, остановит работу фабрики по производству жизненно необходимы препаратов, или же столкнет с астероидом космическую станцию стоимостью в миллионы биткоинов, вопрос о том, насколько мы понимаем вычислительные процессы и алгоритмы ИИ встанет во весь рост и от него будет уже совершенно невозможно уклониться.
Поскольку становление ИИ и получение им контроля во всех сферах человеческой жизни будет постепенным, а не одномоментным, именно баги и ошибки мышления машины, и сигнализирующие о них вовне локальные проблемы и даже «катастрофы» – будут являться основной защитой от получения машинным интеллектом бесконтрольной и всеобъемлющей власти над большинством сфер человеческой жизни.
Напротив, столкнувшись с серией созданных ИИ «проблем» (вероятно не обойдется и без жертв) человечество будет вынуждено с большим недоверием относится к искусственному интеллекту, и либо изначально ограничивать сферу его применения, либо искать эффективные методы контроля за его отныне «непостижимой» для человечества деятельностью.
Именно поэтому ошибаются, на мой взгляд, футурологи, которые возвещают будущее в котором искусственный интеллект либо получит контроль над человеческим обществом, либо будет контролировать системы, позволяющие ему в одночасье это общество уничтожить.