ИИ притупляет наши умы?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Эксперты взвешивают, представляют ли технологии угрозу для критического мышления, указывая на предостерегающие истории в использовании других когнитивных инструментов труда.

Недавнее исследование MIT Media Lab показало, что «чрезмерная зависимость от решений, управляемых ИИ», может способствовать «когнитивной атрофии» и сокращению способностей к критическому мышлению. Исследование небольшое и не рецензируется, и все же оно дает предупреждение, которое даже помощники искусственного интеллекта готовы признать. Когда мы спросили ChatGPT, может ли ИИ сделать нас тупее или умнее, он ответил: «Это зависит от того, как мы взаимодействуем с ним: как костыль или инструмент для роста».

The Gazette поговорила с преподавателями по целому ряду дисциплин, включая ученого-исследователя в области образования, философа и директора Центра преподавания и обучения Дерека Бок, чтобы обсудить критическое мышление в эпоху ИИ. Мы спросили их о том, как ИИ может способствовать или препятствовать критическому мышлению, и может ли чрезмерная зависимость от технологий притупить наши умы. Интервью были отредактированы для длины и ясности.


Тина Гроццер

Тина Гротцер.

Визи Конвей/Harvard Staff Фотограф

Мы лучше, чем Байесиан

Тина ГроццерГлавный научный сотрудник в области образования, Высшая школа образования

Многие студенты используют ИИ без хорошего понимания того, как он работает в вычислительном / байесовском смысле, и это приводит к тому, что он слишком уверен в его выходе. Таким образом, обучение их быть критическими и проницательными в том, как они его используют и что он предлагает, важно. Но еще важнее помочь им понять, как работают их воплощенные человеческие умы и насколько сильными они могут быть при правильном использовании.

Работа в области нейробиологии убедительно доказывает, что, хотя человеческие умы являются вычислительными и используют байесовские процессы, они «лучше, чем байесовские» во многих отношениях. Например, работа Антонио Дамасио и других подчеркивает, как наши соматические маркеры позволяют нам совершать быстрые, интуитивные скачки. Исследования, проведенные в моей лаборатории, показали, что детсадовцы использовали стратегическую информацию в игре, которая позволяла им делать обоснованные движения быстрее, чем чисто байесовский подход. Кроме того, наш человеческий разум может обнаруживать критические различия или исключения из моделей ковариации, которые приводят к концептуальным изменениям и пересмотрам моделей, которые суммирует чисто байесовский подход. Это только верхушка айсберга с точки зрения того, насколько человеческие умы более могущественны, чем ИИ. Есть много других примеров (например, что, хотя ИИ может предложить аналогии, насколько мне известно, он не может рассуждать по аналогии).

В моем курсе «Стать экспертом» я стремлюсь помочь студентам рассмотреть богатые исследования о том, как работают человеческие умы, чтобы они могли наилучшим образом использовать свой особый ум (с его нормативными и ненормативными характеристиками). Затем я прошу их сравнить с ИИ, чтобы тщательно подумать о том, когда и как они решат использовать каждый. Я надеюсь, что это приведет их к более полной оценке их невероятных умов и способностей!


Дэн Леви

Дэн Леви.

Фото предоставлено Дэном Леви

Задание не является конечной целью

Дэн ЛевиСтарший преподаватель государственной политики, Гарвардская школа Кеннеди; соавтор, «Оказание эффективно с ChatGPT»

В книге, которую я написал с Анхелой Перес Альбертос, мы подчеркиваем, что нет такого понятия, как «ИИ хорош для обучения» или «ИИ вреден для обучения». Я думаю, что ИИ можно использовать способами, которые хороши для обучения, и его можно использовать способами, которые мешают обучению.

Если студент использует ИИ для выполнения работы за них, а не для выполнения работы с ним, не будет много обучения. Никакого обучения не происходит, если мозг не будет активно заниматься смыслом и смыслом того, что вы пытаетесь узнать, и этого не произойдет, если вы просто спросите ChatGPT: «Дайте мне ответ на вопрос, который задает инструктор».

В конце концов, если вы думаете, что находитесь в школе для производства выходов, то вы можете быть в порядке с искусственным интеллектом, помогающим вам производить эти результаты. Но если вы учитесь в школе, потому что хотите учиться, помните, что результат - это просто средство, через которое это обучение произойдет. Выход, как правило, не является конечной целью. Когда вы путаете эти две вещи, вы можете использовать ИИ способами, которые не способствуют обучению. ИИ также может препятствовать обучению, когда студенты чрезмерно преданы делу, перегружены работой и рассматривают ИИ исключительно как устройство экономии времени. Но если ИИ может сэкономить вам время, выполняя работу хрюканья, чтобы вы могли посвятить это время более серьезному обучению, я думаю, что это плюс.

Есть причины для оптимизма, и есть причины беспокоиться об ИИ, но ИИ здесь, чтобы остаться, поэтому мы не можем сказать: «Хорошо, забудьте об ИИ». Нам лучше найти способы сотрудничества с ним и использовать его таким образом, чтобы продвигать наши цели как педагогов, учеников и людей.


Крис Дидэ

Кристофер Диди.

Найлс Сингер/Гарвардский штатный фотограф

Сова на вашем плече

Кристофер ДедеСтарший научный сотрудник, Высшая школа образования

Афина, греческая богиня мудрости, всегда изображается с совой на плече. Теперь мы должны спросить: «Может ли ИИ быть похожим на сову, которая помогает нам быть мудрее?»

Я думаю, что ключ к тому, чтобы сова была положительной силой, а не отрицательной, заключается в том, чтобы не позволить ей думать за вас. Мы знаем, что генеративный ИИ не понимает человеческого контекста, поэтому он не собирается давать мудрость о социальных, эмоциональных и контекстуальных событиях, потому что они не являются частью его репертуара. Тем не менее, GenAI очень хорошо поглощает большие объемы данных и делает расчетливые прогнозы таким образом, чтобы улучшить ваше мышление.

Контраст для меня заключается в том, чтобы делать вещи лучше и делать лучшие вещи. Девяносто пять процентов того, что я читаю об ИИ в образовании, заключается в том, что он может помочь нам сделать вещи лучше, но мы также должны делать лучшие вещи. Одна из ловушек GenAI, даже когда вы используете его хорошо, заключается в том, что если вы используете его просто для того, чтобы делать одни и те же старые вещи лучше и быстрее, у вас есть более быстрый способ делать неправильные вещи.

Если ИИ делает ваше мышление за вас, будь то через автозаполнение или каким-то более сложным образом, например, в «Я бы позволил ИИ написать первый черновик, а затем я просто отредактирую его», это подрывает ваше критическое мышление и ваше творчество. Вы можете в конечном итоге использовать ИИ для написания письма о приеме на работу, которое совпадает с другими, потому что они также используют ИИ, и в результате вы можете потерять работу. Вы всегда должны помнить, что сова сидит на вашем плече, а не наоборот.


Хаббал, Фавваз

Фавваз Хаббал.

Стефани Митчелл/Harvard Staff Фотограф

Только люди могут решать человеческие проблемы

Хаббал, ФаввазСтарший преподаватель по прикладной физике, Джон А. Полсонская школа инженерных и прикладных наук

Курс «AI & Human Cognition», который я преподаю, направлен на демистификацию ИИ, различает человеческий и машинный интеллект и изучение основ ИИ и того, как эффективно его использовать.

В то время как ИИ преуспевает в обработке данных и статистике, ему не хватает способности создавать действительно инновационные и творческие решения; машины вычисляют, и у них нет человеческого опыта. Мы должны помнить, что, хотя машины ИИ работают над сложной статистикой, передовой математикой и используют очень быстрые электронные чипы, которые работают на ошеломляющих вычислительных скоростях, они полагаются на данные, которые были созданы людьми, и что данные такие же, более или менее, на разных платформах ИИ. Когда вы задаете вопрос на разные платформы ИИ, в большинстве случаев их ответы очень похожи, потому что база данных одинакова. ИИ может рассказать вам, как собрать вещи вместе, но ИИ не сможет помочь вам создать устройство, которое относится к человеческому контексту. Машинное обучение зависит от статистических корректировок, тогда как люди самоорганизуются по отношению к смыслу.

ИИ может участвовать в процессах, которые напоминают критическое мышление — анализ данных, решение проблем и моделирование, — но у него есть ограничения. Критическое мышление требует человеческого опыта, человеческого понимания, этики и моральных рассуждений. Машины сегодня не имеют всего этого, и их процессы только рекурсивны.

Я беспокоюсь о том, что студенты слишком полагаются на ИИ. Мы должны напомнить студентам, что мы пытаемся помочь им стать будущими лидерами общества, и часть развития лидерства - это добавить новую ценность обществу; и это человеческое предприятие. Я не видел, чтобы ИИ делал действительно хороший системный анализ и глубокое критическое мышление. Сегодня, по крайней мере, мне очень трудно представить, что ИИ может иметь рефлексивное мышление. Мы должны быть осторожны, чтобы не думать, что ИИ решит наши проблемы. Человеческие проблемы сложны и могут быть решены только людьми.


Карен Торнбер

Карен Торнбер.

Стефани Митчелл/Harvard Staff Фотограф

Принимать ярлыки, не зная карты

Карен ТорнберГарри Такман Левин, профессор литературы и профессор восточноазиатских языков и цивилизаций; Ричард Л. Директор факультета Меншеля в Центре преподавания и обучения Дерека Бок

ИИ заставляет нас думать по-другому о различных компонентах критического мышления. Например, ИИ может быть полезным партнером в анализе и выводе, а также с определенными типами решения проблем, но он не всегда успешен в оценке и отражении не может (пока) быть передан на аутсорсинг ИИ.

Конечно, можно использовать ИИ таким образом, чтобы уменьшить некоторые из наших навыков, как способности более низкого порядка, такие как память и фактические знания, а также навыки более высокого порядка, такие как критическое мышление. Точно так же, как пошаговые навигационные системы привели многих к тому, что мы знаем улицы города, в котором мы в настоящее время живем, гораздо меньше деталей, чем улицы городов, которые мы узнали до того, как смартфоны и автомобильные системы GPS были широко доступны, вполне вероятно, что простота использования LLM позволит нам избежать участия в определенных сложных умственных навыках, и будет трудно убедить студентов развивать эти навыки в первую очередь.

Ключ в том, чтобы использовать ИИ, чтобы помочь нам в обучении и в критическом мышлении, и, по словам недавней «Руководящей политики для искусственного интеллекта в историческом образовании», «для поддержки развития преднамеренной и добросовестной грамотности ИИ». Некоторые навыки критического мышления станут более ценными, потому что они не могут (пока) быть переданы на аутсорсинг ИИ. Распространение «дешевого интеллекта» (больше кода, текста и изображений, чем когда-либо прежде) означает, что навыки различения, оценки, суждения, продуманного планирования и размышления сейчас еще более важны, чем раньше.


Джефф Берендс

Джефф Берендс.

Визи Конвей/Harvard Staff Фотограф

Предостерегающие истории от использования других когнитивных инструментов труда

Джефф БерендсСтарший научный сотрудник и старший преподаватель, кафедра философии

Я очень беспокоюсь о влиянии общего использования LLM на навыки критических рассуждений. Мы уже знаем, что инструменты, которые мы используем во время когнитивного труда, могут изменить то, как мы делаем эту работу. Мы знаем, например, что долгосрочное съемка заметок приводит к большему запоминанию, чем заметки по нажатию клавиш, и что функции предиктивного текста, встроенные в текстовые процессоры и интерфейсы электронной почты, меняют наш выбор слов. Учитывая такие тенденции, я был бы ошеломлен, если бы частое, многоконтекстное использование LLM не привело к реальным изменениям в подходе пользователей к задачам рассуждения.

Недавнее исследование MIT Media Lab предоставляет, по крайней мере, некоторые первоначальные доказательства этого. Я меньше беспокоюсь об ИИ как о помощи для руководства рассуждениями на уровне экспертов в целевых областях, например, когда, например, врач может использовать ИИ в диагностике, чтобы убедиться, что она не упустила из виду необычное заболевание. Но проблема в том, что существует слишком много шумихи вокруг LLM как общих рассуждений, на которых мы можем (по крайней мере, частично) разгрузить наше мышление по любой теме. В интересах людей, производящих технологию, заставить нас думать, что ее возможности безграничны и что она откроет прекрасное новое будущее для всех. Мы должны быть осторожны, прежде чем мы слишком восторженно возлагаем наши надежды на последнюю технологическую тенденцию.


Источник: seas.harvard.edu

Комментарии: