Студент с искусственным интеллектом, как обезьяна с гранатой 

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Феномен стремительного проникновения ИИ в образовательную среду и противоречивые последствия этого процесса. Как современные студенты, не обладая достаточной медиаграмотностью и критическим мышлением, используют искусственный интеллект вслепую — для написания курсовых, подготовки к экзаменам и даже подмены собственного обучения?

Привет! Я отношусь именно к тому поколению, которое выросло без телефонов, мы ценим живое общение, но мы первыми освоили ВКонтакте и YouTube, мы смотрели видео на кассетах, но стали теми, кто захватил tiktok, мы достигаторы, как миллениалы, но как зуммеры умеем отстаивать личные границы, уже в подростковом возрасте стали активно использовать новые технологии, но мы помним мир без интернета. Мы застали 2 эпохи и забрали от каждой лучшее. В интернете нас зовут «Зилениалы». Технологии искусственного интеллекта появились в нашей жизни в достаточно осознанном возрасте, когда мы уже учились в ВУЗе.

Почему студент с искусственным интеллектом, как обезьяна с гранатой? Как обезьяна, случайно оказавшаяся с оружием в руках, студент без глубокого понимания принципов работы искусственного интеллекта может запустить процессы, последствия которых будут непредсказуемы и необратимы.

Главная мысль здесь не в том, что студент «глуп» или «опасен сам по себе», а в том, что мощный инструмент в руках человека без системного понимания превращает ошибку в масштабируемое событие. Если раньше незнание ограничивалось локальной неудачей — неверно решённой задачей, плохим кодом, неработающим проектом, — то с ИИ цена непонимания резко возрастает. Искусственный интеллект способен автоматизировать, ускорять, тиражировать и легитимизировать решения. Поэтому ошибка студента уже не остаётся частной: она может быть встроена в код, в продукт, в учебный процесс, в управленческое решение и потом многократно воспроизводиться, оставаясь внешне «умной» и убедительной.

Ещё глубже этот тезис можно раскрыть через проблему снятия когнитивной ответственности. ИИ удобен тем, что снимает с человека часть интеллектуальной нагрузки. Но вместе с нагрузкой он нередко снимает и привычку сомневаться. Студент начинает не исследовать, а принимать; не проверять, а компилировать; не строить понимание, а собирать правдоподобные ответы.

К сожалению не всем присущ осмысленный подход к применению технологий. Всему виной человеческая лень. Именно она толкает студентов на то, чтобы не разбираться в материале, а пытаться переложить всю работу на алгоритмы. Вместо того чтобы использовать нейросети как инструмент для анализа, проверки гипотез или поиска новых идей, многие начинают превращать его в «костыль», подменяющий собственное мышление.

Непредсказуемость последствий связана не только с техническими сбоями, но и с тем, что студент может не видеть социальных эффектов своих действий: утечки данных, дискриминационных выводов, фабрикации источников, ложных рекомендаций, академического мошенничества, автоматизации вредных практик. То есть речь не о том, что «ИИ плох», а о том, что без культуры ответственности любая умная система становится ускорителем хаоса.

Новый лучший друг каждого студента?

С момента появления искусственного интеллекта в нашей жизни подход ко многим вопросам изменился. Я замечаю, что все реже пользуюсь поиском и все чаще задаю вопросы ChatGPT, все реже выбираю реальную фотосъемку и все чаще создаю новую аватарку в нейросети, все реже читаю длинные статьи от начала до конца и все чаще прошу нейросеть коротко пересказать их суть и выделить главное в формате саммари.Кажется, что я такая не одна, ведь по опросу коммуникационного агентства FAVES Communications, проведённому в октябре 2025 года, почти 52% россиян сегодня ориентируются на ответы искусственного интеллекта при поиске через «Яндекс» и Google, причем 43% признают, что доверяют полученной информации и советам (РБК, Публикация компании FAVES Communications)

Сложно переоценить влияние искусственного интеллекта на нашу жизнь и, конечно, это не могло не оказать воздействия на сферу образования. Сейчас школьники и студенты активно используют искусственный интеллект для своей учёбы. Теперь не нужны ни знания, ни ГДЗ, ни Google, ни Википедия. Чтобы написать доклад или сочинение нужно вбить запрос в нейросеть и сразу получить готовый документ с главами и оформлением по ГОСТ. Не нужно умеет решать примеры, можно сфоткать задачу на листке, вбить её в искусственный интеллект и за секунды получить верный ответ. Современные школьники студенты делают через искусственный интеллект практически всё задания, домашки, доклады, даже пишут курсовые и дипломы.

Конечно, в связи с ростом искусственного интеллекта меняются и появляются технологии и отслеживающие его. Сдать курсовую или диплом полностью сгенерированные нейросетью не так просто. Антиплагиат теперь не только отмечает текст который вы взяли из других источников, но и ставит красный значок на вашей работе, если находятся сгенерированные элементы. За это можно получить наказание в виде незачета или отчисления. Есть только один момент. Каким образом он это определяет пока не ясно и неоднократно были случаи того что этот «чудесный антиплагиат» ставил знак сгенерированного и подозрительного документа даже на полностью написанные человеком тексты.

Меры борьбы с искусственным интеллектом приняли и в Высшей Школы Экономики, где студент может использовать нейросети в своих работах, но ему необходимо оправдать это использование, то есть написать в каких моментах и с какой целью в данной работе был применен искусственный интеллект. А если комиссия или преподаватели посчитают текст за сгенерированным и не увидят объяснение причин, то работу аннулируют и не будут проверять.

Почему университеты вводят такие ограничения? Не потому, что боятся технологий, а потому, что защищают сам смысл образования. Для вуза важно не только то, какой текст сдал студент, но и то, кто именно произвёл мысль, аргументацию и вывод.

Генеративный ИИ разрушает эту прозрачность: работа может выглядеть сильной, хотя реальный вклад автора в неё минимален. Поэтому в ВШЭ запрещают не искусственный интеллект как таковой, а его скрытое использование. Формальное основание — академические нормы университета: ИИ можно применять, но только с обязательным раскрытием, где, как и зачем он использовался. Если же преподаватель видит признаки машинной генерации, а студент этого не указал, работа может быть аннулирована, потому что в глазах университета это уже не технологическая помощь, а нарушение принципа самостоятельности и академической честности.

А есть ли плюсы?

Эксперты подчеркивают, что синергия человека и искусственного интеллекта способна значительно повысить качество как принимаемых решений, так и творческой деятельности. Интеграция современных инструментов в повседневную работу человека может не только оптимизировать процессы принятия решений, но и открыть новые горизонты для решений сложных задач, тем самым увеличивая общую производительность (Redefining Cognitive Domains in the Era of ChatGPT: A Comprehensive Analysis of Artificial Intelligence’s Influence and Future Implications - PMC).

Есть свои плюсы и в сфере образования. При правильном подходе LLM могут стать незаменимыми персональными помощниками и наставниками. В сфере обучения и саморазвития ИИ способен адаптироваться к индивидуальному уровню каждого учащегося, оперативно предоставляя обратную связь и подбирая релевантные материалы, что способствует более эффективному усвоению знаний (AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking)

А что насчет преподавателей?

Искусственный интеллект меняет сферу образования изнутри, меняются все процессы. Нейросети упрощают работу педагогов, избавляют их рутинных задач и бюрократии и оставляют время и ресурс на самое важное — живое взаимодействие с учениками, развитие критического мышления и творческого потенциала каждого ребёнка. Меняется и наполнение занятий, учителя и преподаватели меняют формат уроков и дополняют их интерактивными элементами при помощи нейросетей.

Нейросети действительно могут снимать часть рутины, но не в магическом режиме «нажал кнопку — и школа работает сама». По данным UNESCO, в вузах и образовании ИИ уже используют для подготовки занятий, поддержки оценивания и административных задач; Microsoft и OpenAI в своих материалах для педагогов тоже прямо называют типовые сценарии: черновики планов уроков, квизы, рубрики, варианты обратной связи, адаптацию материалов под разный уровень учеников.

Нейросети упрощают работу педагога не потому, что «учат вместо него», а потому, что берут на себя часть черновой подготовки. Учитель может за несколько минут получить не готовый идеальный продукт, а основу: план урока, варианты заданий для сильных и слабых учеников, тест с ответами, рубрикатор оценивания, шаблон письма родителям, конспект по новой теме или набор интерактивных упражнений. Меняется и само наполнение занятий: вместо одного стандартного объяснения для всех преподаватель может быстро собрать несколько версий материала — короткую, углублённую, игровую, дискуссионную или встроить в урок квиз, кейс, ролевой сценарий или симуляцию.

При этом, большинство образовательных организаций остаются консервативными в вопросах новых технологий и не готовы уступать свои рабочие задачи роботам и искусственному интеллекту.

Риски и опасности

Мой младший брат освоил нейросети раньше, пока учился в школе и страшно представить какое поколение вырастет из них. Его ровесники и он сам вообще перестали делать домашнее задание и задачи на уроках сами. А зачем, если есть искусственный интеллект, который решит все за секунду?

Но вместе с удобством пришла и новая проблема — молодые люди всё меньше напрягают мозг, всё чаще доверяют машине и всё реже испытывают радость собственного открытия. Учителя жалуются, что детям трудно формулировать мысли, обосновывать ответы и рассуждать без цифровой подсказки. Замглавы администрации президента Максим Орешкин отмечает, что традиционные домашние задания для школьников практически утратили смысл из-за развития технологий искусственного интеллекта. Парадокс в том, что искусственный интеллект, созданный для расширения возможностей человека, постепенно лишает его практики мышления, если не научить пользоваться им осознанно и с умом.

У подрастающего поколения навыки самостоятельного решения задач не формируются: дети копируют ответы ИИ для домашних заданий, теряя практику логики и анализа. Без цифровой грамотности они слепо верят моделям, рискуя дезинформацией, а привязанность к виртуальным собеседникам тормозит эмпатию и живое общение.

10 лет назад ГДЗ были в основном складом готовых ответов. Ребёнок брал уже существующее решение, переписывал его и чаще всего оставлял следы: одинаковые формулировки, типовой ход решения, несоответствие своему обычному уровню, привязка к конкретному учебнику или номеру задания. Учитель хотя бы примерно понимал, с чем имеет дело: перед ним списанный ответ.

На уровне мотивации почти ничего не изменилось: и десять лет назад, и сейчас часть школьников хочет не понять материал, а как можно быстрее сдать работу. ИИ — это уже не склад, а машина по производству правдоподобия. Он не просто даёт готовое решение, а подстраивает его под запрос: может переписать другим стилем, упростить, усложнить, сделать «как будто писал восьмиклассник», добавить ошибки, изменить структуру, даже сымитировать рассуждение. То есть если ГДЗ помогали списать, то ИИ помогает скрыть сам факт списывания.

Вполне возможно, что массовое использование ИИ студентами и школьниками — это не столько бунт против учёбы, сколько адаптация к системе неадекватной нагрузки? Когда образование превращается в конвейер дедлайнов, отчётов, презентаций и формальных заданий, ученик начинает оптимизировать не мышление, а выживание. В этом смысле нейросеть становится не источником проблемы, а самым удобным ответом на неё. Она позволяет быстро производить тот объём учебного продукта, который система требует, но не успевает осмыслять. ИИ здесь выступает как зеркало: он показывает, сколько в современном образовании осталось настоящего понимания, а сколько — ритуальной занятости.

Пессимистический прогноз предупреждает, что в течение ближайших десяти лет неконтролируемое и чрезмерное использование LLM может привести к постепенному ослаблению некоторых когнитивных функций у людей. Основной риск – это «когнитивная лень» и утрата навыков вследствие постоянного облегчающего воздействия ИИ, когда человек привыкает получать готовые решения без усилий. Исследователи уже фиксируют тревожные тенденции: чрезмерное доверие результатам, выданным ИИ, способно притуплять критическое восприятие и аналитику, высказывается обеспокоенность по поводу сужения кругозора и творческого мышления.

В начале 2025 года в Media Lab Массачусетского технологического института было проведено исследование, в рамках которого студенты были разделены на три группы и выполняли задание по написанию серии коротких эссе. Первая группа выполняла работу самостоятельно, вторая использовала поисковую систему Google, а третья – языковую модель ChatGPT. В процессе работы проводилась запись электроэнцефалограммы (ЭЭГ) каждого участника.

Анализ данных, полученных на ограниченной выборке, выявил, что участники, использовавшие ChatGPT, продемонстрировали минимальную мозговую активность, наихудшие результаты по лингвистическим и поведенческим показателям, а также выраженную тенденцию к снижению когнитивной нагрузки по мере написания каждого последующего эссе. При повторном выполнении задания без использования искусственного интеллекта, участники демонстрировали ухудшение памяти относительно ранее написанных текстов и снижение активности ритмов, что свидетельствует об ослаблении глубокой памяти.

В противоположность этому, студенты, работавшие без использования искусственного интеллекта, демонстрировали повышенную нейронную активность и удовлетворение от процесса. У них наблюдалась активация областей головного мозга, отвечающих за творческое мышление, процессы запоминания и семантическую обработку информации.

У третьей группы лиц было зафиксировано формирование так называемого когнитивного долга – накопившегося дефицита глубокого обучения, который негативно влияет на способность к критическому анализу и повышает восприимчивость к манипуляциям и поддающимся стереотипным убеждениям.

Получается, что большинство новых технологий направлены на, чтобы сделать нашу жизнь проще, но из-за этого мы становимся ленивее и страдает наш мозг, творческое мышление и когнитивные функции.

Этические и правовые аспекты

Технологии уже радикально меняют учебный процесс, а вот нормы, правила и культура обращения с ними заметно отстают. С одной стороны, искусственный интеллект обещает персонализированное обучение, снижение нагрузки на преподавателей и расширение доступа к качественному контенту, с другой — обостряет старые проблемы академической честности, неравенства и защиты данных и параллельно рождает новые типы злоупотреблений, вроде «делегирования» всего процесса обучения машине.

Особое внимание следует уделить академической добросовестности и набирающей обороты тенденции «цифрового плагиата». Работы, созданные с использованием генеративных моделей, формально представляются уникальными, однако они не отражают ни трудозатрат, ни глубокого понимания автора, что обесценивает саму концепцию оценивания как способа проверки усвоения учебного материала. В ответ на это образовательные учреждения принимают различные меры: от прямых запретов и попыток обнаружения текстов, созданных искусственным интеллектом, до более продуманного подхода, при котором использование нейросетей интегрируется в учебные задания как допустимый инструмент, а критерием оценки становится не сам факт применения ИИ, а уровень критического осмысления и личный вклад обучающегося.

Правовое регулирование в данной сфере пока носит фрагментарный характер, особенно в Российской Федерации. Специального законодательства, которое бы целенаправленно регулировало использование ИИ именно в образовании, в настоящее время не существует. Поэтому применяются существующие правовые нормы: Федеральный закон «Об образовании», законодательство о персональных данных, нормы об авторском праве и отдельные нормативные акты, связанные с национальной стратегией развития искусственного интеллекта до 2030 года.

Это приводит к тому, что многие виды деятельности фактически подпадают под действие законодательства (например, сбор и анализ учебной статистики платформами ИИ или генерация учебных материалов), однако участники образовательного процесса не в полной мере осознают свои права и обязанности, особенно в случаях ошибок, допущенных алгоритмами, или утечек конфиденциальных данных.

На стыке этических и правовых аспектов постепенно формируется ключевая идея: нейросети не упраздняют роль преподавателя и обучающегося, а значительно повышают ответственность за использование технологий. Если рассматривать ИИ исключительно как инструмент для ускорения текущих процессов, система образования рискует усугубить существующие недостатки и несправедливости, просто в более автоматизированном и менее явном формате.

Вывод

В фокусе всей дискуссии об искусственном интеллекте в образовании — не технологии, а человек и качество обучения. Нейросети одновременно усиливают лучшие практики (персонализацию, доступность, автоматизацию рутины) и обостряют слабые места системы — неравенство, академическую нечестность, зависимость от готовых ответов и уязвимость персональных данных.

По моему мнению важно использовать искусственный интеллект с умом, не подменять им свое мышление, а использовать как новый ресурс, который помогает мыслить и обучаться быстрее. Было бы ошибкой впадать и в крайности и демонизировать инструмент. Калькулятор не убил математику, а поисковые системы не уничтожили исследовательское мышление. Искусственный интеллект — это ресурс, и, как любой ресурс, он усиливает то, что уже есть. Если есть мышление — он ускоряет его. Если мышления нет — он маскирует его отсутствие, причём временно. Настоящий вызов не в том, чтобы запретить студентам пользоваться ИИ или разрешить без ограничений. Вызов в том, чтобы научить работать с ним так, как работает хороший специалист: задавать правильные вопросы, проверять ответы, спорить с машиной, а не слепо ей доверять. Не отдавать мышление на аутсорс, а использовать новый инструмент для того, чтобы мыслить глубже и быстрее.

Главный вывод: искусственный интеллект в школе и вузе должен работать как инструмент развития мышления, а не как сервис по обходу усилий и ответственности. Главное, что надо понять — использовать новые технологии нужно осознанно, использовать искусственный интеллект, как помощник, а не замену собственным мозгам.


Телеграм: t.me/ainewsline

Источник: tproger.ru

Комментарии: