В СПЧ предупредили о риске когнитивной травмы у школьников и студентов, пишущих работы с помощью ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Сегодня Валерий Фадеев провел стратегическую сессию «ИИ в образовании: социально-правовые проблемы», организованную Институтом наследия и современного общества РГГУ.

В ходе выступления он показал изображения российского патриота, созданные по его запросу различными нейросетями. Например, ChatGPT изобразил молодого мужчины на фоне храма Василия Блаженного, на куполах которого нет крестов, но зато появилась красная звезда.

«Понятно, что потенциал искусственного интеллекта велик. Его непросто внедрять, есть разные сопутствующие негативные обстоятельства. Сегодня это нерабочий инструмент, если он выдает такую ерунду, - отметил глава СПЧ. - Нам надо понять, где его преимущества, и как использовать ИИ на благо системы образования».

Член СПЧ, глава компании «Крибрум» Игорь Ашманов в свою очередь предупредил о рисках использования нейросетей для написания текстов.

«Согласно опросам, 87% студентов используют ИИ для создания своих работ, а система «Антиплагиат» может определить применение нейросетей только в 25% случаев. Гладкость генерации возрастает, а качество детекторов падает.

За 4-6 месяцев студент или школьник получает когнитивную травму. Он перестает писать сам, не помнит не только то, что сгенерировал ИИ, но и какой промпт он задавал. Это уже медицинский факт. ИИ снижает качество всего, до чего он дотрагивается. Он все усредняет. И самое страшное - он еще и снимает ответственность», - подчеркнул Игорь Ашманов.

«Если часть работы написана искусственным интеллектом, надо ставить «двойку». Или ты сам работаешь, или это позор. Не умеешь писать - займись другой работой», - отреагировал Валерий Фадеев.

На прозвучавший вопрос , когда РГГУ запустит ИИ в системе управления университетом, ректор Андрей Логинов ответил исчерпывающе:

«Искусственный интеллект никогда не догонит человека. На это я как-то услышал от возмущенного студента: «А что это вы, такой ретроградный профессор, говорите такую ерунду? Да он уже перегнал человека, да он уже все делает лучше человека».

Что мы понимаем под человеком? Да, он быстрее пересчитает вам данные переписных книг. Но есть ведь и другие уровни в человеческом мышлении.

Если мы сведем работу наших административно-управленческих составов в каждом министерстве к такой сугубо механической работе, наши университеты развалятся через месяц.

Мы не можем строить обучение студентов по жесткому, абстрактно написанному регламенту. Это все очень индивидуально. Когда студент приходит и просит дать возможность еще раз передать экзамен, потому что у него самого уже дети - там миллионы разных случаев. Тут нужно принимать решения, которые я в жизни не доверю искусственному интеллекту, во всяком случае, на данном уровне его технологического развития».

Особая ситуация, как выяснилось, сейчас сложилась и в музыкальной сфере.

«То, что ИИ дает возможность исполнять технические задачи,это огромное благо.Например, такого количества нот, как с помощью программы, написать рукой невозможно.

Вот раньше, например, для того, чтобы создать сочинение для симфонического оркестра,нужно было сначала написать партитуру,а потом специальные люди выписывали каждую партию отдельного инструмента из партитуры,

ошибались, редактировали, на репетициях теряли время, пока все сверяли. Сейчас это делается за одну секунду. Это, конечно, великое благо.

А вот стандартизация плохой музыки и плохого вкуса - это ужасно. И с этим надо что-то делать», - рассказал композитор Юрий Потеенко.

В мероприятии также приняла участие член СПЧ Наталия Кравченко.

Эту тему Совет планирует продолжить обсуждать уже на Петербургском международном юридическом форуме.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: