Искусственный интеллект в играх. К чему приведет этот тандем? 

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


23 апреля в ситуационном центре Роскомнадзора прошел круглый стол «Правовое регулирование видеоигровой индустрии и внутриигрового контента в контексте проекта Федерального закона «О деятельности по разработке и распространению видеоигр на территории Российской Федерации».

О проблемах регулирования ИИ в компьютерных играх рассказал Виктор Наумов, доктор юридических наук, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН, профессор кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина, партнер юрфирмы Nextons, руководитель проекта «Сохраненная культура». 

Собрали главное:

Применение искусственного интеллекта (ИИ) в играх в условиях развитых технологий и повышения их привлекательности будет создавать большие риски, чем в подавляющем большинстве других сфер – у игр всегда много пользователей.

 ИИ активно помогает в разработке игр, но его использование сопряжено и с правовыми рисками. Например, недопустимо, чтобы поведенческие характеристики и другая чувствительная информация игрока использовалась для формирования сценария игры.

 В результате геополитического противостояния возникает тенденция негативно-ориентированного машинного обучения. Нужно понять, кто обучает персонажей, на какой системе ценностей и установок и какое в итоге поведение игроки реализуют. Задача государства – понять, как это контролировать.

Что делать в этих реалиях? 

 Включить в законодательство обязательную междисциплинарную экспертизу применения ИИ. Особенно в правоотношениях с участием несовершеннолетних. Игры с ИИ, ориентированные на многомиллионную аудиторию и имеющие сложные сценарии, нужно сначала тестировать, а уже потом выпускать.

 Ввести нормы по ограничению использования ИИ в компьютерных играх для детей и правовые нормы, связанные с защитой их творческих навыков, которые мы рискуем потерять, постоянно используя генеративный искусственный интеллект. Предусмотреть право человека и гражданина на отказ от использования ИИ в избранных сферах.

 Определить ответы на главный нерешенный сейчас вопрос – кто и за что несет юридическую ответственность в сфере ИИ.

 Ограничить пропаганду ИИ («одушевление», «очеловечивание» технического), вести контрпропаганду и поддерживать саморегулирование отрасли с реальными шагами по самоограничению игроков.


Источник: vk.com

Комментарии: