Искусственный интеллект в играх. К чему приведет этот тандем? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-04-24 12:03 23 апреля в ситуационном центре Роскомнадзора прошел круглый стол «Правовое регулирование видеоигровой индустрии и внутриигрового контента в контексте проекта Федерального закона «О деятельности по разработке и распространению видеоигр на территории Российской Федерации». О проблемах регулирования ИИ в компьютерных играх рассказал Виктор Наумов, доктор юридических наук, главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН, профессор кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина, партнер юрфирмы Nextons, руководитель проекта «Сохраненная культура». Собрали главное: Применение искусственного интеллекта (ИИ) в играх в условиях развитых технологий и повышения их привлекательности будет создавать большие риски, чем в подавляющем большинстве других сфер – у игр всегда много пользователей. ИИ активно помогает в разработке игр, но его использование сопряжено и с правовыми рисками. Например, недопустимо, чтобы поведенческие характеристики и другая чувствительная информация игрока использовалась для формирования сценария игры. В результате геополитического противостояния возникает тенденция негативно-ориентированного машинного обучения. Нужно понять, кто обучает персонажей, на какой системе ценностей и установок и какое в итоге поведение игроки реализуют. Задача государства – понять, как это контролировать. Что делать в этих реалиях? Включить в законодательство обязательную междисциплинарную экспертизу применения ИИ. Особенно в правоотношениях с участием несовершеннолетних. Игры с ИИ, ориентированные на многомиллионную аудиторию и имеющие сложные сценарии, нужно сначала тестировать, а уже потом выпускать. Ввести нормы по ограничению использования ИИ в компьютерных играх для детей и правовые нормы, связанные с защитой их творческих навыков, которые мы рискуем потерять, постоянно используя генеративный искусственный интеллект. Предусмотреть право человека и гражданина на отказ от использования ИИ в избранных сферах. Определить ответы на главный нерешенный сейчас вопрос – кто и за что несет юридическую ответственность в сфере ИИ. Ограничить пропаганду ИИ («одушевление», «очеловечивание» технического), вести контрпропаганду и поддерживать саморегулирование отрасли с реальными шагами по самоограничению игроков. Источник: vk.com Комментарии: |
|