Часть 5. Искусственный интеллект: какие есть к нему этические вопросы? |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-03-31 13:52 В 2015 году учёные, бизнесмены и робототехники — в числе которых были Илон Маск, Стивен Хокинг, а также Стив Возняк — подписали открытое письмо, в котором попросили человечество быть осторожнее с искусственным интеллектом. В письме они предложили разработать способы контроля исследований в области ИИ, ведь потенциально его развитие может принести не только пользу, но и огромный вред. В этом посте мы разберём, чем может быть опасен ИИ, и поразмышляем над некоторыми этическими вопросами в его отношении. Начнём с применения ИИ в академической среде. Справедливо ли, если студент напишет диплом не своими силами, а с помощью нейросетей? Кто или что в таком случае заслуживает оценку навыков и знаний: студент или нейросеть? Одна из прецедентных историй случилась в Российском государственном гуманитарном университете (РГГУ) — студент написал свой диплом с помощью Chat-GPT и получил положительную оценку за выпускную работу. Эта ситуация вызвала общественный резонанс. Тогда академический совет университета обсудил использование нейросетей и пришёл к выводу, что они, в общем, не против их использования. Формулировка «запретить» сменилась на «доработать контроль над плагиатом». В конце концов, в случае со студентами и школьниками, кажется, всё зависит от того, как именно применять ИИ. Например, написать правильный промт и проверить готовый диплом — достаточно кропотливая работа, которая требует как минимум смекалки, причём смекалки большей, чем нужна для покупки диплома. А если студент просто скопировал то, что написал бот — то это уже плагиат и вряд ли можно назвать собственной работой. А что, если с помощью того же Chat-GPT написать не университетский диплом, а статью в научный журнал? К сожалению, таких случаев становится всё больше. Некоторые из авторов даже не трудятся вычитывать тексты и удалять вводные фразы чат-бота: «Конечно, вот возможное введение для вашей темы…», «Я только модель ИИ и у меня нет доступа к этой информации». Но, что намного серьёзнее, встречаются статьи, данные и графики для которых тоже придумывает нейросеть. То есть источников, к которым отсылает чат-бот, просто не существует — потому что данные он не находит, не интерпретирует, а именно создаёт самостоятельно. Может показаться, что это всё — риторические вопросы, однако прецеденты уже случались. Так, например, из журнала Frontiers in Cell and Developmental Biology отозвали уже опубликованную статью, поскольку обнаружили в ней следы работы ИИ. Теперь рассмотрим другую сферу — здравоохранение. Какие здесь могут быть этические вопросы к искусственному интеллекту? Качество работы нейросети напрямую зависит от качества данных, на которых она учится. Так, если ИИ учился на базе данных, в которой преобладают истории болезни людей определённого этноса, возраста или пола, такая модель будет предвзята. Поэтому важно использовать результаты работы искусственного интеллект только в отношении тех категорий людей, на историях болезней которых он учился. Так, например, исследователи из Высшей школы экономики разработали модель, которая предсказывает осложнения у пациентов с инфарктом миокарда в ХМАО. И это работает, потому что нейросеть анализирует локальную выборку людей определённого возраста и расы. Итак, мы знаем, что нейросеть учится на базах данных. Чем больше данных, тем лучше искусственный интеллект ищет закономерности и делает прогнозы. Но где эти данные взять? История болезни — это карта жизни человека: его возраст, пол, происхождение, рост, вес, группа крови, наличие аллергий или хронических болезней. У каждого из нас есть право на неприкосновенность личных данных — особенно таких интимных, как информация о здоровье. Необходимость соблюдать законы, которые запрещают делиться данными без согласия человека, ставит вопрос обучения искусственного интеллекта в тупик. Но, если эти данные случайно утекут, будет ещё хуже: например, страховая компания откажется от пациента, которого посчитает слишком «невыгодным». Вдруг оба его родители в раннем возрасте скончались от сердечного приступа, и тогда ему могут просто отказать в страховании, поскольку это рискованно. Поскольку ИИ — новая, но развивающаяся с невероятной скоростью технология, кажется, людям остаётся вырабатывать формы этического взаимодействия с нейросетями методом проб и ошибок. Пока традиционные для ИИ проблемы никуда не делись: предвзятость моделей, невозможность интерпретировать результаты, генерация опасного/неверного контента, неравный доступ к новым технологиям, необходимость защиты данных и непонимание машинами этических норм. Однако уже сейчас люди делают первый шаги для того, чтобы как-то ограничить злоупотребление ИИ. Идеи Маска, Хокинга и Возняка и других неравнодушных к стремительному развитию мира ИИ хоть и вызвали бурные дискуссии, всё равно рассматриваются всерьёз и реализуются. Так, например, в марте 2024 года Европейский Союз (ЕС) принял первый в мире закон о регулировании искусственного интеллекта. Закон определяет 4 группы риска ИИ. Например, если компания разработала нейросеть, которая советует пользователю идеальную песню для пробежки, такое приложение не опасно. Если же новое приложение с помощью камеры распознаёт лица прохожих, и за считанные минуты знает о них всё: имя, фамилию, адрес и номер паспорта — такое приложение относится к группе высокого риска, а, значит, перед выходом на рынок его тщательно проверят на соответствие требованиям безопасности. Источник: vk.com Комментарии: |
|