Часть 5. Искусственный интеллект: какие есть к нему этические вопросы?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В 2015 году учёные, бизнесмены и робототехники — в числе которых были Илон Маск, Стивен Хокинг, а также Стив Возняк — подписали открытое письмо, в котором попросили человечество быть осторожнее с искусственным интеллектом. В письме они предложили разработать способы контроля исследований в области ИИ, ведь потенциально его развитие может принести не только пользу, но и огромный вред. В этом посте мы разберём, чем может быть опасен ИИ, и поразмышляем над некоторыми этическими вопросами в его отношении.

Начнём с применения ИИ в академической среде. Справедливо ли, если студент напишет диплом не своими силами, а с помощью нейросетей? Кто или что в таком случае заслуживает оценку навыков и знаний: студент или нейросеть? Одна из прецедентных историй случилась в Российском государственном гуманитарном университете (РГГУ) — студент написал свой диплом с помощью Chat-GPT и получил положительную оценку за выпускную работу. Эта ситуация вызвала общественный резонанс. Тогда академический совет университета обсудил использование нейросетей и пришёл к выводу, что они, в общем, не против их использования. Формулировка «запретить» сменилась на «доработать контроль над плагиатом». В конце концов, в случае со студентами и школьниками, кажется, всё зависит от того, как именно применять ИИ. Например, написать правильный промт и проверить готовый диплом — достаточно кропотливая работа, которая требует как минимум смекалки, причём смекалки большей, чем нужна для покупки диплома. А если студент просто скопировал то, что написал бот — то это уже плагиат и вряд ли можно назвать собственной работой.

А что, если с помощью того же Chat-GPT написать не университетский диплом, а статью в научный журнал? К сожалению, таких случаев становится всё больше. Некоторые из авторов даже не трудятся вычитывать тексты и удалять вводные фразы чат-бота: «Конечно, вот возможное введение для вашей темы…», «Я только модель ИИ и у меня нет доступа к этой информации». Но, что намного серьёзнее, встречаются статьи, данные и графики для которых тоже придумывает нейросеть. То есть источников, к которым отсылает чат-бот, просто не существует — потому что данные он не находит, не интерпретирует, а именно создаёт самостоятельно. Может показаться, что это всё — риторические вопросы, однако прецеденты уже случались. Так, например, из журнала Frontiers in Cell and Developmental Biology отозвали уже опубликованную статью, поскольку обнаружили в ней следы работы ИИ.

Теперь рассмотрим другую сферу — здравоохранение. Какие здесь могут быть этические вопросы к искусственному интеллекту? Качество работы нейросети напрямую зависит от качества данных, на которых она учится. Так, если ИИ учился на базе данных, в которой преобладают истории болезни людей определённого этноса, возраста или пола, такая модель будет предвзята. Поэтому важно использовать результаты работы искусственного интеллект только в отношении тех категорий людей, на историях болезней которых он учился. Так, например, исследователи из Высшей школы экономики разработали модель, которая предсказывает осложнения у пациентов с инфарктом миокарда в ХМАО. И это работает, потому что нейросеть анализирует локальную выборку людей определённого возраста и расы.

Итак, мы знаем, что нейросеть учится на базах данных. Чем больше данных, тем лучше искусственный интеллект ищет закономерности и делает прогнозы. Но где эти данные взять? История болезни — это карта жизни человека: его возраст, пол, происхождение, рост, вес, группа крови, наличие аллергий или хронических болезней. У каждого из нас есть право на неприкосновенность личных данных — особенно таких интимных, как информация о здоровье. Необходимость соблюдать законы, которые запрещают делиться данными без согласия человека, ставит вопрос обучения искусственного интеллекта в тупик. Но, если эти данные случайно утекут, будет ещё хуже: например, страховая компания откажется от пациента, которого посчитает слишком «невыгодным». Вдруг оба его родители в раннем возрасте скончались от сердечного приступа, и тогда ему могут просто отказать в страховании, поскольку это рискованно.

Поскольку ИИ — новая, но развивающаяся с невероятной скоростью технология, кажется, людям остаётся вырабатывать формы этического взаимодействия с нейросетями методом проб и ошибок. Пока традиционные для ИИ проблемы никуда не делись: предвзятость моделей, невозможность интерпретировать результаты, генерация опасного/неверного контента, неравный доступ к новым технологиям, необходимость защиты данных и непонимание машинами этических норм. Однако уже сейчас люди делают первый шаги для того, чтобы как-то ограничить злоупотребление ИИ. Идеи Маска, Хокинга и Возняка и других неравнодушных к стремительному развитию мира ИИ хоть и вызвали бурные дискуссии, всё равно рассматриваются всерьёз и реализуются.

Так, например, в марте 2024 года Европейский Союз (ЕС) принял первый в мире закон о регулировании искусственного интеллекта. Закон определяет 4 группы риска ИИ. Например, если компания разработала нейросеть, которая советует пользователю идеальную песню для пробежки, такое приложение не опасно. Если же новое приложение с помощью камеры распознаёт лица прохожих, и за считанные минуты знает о них всё: имя, фамилию, адрес и номер паспорта — такое приложение относится к группе высокого риска, а, значит, перед выходом на рынок его тщательно проверят на соответствие требованиям безопасности.


Источник: vk.com

Комментарии: