![]() |
![]() |
![]() |
![]() |
Первые на Земле правила для ИИ |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-05-25 14:05 ![]() В связи с тем, что нейросети развиваются экспоненциально и у человечества, порой, почти на уровне паранойи, есть страх того, что созданный им рукотворный помощник станет "Скайнетом" из "Терминатора", который выйдет из под контроля и обязательно сотворит катастрофу. Люди придумывают различные шаги для обезопасивания самих себя от действий умных программ. Одним из таких шагов безопасности является недавно принятый Европарламентом AI Act — первые в мире правила предназначенные для искусственного интеллекта. Согласно ему, ИИ манипулирующие сознанием людей и обладающие высоким уровнем риска для безопасности людей будут запрещены. Новый закон также запрещает применять ИИ и нейросети для удаленной биометрической идентификации за исключением правоохранительных органов, биометрическая категоризация с использованием чувствительных характеристик, прогностические полицейские системы, распознавание эмоций в правоохранительных органах, на рабочих местах и ??в учебных заведениях, а также неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных. Что касается "cлабых" ИИ, такие, как чат-боты, то его поставщики должны теперь информировать пользователей о том, что они взаимодействуют с ИИ. На наш взгляд закон крайне странный и требует более четких формулировок. Отбросив мысли о замедлении роста развития нейросетей нужно сказать, что ИИ наверное пока как такового нет. Да. Есть исследование, что пресловутый ChatGPT 4 демонстрирует что-то похожее на самосознание, но это все крайне спорно. А учитывая, что нет конкретики тому, что считать ИИ, а что нет, то под этот термин подойдет почти любая программа и игра, которая умеет запоминать ту или иную информацию, то для европейских программистов может начаться тот ещё дурдом с бюрократией. Преступникам всё равно на правила, а вот половина порядочных IT-шников, которые не хотят возиться со всем этим дурдомом, просто покинут Европу и будут работать на удаленной работе в другие странах. Чтобы избежать этого, нужно проработать документ вплоть до определений. Если в России тоже захотят принять подобный закон, то нам также предстоит разобраться в терминах и понять какие угрозы от ИИ реальны, а какие нет. Все боятся, что ИИ устроит ядерный холокост или войну людей с роботами, однако в реальности слабые ИИ больше опасны тем, что могут обвалить рынок, отобрать работу и смысл жизни. Чтобы этого не было, надо потихоньку перестраивать экономику, а людей, оставшихся без работы, переобучать на новые профессии. Нельзя совсем исключать, что к 2040-2050 м и вовсе придёт время безусловного базового дохода, однако наступит ли это время или нет и будем ли мы готовы — покажет только время. Источник: vk.com Комментарии: |
|