Бывший гендиректор Google Эрик Шмидт высказал серьезное предупреждение о потенциальной опасности ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Бывший гендиректор Google Эрик Шмидт высказал серьезное предупреждение о потенциальной опасности ИИ. Он указал на реальный риск использования нейросетей террористическими организациями для создания биологического оружия. Это заставляет задуматься о темпах развития искусственного интеллекта и о необходимости контроля над этой мощной технологией.

Шмидт также призвал к ограничению экспорта микрочипов, критически важных для развития ИИ, подчеркивая необходимость государственного регулирования, несмотря на ведущую роль частных компаний в этой сфере. Его слова указывают на серьезный разрыв между громкими заявлениями о пользе ИИ и реальными рисками, которые он несет. Google, начавшая с обещаний сделать мир лучше, по словам Шмидта, теперь, похоже, сосредоточена лишь на расширении своего влияния, игнорируя потенциальные угрозы.

Риски использования ИИ для создания оружия массового поражения:

Риски действительно огромны. ИИ способен значительно ускорить и усовершенствовать процессы разработки оружия, включая биологическое, химическое и ядерное. Автоматизация, обработка больших объемов данных и предсказательная аналитика, предоставляемые ИИ, могут быть использованы для создания более эффективного и смертоносного оружия, доступного даже относительно небольшим группам. Это угрожает глобальной безопасности и требует незамедлительных действий.

Этические нормы и государственное регулирование:

Законодательное закрепление этических норм при создании ИИ – это абсолютная необходимость. Мы должны определить "красные линии", за которые ИИ-технологии не должны переступать. Это включает в себя строгие правила относительно разработки и применения ИИ в военных целях, защиту от предвзятости и дискриминации в алгоритмах, гарантии конфиденциальности данных и многое другое. Государственное регулирование не должно тормозить инновации, но оно должно направлять их в безопасное и этичное русло.

Роль государственного регулирования:

Полностью полагаться на саморегуляцию частных компаний в сфере ИИ – опасно. Необходим международный диалог и сотрудничество для установления общих стандартов и правил. Государство должно играть ведущую роль в:

* Разработке этических норм и законодательства в сфере ИИ.

* Контроле за разработкой и применением ИИ-технологий.

* Поддержке исследований в области этического ИИ.

* Международном сотрудничестве в этой области.


Источник: vk.com

Комментарии: