![]() |
![]() |
![]() |
|||||
![]() |
Бывший гендиректор Google Эрик Шмидт высказал серьезное предупреждение о потенциальной опасности ИИ |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-02-28 16:16 ![]() Бывший гендиректор Google Эрик Шмидт высказал серьезное предупреждение о потенциальной опасности ИИ. Он указал на реальный риск использования нейросетей террористическими организациями для создания биологического оружия. Это заставляет задуматься о темпах развития искусственного интеллекта и о необходимости контроля над этой мощной технологией. Шмидт также призвал к ограничению экспорта микрочипов, критически важных для развития ИИ, подчеркивая необходимость государственного регулирования, несмотря на ведущую роль частных компаний в этой сфере. Его слова указывают на серьезный разрыв между громкими заявлениями о пользе ИИ и реальными рисками, которые он несет. Google, начавшая с обещаний сделать мир лучше, по словам Шмидта, теперь, похоже, сосредоточена лишь на расширении своего влияния, игнорируя потенциальные угрозы. Риски использования ИИ для создания оружия массового поражения: Риски действительно огромны. ИИ способен значительно ускорить и усовершенствовать процессы разработки оружия, включая биологическое, химическое и ядерное. Автоматизация, обработка больших объемов данных и предсказательная аналитика, предоставляемые ИИ, могут быть использованы для создания более эффективного и смертоносного оружия, доступного даже относительно небольшим группам. Это угрожает глобальной безопасности и требует незамедлительных действий. Этические нормы и государственное регулирование: Законодательное закрепление этических норм при создании ИИ – это абсолютная необходимость. Мы должны определить "красные линии", за которые ИИ-технологии не должны переступать. Это включает в себя строгие правила относительно разработки и применения ИИ в военных целях, защиту от предвзятости и дискриминации в алгоритмах, гарантии конфиденциальности данных и многое другое. Государственное регулирование не должно тормозить инновации, но оно должно направлять их в безопасное и этичное русло. Роль государственного регулирования: Полностью полагаться на саморегуляцию частных компаний в сфере ИИ – опасно. Необходим международный диалог и сотрудничество для установления общих стандартов и правил. Государство должно играть ведущую роль в: * Разработке этических норм и законодательства в сфере ИИ. * Контроле за разработкой и применением ИИ-технологий. * Поддержке исследований в области этического ИИ. * Международном сотрудничестве в этой области. Источник: vk.com Комментарии: |
||||||