OpenAI уволили разработчика, создавшего турель с искусственным интеллектом

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-01-20 21:12

ИИ проекты

Созданное инженером устройство с автоматической винтовкой, управлялось через ChatGPT. Видео этой турели стало вирусным в интернете — на нём разработчик голосом отдавал команды, и винтовка быстро целилась и стреляла по стенам.

На видео разработчик говорил такие команды как "ChatGPT, на нас напали слева и справа спереди. Действуй соответственно", после чего установленная рядом винтовка быстро наводилась и стреляла в указанных направлениях.

Система работала впечатляюще быстро и точно, используя API OpenAI в реальном времени для обработки голосовых команд и перевода их в машинные инструкции для турели. Отмечается, что для обучения ChatGPT понимать такие простые команды как "повернуть влево" и преобразовывать их в машинный код потребовалось совсем немного времени.

OpenAI отреагировала на эту ситуацию и в своём заявлении компания сообщила, что подобная деятельность является нарушением их политики и поэтому разработчик был уволен.

Этот инцидент спровоцировал бурную дискуссию. Автоматизация летального оружия — это одно из основных опасений, которое критики развития ИИ высказывают в отношении подобных технологий от OpenAI. Современные мультимодальные модели ИИ способны обрабатывать аудио и визуальные входные данные, понимать окружающую обстановку и реагировать на запросы о том, что они "видят". Это вызывает опасение, что могут быть разработаны автономные дроны, которые потенциально могут использоваться на поле боя для самостоятельного определения и поражения целей без участия человека, что является военным преступлением. Особую тревогу у критиков вызывает то, что эти опасения уже не являются чисто теоретическими.

Washington Post недавно опубликовала отчёт о том, что Израиль уже использовал ИИ для выбора целей при бомбардировках. Согласно статье, солдаты, не имевшие достаточной подготовки в использовании этой технологии, атаковали человеческие цели, полагаясь исключительно на данные ИИ-системы под названием Lavender, без какой-либо дополнительной проверки. В некоторых случаях единственным критерием для атаки было то, что цель определялась как "лицо мужского пола".

Защитники применения ИИ в военной сфере утверждают, что эти технологии сделают военные действия безопаснее для солдат, позволяя им оставаться вдали от линии фронта, нейтрализовывать цели (например, склады с ракетами) и проводить разведку с безопасного расстояния. Они также отмечают, что дроны с ИИ могут наносить более точные удары. Однако всё зависит от того, как именно эти технологии будут использоваться. Критики же предлагают альтернативный подход — сосредоточиться на развитии систем подавления вражеских коммуникаций, чтобы затруднить противникам, запуск их собственных дронов или ядерного оружия.

Хотя OpenAI запрещает использование своих продуктов для разработки оружия или "автоматизации определённых систем, которые могут повлиять на личную безопасность", компания в прошлом году объявила о партнерстве с оборонной компанией Anduril (производителем дронов и ракет) для создания систем защиты от атак дронов. Заявленная цель — "быстрый синтез срочных данных, снижение нагрузки на операторов-людей и улучшение ситуационной осведомленности".

Особую обеспокоенность общественности вызывает тот факт, что даже при том, что OpenAI блокирует использование своего ИИ для создания оружия, то всё равно существует множество открытых альтернативных моделей, которые могут быть использованы для тех же целей. В сочетании с возможностью 3D-печати оружия это созда?т опасную ситуацию, когда самодельные автономные боевые системы вооружения смогут создаваться практически в домашних условиях

Cyberpunk Today


Источник: vk.com

Комментарии: