![]() |
![]() |
![]() |
![]() |
OpenAI назначает генерала армии США в отставке Пола М. Накасоне членом совета директоров |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-06-14 15:57 ![]() Накасоне приносит опыт кибербезопасности растущему Совету директоров; войдет в состав Комитета по безопасности и безопасности Совета директоров. Сегодня к нашему Совету директоров присоединился генерал армии США в отставке Пол М. Накасоне . Назначение Накасоне, ведущего эксперта в области кибербезопасности, отражает приверженность OpenAI обеспечению безопасности и подчеркивает растущее значение кибербезопасности, поскольку влияние технологий искусственного интеллекта продолжает расти. В качестве первоочередной задачи Накасоне присоединится к Комитету Совета директоров по безопасности и защите , который отвечает за выработку рекомендаций всему Совету директоров по критическим решениям в области безопасности и защиты для всех проектов и операций OpenAI. Безопасность систем OpenAI — от защиты больших обучающих суперкомпьютеров искусственного интеллекта, которыми мы пользуемся, до обеспечения безопасности наших чувствительных моделей и данных, доверенных нам клиентами, — имеет решающее значение для достижения нашей миссии. По мере того как технология искусственного интеллекта становится все более эффективной на пути к общему искусственному интеллекту (AGI), мы со временем становимся более устойчивыми к все более сложным угрозам кибербезопасности. Идеи Накасоне также будут способствовать усилиям OpenAI по лучшему пониманию того, как ИИ можно использовать для усиления кибербезопасности за счет быстрого обнаружения угроз кибербезопасности и реагирования на них. Мы считаем, что искусственный интеллект может принести значительную пользу в этой области многим учреждениям, часто подвергающимся кибератакам, таким как больницы, школы и финансовые учреждения. «Искусственный интеллект обладает потенциалом оказать огромное положительное влияние на жизнь людей, но он сможет реализовать этот потенциал только в том случае, если эти инновации будут надежно созданы и развернуты», — сказал Брет Тейлор, председатель правления OpenAI. «Беспрецедентный опыт генерала Накасоне в таких областях, как кибербезопасность, поможет OpenAI в достижении своей миссии по обеспечению общего искусственного интеллекта, приносящего пользу всему человечеству». Генерал Накасоне поделился своим мнением о вступлении в Совет директоров, заявив: «Приверженность OpenAI своей миссии тесно связана с моими собственными ценностями и опытом государственной службы. Я с нетерпением жду возможности внести свой вклад в усилия OpenAI по обеспечению безопасности и пользы искусственного интеллекта для людей во всем мире». Генерал армии США в отставке Пол М. Накасоне — ведущий эксперт в области кибербезопасности, развития технологий и глобальной киберзащиты. За свою карьеру армейского офицера он сыграл решающую роль в создании Киберкомандования США. Он был лидером USCYBERCOM дольше всех, а также возглавлял Агентство национальной безопасности, где ему было поручено защищать цифровую инфраструктуру Соединенных Штатов и развивать возможности киберзащиты страны. Он занимал командные и штабные должности на всех уровнях армии США, выполняя задания в элитных киберподразделениях в США, Республике Корея, Ираке и Афганистане. Источник: openai-com.translate.goog Комментарии: |
|