В Google ввели запрет на разработку искусственного интеллекта для военных

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


После требований сотрудников компании отказаться от участия в проекте Минобороны США Google опубликовала правила работы над искусственным интеллектом. В компании пообещали больше не участвовать в создании ИИ для «умного оружия»

Сундар Пичаи (Фото: Robert Galbraith / Reuters)

Специалисты компании Google не будут заниматься разработками в сфере искусственного интеллекта в военных целях, сообщил генеральный директор компании Сундар Пичаи. В корпоративном блоге Google он опубликовал семь основных принципов, в соответствии с которыми будут продолжаться работы в этом направлении.

Опубликованные главой Google принципы были разработаны после протестов сотрудников компании против работы на Пентагон. Компания планировала участвовать в проекте по созданию искусственного интеллекта для военных беспилотников.

Сундар Пичаи напомнил, что уже сейчас технологии искусственного интеллекта и машинного обучения имеют большое общественное значение. Системы с ИИ используются для прогнозирования риска возникновения пожаров, борьбы с раком, сельскохозяйственных работ и многих других целей. «Мы признаем, что такая мощная технология вызывает столь же значимые вопросы о ее будущем использовании. То, как и с какими целями ИИ разрабатывается и используется, окажет значительное влияние на наше общество в будущем. Являясь лидером в области разработки искусственного интеллекта, мы чувствуем большую ответственность. Поэтому сегодня мы объявляем семь принципов, которых будем придерживаться в нашей работе в будущем», — написал он.

В новых принципах работы компании говорится, что исследования в сфере искусственного интеллекта будут проводиться Google со всей ответственностью. Специалисты компании не будут заниматься созданием ИИ для «потенциально опасных» проектов. Все разработки должны приносить пользу обществу и обеспечивать безопасность людей, пообещал Сундар Пичаи. Особо он подчеркнул, что искусственный интеллект должен оставаться под контролем людей. «Наши технологии ИИ будут находиться под соответствующим человеческим руководством и контролем», — заявил глава Google. Кроме того, в числе базовых принципов разработки ИИ будут конфиденциальность данных и безопасность применения.

Отдельно Сундар Пичаи выделил четыре «запретных направления» работы компании в сфере ИИ. По его словам, Google никогда не будет заниматься разработкой ИИ для тех целей, которые могут принести вред обществу, в целях нарушения прав человека и международных правовых норм. Особо он подчеркнул, что искусственный интеллект Google не будет применяться для создания оружия и в интересах военных.

Как стало известно в феврале 2018 года, подразделение Google Cloud занималось разработкой искусственного интеллекта в рамках военного проекта Maven. Целью этого проекта было создание ИИ для военных беспилотников. Специалисты Google занимались вопросами машинного обучения, которое должно было позволить дронам различать отдельные цели с помощью анализа данных с видеокамер.

Руководство компании, в том числе Фей-Фэй Ли, глава проекта по разработке искусственного интеллекта в Google Cloud, пыталось скрыть от общественности участие в проекте Maven, писала в мае The New York Times. В частности, сотрудникам было запрещено обсуждать проект по электронной почте, чтобы исключить риск утечки данных. После публикации издания Gizmodo об участии Google в исследованиях Пентагона сотрудники компании создали петицию с требованием остановить работы по созданию ИИ в военных целях. Свои подписи под требованием поставили порядка 4 тыс. сотрудников ИТ-гиганта. После этого руководство было вынуждено сообщить об отказе от продления контракта с Министерством обороны США.


Источник: www.rbc.ru

Комментарии: