Мощное заявление Сноудена: не верьте Open AI и не пользуйтесь ее продуктами, компания только что предала всех землян

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Компания Open AI (разработчик нейросети GPT4 и других) назначила в свой совет директоров бывшего главу Агентства национальной безопасности США Пола Накасоне. АНБ – структура, которая ассоциируется с тотальной слежкой за всеми без разбора, своими и чужими, и чудовищными нарушениями прав человека и у себя в стране, и вообще. Официально Накасоне займется безопасностью в самой компании, но все все понимают.

А как хорошо понимает Эдвард Сноуден, бывший сотрудник АНБ, разоблачивший делишки агентства. Он отреагировал незамедлительно.

«Они сняли маску. Не доверяйте Open AI, не пользуйтесь их продуктами. Они предали умышленно и расчетливо интересы всех людей на планете. Я вас предупредил», написал Сноуден.

Его можно заподозрить в паранойе, но он не одинок. «У них единственная цель – массовая слежка за населением. Это все, для чего нужен ИИ», написал профессор криптографии Университета Джонса Хопкинса Мэтью Грин.

Ну и как бы тут не добавить ничего.

Руководитель Open AI предупреждает, что человечество может стать «порабощённым» ИИ

СУЩЕСТВУЕТ ЗНАЧИТЕЛЬНЫЙ РИСК НЕПРАВИЛЬНОЙ РАЗРАБОТКИ, КОТОРАЯ НЕ УЛУЧШИТ НАШУ ЖИЗНЬ, А НАОБОРОТ, УВЕЛИЧИТ РИСК

Мира Мурати, технический директор Open AI, которую представляют как «самую влиятельную женщину в области искусственного интеллекта», заявила в интервью 28 сентября на фестивале The Atlantic Festival в Вашингтоне, округ Колумбия, что способность ИИ-технологии точно определять симпатии и интересы пользователей создают риск сделать их ещё более зависимыми от ИИ, чем уже существующие технологии, такие как социальные сети и компьютерные игры.

«С такими способностями и расширенными возможностями появляется и другая сторона — возможность того, что мы разработаем их неправильно, и они станут вызывать сильную зависимость, и мы как бы попадём в рабство к ним», — пояснила она.

Бизнесвумен албанского происхождения также подчеркнула, что исследователям необходимо определить, как люди реагируют на вызывающие привыкание технологии, чтобы снизить потенциальные риски.

«На самом деле мы ничего не знаем заранее. Мы должны открывать, изучать и исследовать, — пояснила Мурати. — Существует значительный риск сделать их, разработать их неправильно, так, что это не улучшит нашу жизнь, а, наоборот, увеличит риск».

«Я думаю об этом с точки зрения компромиссов: насколько ценна эта технология в реальном мире, и насколько мы снижаем риски», — продолжила она.

34-летняя бизнесвумен также рассказала о неизбежном влиянии ИИ на рынок труда: миллионы работников могут потерять работу из-за автоматизации. Согласно исследованию Goldman Sachs, опубликованному в начале этого года, эта цифра может достигать 300 млн человек.

«Как и в случае с любой другой технологической инновацией, я думаю, что будет потеряно много рабочих мест — возможно, это повлияет на ситуацию с рабочими местами сильнее, чем любая другая инновация, — сказала Мурати. — И мы должны подготовиться к этому новому образу жизни».

Компания OpenAI, основанная в 2015 году, является исследовательской организацией, целью которой является развитие искусственного интеллекта на благо человечества. Наиболее известным продуктом организации является ChatGPT — языковая модель, способная эффективно отвечать на практически бесконечное количество запросов пользователя.

В состав совета директоров OpenAI входили Илон Маск и Сэм Альтман. Маск вышел из состава совета директоров в 2018 году и с тех пор публично выражает неодобрение переходу компании от некоммерческой модели с открытым исходным кодом к конкуренции в качестве платформы с закрытым исходным кодом.

Формирование будущего сейчас

В интервью журналу TIME в феврале этого года Мурари также рассказала о том, что мир переживает «уникальный момент» в том, как он реагирует на риски, связанные с ИИ.

«Это уникальный момент времени, когда мы действительно можем влиять на то, как он формирует общество. И это происходит в обоих направлениях: технология формирует нас, а мы формируем её, — сказала она тогда. — Нам предстоит решить множество сложных проблем. Как заставить модель делать то, что вы хотите, и как сделать так, чтобы она соответствовала намерениям человека и в конечном счёте служила человечеству?»

«Существует также множество вопросов, связанных с влиянием на общество, и множество этических и философских вопросов, которые нам необходимо рассмотреть, — добавила Мурари. — И очень важно, чтобы мы привлекали к обсуждению различные точки зрения — философов, социологов, художников и представителей гуманитарных наук».


Источник: vk.com

Комментарии: