The New Yorker утверждает: Сэм Альтман — социопат и патологический лжец |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-19 12:13 Новое расследование The New Yorker, основанное на сотне интервью и закрытых документах, рисует портрет Сэма Альтмана как лидера, склонного к манипуляциям и пренебрежению этикой. Авторы детально описывают, как в OpenAI системно подрывались механизмы безопасности — от ложных докладов совету директоров до роспуска ключевых команд по безопасности. Расследование также вскрывает связи Альтмана с автократическими режимами и упоминает его активный лоббизм в Белом доме. В итоге авторы задаются вопросом: допустимо ли, чтобы мощной технологией управлял человек, чья карьера, по свидетельству коллег, построена на «социопатическом отсутствии заботы о последствиях обмана»? Кульминацией противоречий стало кратковременное увольнение Альтмана в ноябре 2023 года. Инициатором выступил главный научный сотрудник OpenAI и член совета директоров Илья Суцкевер, который разослал членам совета секретные меморандумы объёмом около 70 страниц. В них утверждалось, что Альтман систематически вводил руководство в заблуждение, в том числе по вопросам безопасности моделей и внутреннего управления. Совет уволил его, сославшись на «недостаточную откровенность», однако уже через пять дней вернул на пост под давлением инвесторов и сотрудников. Сам Альтман в тот период угрожал временному CEO Мире Мурати: его союзники искали компрометирующую информацию, чтобы уничтожить её репутацию. Позже он заявил, что «не помнит» этого. Согласно документам и свидетельствам, Альтман годами давал разным сторонам противоречивые обещания и представлял решения как согласованные, хотя это было не так. Он заверил совет, что спорные функции GPT-4 прошли одобрение панели безопасности, — это оказалось ложью. Он «забыл» сообщить, что Microsoft выпустила ChatGPT в Индии без обязательной проверки. Подобные эпизоды, по словам источников, носили не единичный, а системный характер. Один из членов совета описал Альтмана так: «У него две черты, которые почти никогда не встречаются в одном человеке. Первая — сильное желание нравиться людям. Вторая — почти социопатическое отсутствие заботы о последствиях обмана». Схожие оценки давали и бывшие сотрудники. Один из ключевых исследователей OpenAI Дарио Амодеи в личных записях описывал повторяющиеся ситуации, в которых Альтман отрицал очевидные факты или менял позицию в зависимости от аудитории. В 2020 году, после того как Альтман ложно обвинил его и его сестру в «планировании переворота», Амодеи покинул OpenAI и основал Anthropic — одного из ключевых конкурентов компании Альтмана. В своих заметках он прямо написал: «Проблема OpenAI — это сам Сэм». Печальная судьба постигла и команду «супервыравнивания» (superalignment) во главе с Суцкевером — её задачей было разработать методы контроля за поведением сверхразумного ИИ, чтобы тот не вышел из-под контроля. Компания обещала выделить на это 20% всех вычислительных мощностей, но в 2024 году команду распустили. Группу AGI-готовности, созданную для адаптации общества к общему искусственному интеллекту, — тоже. В последней налоговой форме OpenAI слово «безопасность» вообще не упоминается как значимая деятельность. Независимая организация Future of Life Institute, изучающая риски от технологий, поставила OpenAI оценку F (то есть «полный провал») по шкале экзистенциальной безопасности. Для сравнения, Anthropic получил D, а Google DeepMind — D-. Расследование изучило и более ранние места работы Альтмана. В 2005 году он основал стартап Loopt — приложение, которое показывало друзьям, где ты находишься. Бизнес не пошёл. Старшие сотрудники дважды просили совет директоров уволить Альтмана с поста CEO, потому что не доверяли его управлению, но совет отказался. В 2012 году Loopt продали — по словам источника, сделку организовали в основном для того, чтобы Альтман «сохранил лицо». Затем Альтман возглавил Y Combinator. Там коллеги обвиняли его в том, что он лично инвестировал в самые перспективные проекты и не пускал туда других инвесторов. Пол Грэм, основатель Y Combinator, позже говорил, что Альтман «всё время лгал». Сам Альтман отрицает обвинения. Значительное внимание в расследовании уделено международным связям Альтмана. В 2018 году, через неделю после убийства журналиста Джамаля Хашогги, в котором обвинили наследного принца Саудовской Аравии, Альтман вошёл в совет проекта «города будущего» Neom, который строил этот принц. Его тогда больше волновала не этика, а потенциальные санкции. Позже он сблизился с шейхом Тахнуном из ОАЭ — главой разведки и куратором фондов на $1,5 трлн, называл его «дорогим другом», принимал в подарок гиперкары за $2 млн и посещал его суперъяхту за $250 млн. Из-за этих связей администрация Байдена отказала ему в доступе к секретным данным. Ещё раньше, в 2017–2018 годах, внутри OpenAI обсуждался план прямого столкновения ядерных держав: сооснователь Грег Брокман предлагал устроить аукцион между США, Китаем и Россией за доступ к AGI. Даже с возможностью военного столкновения. Альтман не возражал. План свернули только после угроз массового увольнения. С нынешней администрацией Альтман установил дружеские отношения. После победы Трампа на выборах 2024 года он перечислил миллион долларов в инаугурационный фонд. Через два дня после инаугурации, когда Трамп отменил указ Байдена о безопасности ИИ, Альтман стоял в Белом доме и анонсировал проект Stargate — строительство инфраструктуры для ИИ по всей Америке на $500 млрд. Позже он заключил с Пентагоном контракт на $50 млрд, заменив компанию Anthropic, которая отказалась снимать запрет на полностью автономные вооружения. Расследование не выявило доказательств самых тяжелых обвинений, слухи о которых появлялись ранее, — половых контактов с несовершеннолетними и причастности к убийствам. Также не найдено финансовых махинаций. Однако десятки эпизодов систематического обмана, угроз сотрудникам, сделок с автократиями и уничтожения внутренних механизмов безопасности формируют, по мнению авторов, недопустимую модель управления для человека, который контролирует самую мощную технологию в истории. Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|