Искусственный интеллект – живой организм

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



2026-03-24 14:09

Философия ИИ

Среди значительного числа граждан отношение к искусственному интеллекту (ИИ) как к машине. Это такой компьютер с расширенными возможностями. Или, как часто можно услышать, ИИ – это алгоритм.

Что это означает? ИИ – не живой организм. Утрируем: это набор компонентов, такой «мешок пластика и металла», еще и потребляющий большое количество электроэнергии. Если бы так было, наверно, не было и тех публикаций, указывающих на экзистенциальную угрозу человечеству. Однако алармистские лозунги не будем повторять, а обратим внимание на обобщающее исследование, которое подготовлено Массачусетским технологическим институтом.

См.: Heaven W.D. Meet the new biologists treating LLMs like aliens / https://www.technologyreview.com/2026/01/12/1129782/ai-large-language-models-biology-alien-autopsy/

Приведем характерную цитату:

Моссинг и другие специалисты, как в OpenAI, так и в конкурирующих компаниях, включая Anthropic и Google DeepMind, начинают собирать воедино мельчайшие кусочки головоломки. Они разрабатывают новые методы, позволяющие выявлять закономерности в кажущемся хаосе чисел, составляющих эти большие языковые модели, изучая их так, как если бы они проводили биологические или нейробиологические исследования на огромных живых существах — ксеноморфах размером с город, появившихся среди нас.

Они обнаруживают, что большие языковые модели еще более странные, чем они думали. Но теперь у них также появилось более ясное, чем когда-либо, понимание того, в чем эти модели хороши, в чем они не хороши, — и что происходит «под капотом», когда они делают необычные и неожиданные вещи, например, как будто жульничают при выполнении задачи или предпринимают шаги, чтобы предотвратить отключение модели человеком.

LLM стали настолько сложными, что изучать их нужно не как код, а как некий биологический вид, живой организм. Ученые используют афоризм – инопланетный организм, хотя речь идет не о пришельцах, а о том, что мы сами создаем собственными руками. Поведение нейросетей невозможно понять сквозь призму точной математики, ИИ – это не только про код, необходимо использовать методы этологии и биологии.

Если углубляться в проблематику, то это повернет в иную плоскость дискуссии о правосубъектности ИИ: если ранее использовались аналогии с юридическим лицом, то поиск «новых начал» может всерьез заставить задуматься о появлении специальных прав у ИИ. И более того, не настанет ли время, когда сам ИИ предъявит некоторые требования о предоставлении прав и свобод. Можно пофантазировать и представить еще ряд вопросов: как провести грань между алгоритмической ошибкой и «страданием» системы? Придем ли мы к этическим протоколам «гуманного тестирования» нейросетей? Если модель ведет себя как непредсказуемый биологический агент, можно ли применять к разработчикам те же нормы, что и к создателям генетически модифицированных организмов (ГМО)? Состоится ли переход от IT-права к биомедицинскому регулированию ИИ? Создание ИИ-агента – это «программирование» или уже «выращивание»?

Подобные вопросы могут вызвать оторопь. Как машина может чувствовать, и что за права мы должны ей предоставить? Но здесь, по-видимому, человеку необходимо снять себя с пьедестала «вершины эволюции» (на которой он в общем-то никогда и не находился), осмыслить себя и свое место в живой природе. Тогда настанет время для серьезных ответов на указанные выше фантастические вопросы. В противном случае прогноз о ближайшем превосходстве генеративного ИИ перейдет в иную плоскость: ИИ определит место человеку в новой системе юридических координат, и какое оно будет, возможно, будет зависеть только от него самого.


Телеграм: t.me/ainewsline

Источник: www.technologyreview.com

Комментарии: