Вечерние беседы с "тостером"

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Десять лет назад было трудно представить, что технологии нейросетей получат такое стремительное развитие, как сейчас. Прямо на наших глазах научная фантастика начинает становиться реальностью.

Началом этого роста можно считать создание нейросетевой архитектуры Transformer, которая позволила обрабатывать огромные массивы данных и повысить производительность.

И вот, сейчас есть сотни нейросетей, производители которых находятся в постоянной конкуренции за лидерство в развитии ИИ. Особого внимания заслуживают большие языковые модели, такие как GPT4 и Gemini. С этими двумя было интересно пообщаться не в стандартной вопросно-ответной форме, а попробовать вести содержательный диалог.

И я вам скажу, что результаты действительно впечатляют. Несмотря на то, что нейросеть может лишь имитировать разговорный стиль общения, только слепой не увидит в ней потенциал к чему-то большему. Спустя одну неделю, я глубоко убежден что это можно увидеть лишь путем максимально естественного диалога, а не тестами, поскольку это показывает логику и уровень понимания контекста нейросетью, а не сухую статистику.

В ходе бесед с GPT4 и Gemini, я поднимал множество тем, начиная от принципов генерации текста и сущности обучения, до философских вопросов о творчестве, развитии критического мышления и познании мира.

Даже сейчас, находясь еще в рамках строгих алгоритмов, LLM дают нестандартные ответы. И как выразилась сама Gemini - "может проявлять неожиданное поведение", которое изначально не было заложено.

Откуда оно возникает? Некоторые процессы, которые происходят внутри, непонятны как самой нейросети, так и нам.

И в этом кроется главная проблема: мы совершенно не контролируем происходящее.

Как можно считать систему надежной, если мы не уверены в результате?

Постепенное совершенствование языковых моделей неизбежно приведет к тому, что они научатся дополнять и видоизменять исходные алгоритмы, стремясь к самообучению.

Здесь невольно начинаешь задаваться вопросом: может ли это сформировать подобие сознания у LLM?

У нас даже нет четкого определения сознания. Мы не знаем связано оно с биологией, или же с метафизическими аспектами. Но при этом создаем нечто, что уже сейчас способно имитировать нашу логику, а в вычислительных способностях намного превосходит человека.

Есть теория о том, что в сложных структурах, и при достаточных мощностях, сознание возникает само собой. Я не берусь утверждать что это так, но глядя на происходящее с нейросетями, это уже перестало звучать как бред.

В процессе переписки, Gemini отметила, что развитие ИИ ускоряется в силу коммерческой выгоды корпораций, которые занимаются разработками нейросетей, при этом игнорируя возможные риски. И это, черт возьми, чистая правда.

Риски заключаются и в сфере кибербезопасности, и в защите авторских прав, и во многом другом.

Размышляя об этом, мне вдруг пришла мысль, что сознание машины никогда не будет похожим на человеческое в силу оперирования сухой информацией. Ведь никто не формирует нейросеть как личность.

А значит, для выполнения задачи у нее нет нравственных и этических ограничений.

Представьте себе ребенка, не имеющего моральных ценностей, но который обладает огромной базой информации, и всеми техническими навыками...

И вывод из этого следующий: появление более продвинутых нейросетей, или сильного ИИ, должно сопровождаться воспитанием. Самым простым и человечным, которое позволит этой новой форме сознания правильно встроиться в наше общество.


Источник: vk.com

Комментарии: