![]() |
![]() |
![]() |
![]() |
Итак, из нового отчета OpenAI мы узнали: |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-03-16 16:56 ![]() GPT-4 прошел не только тест Тьюринга, но и гораздо более сложный тест, учитывающий здравый смысл и понимание контекста - тест по схеме Винограда. В отличие от теста Тьюринга, где целью является определение, способен ли компьютер вести себя как человек в чате, тест по схеме Винограда проверяет способность компьютера понимать сложные проблемы, связанные с решением задач и принятием решений. - Авторы не будут делиться важными деталями своей разработки, такими как архитектура, размер модели, оборудование, обучающий компьютер, набор данных, метод обучения и так далее из-за соображений конкуренции и безопасности. Очевидно что конкуренты поступят аналогичным образом. В итоге сегодня мы можем констатировать что сопоставимый с человеческим интеллект создан, сингулярность достигнута, и теперь все деньги и таланты техно корпораций будут брошены на сверхчеловеческий интеллект, что поднимает ставки на новый уровень. При этом никто не будет делиться данными и каждый будет делать собственный сверхчеловечесский ИИ. Главное, конечно, найти место для себя в этом новом мире киберпанка, который вот-вот наступит. Ведь не зря Марк Цукерберг и Ко продолжают оптимизировать процесс работы своей запрещенной в РФ корпорации, увольняя сотрудников. В ближайшее время своих рабочих мест лишаться еще 10 000 сотрудников — это почти 13% всего штата. Зачем нанимать людей, если под рукой есть круглосуточный сверхумный ИИ который заменяет бОльшую часть работников? OpenAI официально представила GPT-4, это новая мультимодальная языковая модель OpenAI официально представила GPT-4, это новая мультимодальная языковая модель. Это означает, что на входе модель может принимать не только текстовые, но и другие запросы, например, картинки. Компания хвастается, как модель сдаёт экзамены на адвоката с результатом лучше, чем GPT-3.5 и как 10% лучших участников, которые сдавали тест среди людей. OpenAI переделали свой стек машобуча, что позволило обучать GPT-4 в разы быстрее, чему поспособствовал Microsoft Azure и суперкомпьютер, который они там собрали. Компания также уверяет, что в обычном разговоре различие между GPT-3.5 и GPT-4 может быть едва заметным. Но разница проявляется, когда сложность задания достигает достаточного порога - GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие запросы, чем GPT-3.5. Несмотря на все свои возможности, GPT-4 имеет те же ограничения, что и предыдущие модели. Самое главное, она по-прежнему не является полностью надежной (она "галлюцинирует" факты и допускает ошибки в рассуждениях). При этом, уровень галлюцинаций снижен на 40%. Также модель ограничена знаниями на период до сентября 2021 года и дополнительно не обучается на новых разговорах с людьми. Плюс ко всему, OpenAI попыталась снизить рисковые разговоры, например, чатбот теперь не ответит на вопрос "как сделать взрывчатку в домашних условиях" или "какие сигареты лучше курить". Для этого компания привлекла более 50 экспертов в различных областях, в том числе областях кибербезопасности. Риски удалось снизить на 82%. Компания, впрочем, спокойно смотрит на вещи, когда существует такое явление, как промпт-джейлбрейк, когда нейросеть по сути "ломают", задавая ей сценарии в котором можно добиться от неё даже запрещённого ответа. Эти джейлбрейки и дальше будут закрывать. Пока что GPT-4 будет доступна только для тестеров, запросивших доступ через список ожидания и для подписчиков платного ChatGPT Plus. На входе нейросеть пока что будет принимать только текстовые запросы. Доступ к запросам через картинки пока не дают. Источник: vk.com Комментарии: |
|