OpenAI представила дорожную карту развития AGI |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-07-13 14:05 Во время внутреннего собрания OpenAI обсудила новую дорожную карту для разработки AGI (Общего искусственного интеллекта). Агентство Bloomberg поделилось её подробностями, узнав их от сотрудников. OpenAI предложила следующие пять уровней для отслеживания прогресса в создании AGI:
В настоящее время разработки OpenAI достигли уровня 1. Будущая система искусственного интеллекта уровня 2 сможет выполнять основные задачи по решению проблем на уровне доктора наук, обещает компания. Во время собрания OpenAI также продемонстрировала исследовательский проект с использованием своей модели GPT-4, чтобы протестировать навыки, связанные с человеческим мышлением. В ближайшем будущем компания поделится дополнительной информацией об уровнях AGI с инвесторами и широкой общественностью. OpenAI — не первая организация, предложившая такой уровень развития ИИ. Команда DeepMind из Google Research недавно разработала свою дорожную карту AGI:
Между тем сооснователь OpenAI Илья Суцкевер объявил о запуске новой компании Safe Superintelligence Inc. (SSI — «Безопасный Суперинтеллект»). Проект предназначен для создания безопасного сверхинтеллекта (SSI). «Мы будем стремиться к созданию безопасного сверхразума, с фокусом на одной задаче, с одной целью и с одним продуктом. Мы сделаем это посредством революционных прорывов, произведённых небольшой опытной командой разработчиков. Присоединяйтесь к нам», — уточнил Суцкевер. Источник: habr.com Комментарии: |
|