![]() |
![]() |
![]() |
![]() |
А что, если ОИИ так и не будет достигнут? Эксперты развенчивают миф о всемогуществе вычислительных технологий |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-03-27 17:21 ![]() В последние годы гиганты искусственного интеллекта сосредоточили свои усилия на увеличении вычислительной мощности в надежде достичь общего искусственного интеллекта (ОИИ) - гипотетической формы ИИ, которая должна сравняться или превзойти когнитивные способности человека. В 2023 году Шейн Легг, соучредитель Google DeepMind, оценил 50-процентную вероятность появления ОИИ к 2028 году. OpenAI, в свою очередь, казалось, приближается к этому со своей моделью o1. Однако недавний опрос подтверждает этот оптимизм. Многие исследователи теперь считают, что простого увеличения вычислительных мощностей, вероятно, будет недостаточно для появления ОИИ. Опрос 475 исследователей ИИ, проведенный Ассоциацией по развитию искусственного интеллекта (AAAI), показал, что подавляющее большинство скептически относится к возможности достижения ОИИ путем простого усиления существующих моделей. Согласно результатам исследования, 76 % опрошенных экспертов считают этот путь маловероятным. Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли и один из авторов отчета, сказал New Scientist: «Масштабные инвестиции в масштабирование без эквивалентных усилий по пониманию глубинных механизмов всегда казались мне ошибочными». «Примерно год назад все поняли, что классические преимущества масштабирования достигли плато», — добавляет он. Цифры подтверждают масштаб инвестиций: по данным TechCrunch, в 2024 году в генеративный ИИ было вложено более 56 миллиардов долларов венчурного капитала, в основном для строительства центров обработки данных, необходимых для этих моделей. В начале 2024 года президент Дональд Трамп также объявил о крупном проекте «Звездные врата» стоимостью 500 миллиардов долларов. Еще одной серьезной проблемой является энергопотребление моделей ИИ. Для их работы требуются колоссальные ресурсы, и эта потребность постоянно растет. Совершенствование ИИ: хрупкий баланс Сейчас все чаще высказываются сомнения в том, что ИИ может развиваться исключительно за счет увеличения вычислительной мощности. В качестве примера можно привести появление DeepSeek, ИИ китайского стартапа, способного конкурировать с западными моделями при гораздо меньших затратах. В ноябре прошлого года появились сообщения о результатах работы команды OpenAI: новая версия языковой модели GPT не показала значительных улучшений по сравнению с предшественниками. Месяц спустя генеральный директор Google Сундар Пичаи заявил, что «легкие успехи» в области ИИ уже «позади», но при этом утверждал, что в этой сфере еще есть значительные возможности для совершенствования. В феврале генеральный директор Microsoft Сатья Наделла нарисовал неоднозначную картину состояния ИИ. Несмотря на огромные инвестиции, он заявил, что ИИ пока не продемонстрировал реальной добавленной стоимости или значительного экономического эффекта. Тем не менее Microsoft планирует потратить 80 миллиардов долларов на инфраструктуру ИИ к 2025 году. Изменение приоритетов среди исследователей Опрос AAAI также свидетельствует о смене приоритетов исследователей. Семьдесят семь процентов из них теперь ставят во главу угла анализ рисков и выгод, связанных с ИИ, отодвигая на второй план поиск общего искусственного интеллекта, которым занимаются лишь 23 % из них. Наметился этический консенсус: 82 % опрошенных исследователей выступают за государственный контроль в случае появления ИИ, чтобы ограничить общие риски. Только 30 % считают, что исследования должны быть остановлены, большинство же призывают к созданию надежных технических гарантий. В связи с этим появляются новые подходы, призванные сделать искусственный интеллект более эффективным, не прибегая к систематической эскалации ресурсов. Например, OpenAI тестирует «вычисления в тестовое время» - метод, позволяющий искусственному интеллекту тратить больше времени на размышления перед формулировкой ответа, и, как утверждается, дающий результаты, сопоставимые с теми, которые достигаются при масштабном масштабировании. Но Арвинд Нараянан, компьютерный ученый из Принстона, считает, что этот метод нельзя считать «чудо-решением». Источник: new-science.ru Комментарии: |
|