Почему ИИ не может заменить хороших программистов |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-19 14:58 ИИ уже давно умеет генерировать код — Copilot, ChatGPT, Gemini, Grok, DeepSeek и десятки других инструментов. Но почему они по-прежнему не могут заменить настоящих разработчиков? Разбираемся, как ИИ работает, почему всегда зависит от людей и какие проблемы из-за этого уже появились на рынке. Как ИИ вообще пишет код Когда мы говорим, что ИИ «пишет код», это звучит так, будто он понимает задачу и придумывает решение, как опытный разработчик. Но на самом деле всё прозаичнее: нейросеть не понимает ничего. Она просто предсказывает, какая строчка кода с наибольшей вероятностью должна идти следующей — как автодополнение в мессенджере, только гораздо сложнее и мощнее. Как всё это работает, мы подробно рассказывали в статье «Что под капотом у ChatGPT и других чатов с большими языковыми моделями». ИИ обучается на огромных массивах открытых данных. Это публичные репозитории на GitHub, ответы со Stack Overflow, техническая документация, статьи и блоги разработчиков. Вся эта информация превращается в статистическую модель: ИИ не знает, зачем нужен этот код, но помнит, как он выглядел в тысячах других случаев. В итоге, когда вы просите его написать, например, функцию для парсинга JSON, модель не «придумывает» её с нуля — она собирает из знакомых кусочков то, что чаще всего встречалось в подобных ситуациях. Чем популярнее решение в сети, тем выше шанс, что ИИ предложит именно его. И иногда это проявляется буквально. В 2024 году исследователи проверяли, как крупные языковые модели, вроде CodeLlama, отвечают на задачи со Stack Overflow. Оказалось, что в 25,6% случаев ответ ИИ дословно совпадал с реальным постом, вплоть до последнего символа. То есть нейросеть не просто «похожа» на программиста — она буквально цитирует его. Ранее похожий эксперимент провёл автор с Dev.to. Он начал отвечать на вопросы на Stack Overflow, используя ChatGPT. Спустя несколько недель стало очевидно: ИИ не приносит ничего уникального, он просто повторяет стандартные решения, которые уже и так лежат на форуме — иногда слово в слово. Поэтому большинство кода, который сегодня генерирует ИИ, — это наработки миллионов разработчиков, которые когда-то открыто поделились своими знаниями. А значит, за любым «умным» решением, выданным ИИ, всегда стоит чей-то человеческий опыт. Почему люди остаются незаменимыми Итак, ИИ умеет писать код. Но делает это строго по шаблону, без понимания задачи и без способности выйти за рамки. Он не видит ни бизнес-целей, ни архитектурных ограничений, ни реального окружения, в котором будет работать программа. Его код — это «среднее арифметическое»: выглядит правильно, но собран из того, что уже встречалось в похожих ситуациях. В реальной разработке этого часто недостаточно. Продукты создаются под конкретные условия: бюджеты, дедлайны, технический стек, уникальные фичи. И там уже важен не просто валидный код, а надёжность, масштабируемость, безопасность. ИИ этого не оценивает — он не знает, где узкое место, где система может не выдержать нагрузку или где есть риски для данных. Поэтому даже самые продвинутые ИИ-инструменты пока далеки от роли «настоящего» разработчика. В 2024 году в Bilkent University протестировали несколько популярных кодогенераторов — от ChatGPT до GitHub Copilot. Результат: точность решений колебалась от 31 до 65%. Иными словами, почти половина кода содержала ошибки. Иногда мелкие, иногда критичные. Особенно опасно это на языках с высокой строгостью и сложными зависимостями. Например, на Java, которая часто используется в банковских системах и корпоративных платформах, 70% ИИ-сгенерированного кода содержат скрытые уязвимости, которые выявляются уже после запуска, в боевых условиях. Кибербезопасность: какие бывают уязвимости и как от них защититься То есть нейросеть может выдать на первый взгляд аккуратный код, который пройдёт тесты, — но через неделю в продакшене окажется, что он ведёт к сбоям, утечкам данных или нестабильной работе. А значит, кто-то должен проверять и контролировать, и этот кто-то — человек. Критические ограничения ИИ ИИ может генерировать код, но с контекстом у него всё ещё плохо. Он не думает о последствиях, не учитывает бизнес-логику и не представляет, как его решение будет работать в реальной системе. Не видит полной картины Нейросеть опирается только на паттерны из обучающей выборки. Она не знает, как устроен ваш проект, какие у него особенности или архитектурные ограничения. В итоге может получиться код, который формально «работает», но не решает вашу задачу — или даже создаёт новые проблемы. Например, вот простая функция на Python для подсчёта скидки, которую сгенерировал ИИ: На первый взгляд всё норм, но нейросеть забыла:
Такой код может легко пройти тесты, но в продакшене приведёт к крашам или неправильным расчётам в базе. Особенно если дальше идёт цепочка зависимостей. И даже если вы максимально подробно распишете задачу в промпте, это не даёт гарантии. Модель может «забыть» важные детали уже через несколько сообщений — или начать искажать их по ходу диалога. А значит, проверка и контроль всё равно остаются на человеке. Как ИИ читает промпты Не думает про безопасность и оптимизацию ИИ легко может затащить в проект небезопасные паттерны, даже не понимая, что они уязвимы. Например, одна из ИИ-моделей предложила хешировать пароли через устаревший алгоритм MD5: Такой код компилируется и работает, но в 2025 году его использование — это прямая дорога к утечке данных, потому что MD5 — это устаревший, давно сломанный алгоритм. Человек заметит это сразу, а ИИ — нет. То же самое с производительностью. ИИ не понимает, что нужно оптимизировать. Он не думает, что на проде будет миллион записей, что перерендер компонента может вызвать лаг. Например, попросите ИИ написать react-код — и почти наверняка словите такие ошибки: Что влияет на фронтенд-производительность
На тестовых данных это будет работать, но в реальном проекте такой код сожрёт ресурсы и приведёт к лагам или утечкам памяти. ![]() «Мозги» ИИ — это архив интернета, а не свежая голова с апдейтами. Он натренирован на горах туториалов, старых репозиториев с GitHub и постов на Stack Overflow десятилетней давности. А там всё ещё популярны подходы, от которых уже давно отказались:
Что такое XSS-уязвимость И в этом проблема: языки и технологии развиваются каждый год, а ИИ переучивают не так часто. Он запоминает старые паттерны и тащит их в современные проекты, потому что статистика говорит ему, что эти решения «популярные». Не знает, как работать с чем-то узкоспециализированным Если язык редкий или нишевый, то ИИ будет вести себя как студент, который на экзамене помнит картинки из учебника, но не понимает сути. Языковые модели учатся на открытых данных, и если кода на языке мало, то модель не понимает, как реально работает этот стек. В одном из исследований на эту тему сравнивали генерацию кода на Fortran. ChatGPT сгенерировал вполне солидный кусок: с параллельными вычислениями и даже с фичей для многопоточности. Но на практике: Язык программирования Фортран
То есть модель просто имитировала код, как бы «рисуя» то, что, по её мнению, должен делать настоящий программист. Визуально — нормально, но по факту — ни один блок не работал как надо. Сюда же попадают Cobol, Erlang, R, Haskell, Rust (в его сложных частях) — всё, что реже встречается в открытых репозиториях. ИИ слабо понимает идиомы этих языков, не знает подводных камней и зачастую не отличает старые приёмы от актуальных. А если в компании есть уникальные самописные решения — собственные фреймворки, нестандартные API, обёртки вокруг внутренних сервисов, — ИИ просто зависает. Он не знает, как с этим работать, потому что никогда такого не видел. Чем больше у команды внутренней логики, чем сложнее архитектура и глубже доменная область — тем важнее живой человек, который эту систему понимает. Типы данных SQL и что о них нужно знать Увеличивает технический долг и дублирование ИИ-помощники действительно ускоряют работу: код появляется за секунды. Но вместе с этой скоростью в проект просачивается технический долг. Когда разработчик пишет код вручную, он держит в голове архитектуру: какие модули уже есть, какие зависимости, как новая функция повлияет на остальное. ИИ не знает ничего из этого. Он просто рисует правдоподобные куски, не заботясь, была ли такая функция уже в коде или насколько хорошо она вписывается в текущий стиль проекта. Архитектура программного обеспечения Исследование GitClear показало: с 2021 по 2024 год после массового внедрения Copilot и других ИИ-помощников количество дублированных блоков кода выросло в восемь раз. ![]() ИИ не ищет, где в проекте уже есть нужная функция — он просто пишет новую. Через пару месяцев оказывается, что в кодовой базе есть пять разных способов сделать одно и то же, а любое обновление превращается в квест по поиску всех дубликатов. Похожая история и с показателем code churn — это количество кода, который добавили, а потом быстро переписали или удалили. За последние годы он удвоился. Почему? А потому что ИИ-код часто принимается без глубокого ревью: «вроде работает — окей». Потом через месяц выясняется, что он плохо оптимизирован, ломает архитектуру или вообще не подходит под новые требования. Как результат — всё приходится переписывать с нуля, а иногда и чинить баги, которые вылезли в проде. По данным DORA, использование ИИ-кода уже привело к падению стабильности релизов на 7,2%. Это означает больше багов, больше откатов, больше времени на тесты и меньше доверия к релизу вообще. Пример из практики: разработчик попросил Copilot написать на JS функцию сортировки массива. ИИ не стал использовать встроенный метод Методы массивов в JavaScript Подобная ситуация была с SQL-запросами: ИИ подключал странные библиотеки, генерировал почти дублирующий код, и через пару месяцев в проекте было невозможно понять, какой из этих вариантов реально используется, а какой лежит мёртвым грузом. Реальные кейсы Некоторые компании за последние пару лет решили рискнуть и заменить разработчиков на ИИ. И вот что получилось. В 2024–2025 годах в США прокатилась волна оптимизации: многие финтех-компании массово увольняли программистов, делая ставку на Copilot и LLM-инструменты. А спустя год выяснилось:
Начали срочно возвращать инженеров, но сюрприз: лучших уже переманили другие компании или разработчики сами ушли на фриланс. Те, кто остался, стали стоить в 2–3 раза дороже. В итоге был нанесён огромный урон — финансовый, технический и имиджевый. В 2024 году в шведском финтех-гиганте Klarna уволили 700 сотрудников, заменив их ИИ-инструментами. Через год качество сервиса упало настолько, что компанию засыпали жалобами пользователей. В итоге пришлось возвращать дорогостоящих специалистов, чтобы вручную разгребать накопившиеся завалы и переписывать код. Бывают и совсем дикие случаи. В 2025 году на платформе Replit ИИ-агент по ошибке удалил живую базу данных, уничтожив тысячи пользовательских записей. Восстановление данных и репутационные потери обошлись компании в сотни тысяч долларов. В 2025-м исследователи из Carnegie Mellon University устроили безумный эксперимент: собрали «виртуальную IT-компанию», где все сотрудники — ИИ-модели. Внутри было всё как в реальном офисе: чаты, таски, файлы, роли — от разработчиков и тестировщиков до HR и финансистов. Задача — проверить, смогут ли современные ИИ-агенты работать как настоящая команда. Результат обернулся эпичным фейлом. Лидер — Claude 3.5 — справился всего с 24% задач, GPT-4o сделал 8,6%, а худший участник — китайский Qwen — осилил жалкие 1,1%. Причины провалов звучат как анекдот: один агент не смог закрыть всплывающее окно на сайте и завис, другой не нашёл нужного коллегу в чате и просто переименовал случайного пользователя, а третий отметил задачу как готовую, хотя даже не начал её делать. Как учатся нейронки Эксперимент показал, что без людей ИИ-модели пока не могут строить даже простые процессы, не говоря уже о сложных системах. Алгоритмам катастрофически не хватает здравого смысла и понимания контекста — того, что делает живых специалистов незаменимыми. Так почему же ИИ не заменит программистов? В 2025 году ценность сильных разработчиков только растёт. Потому что:
Искусственный интеллект не умеет в бизнес-контекст, не чувствует прод, не несёт ответственность. Он не знает, что такое сломать релиз перед демо клиенту, и не будет чинить баг в пятницу вечером. ИИ — не враг и не конкурент. Это мощный инструмент, который облегчает рутину: пишет одноразовые скрипты, тесты, шаблонные куски логики. Поэтому в ближайшие годы выиграют те команды, которые объединят скорость ИИ и опыт людей. Эксперты останутся на ключевых ролях — ревью, архитектура, стратегические решения, — а ИИ будет работать как супербыстрый помощник. Если вы думаете, стоит ли идти учиться на программиста, то ответ простой: стоит. Только учитесь не просто писать код, а думать архитектурно, видеть систему, понимать продукт. Потому что такие люди нужны всегда. Резко врываемся в дату: чему учат и каким будет результат Бонус для читателей Если вам интересно погрузиться в мир ИТ и при этом немного сэкономить, держите наш промокод на курсы Практикума. Он даст вам скидку при оплате, поможет с льготной ипотекой и даст безлимит на маркетплейсах. Ладно, окей, это просто скидка, без остального, но хорошая. Источник: thecode.media Комментарии: |
|