Я сделал локального AI-агента для России. Без VPN, без подписки, без облака |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-28 11:18 Я работаю разработчиком. Каждый день пишу код, ревьюю PR, хожу на стендапы. Обычная жизнь в 2026 году — только за последние полтора года она изменилась сильнее, чем за предыдущие пять. Cursor, Claude Code, Copilot. Коллеги из западных команд говорят, что скорость разработки выросла в два раза. Не в полтора — в два. Это не хайп, это реальные цифры от реальных людей. А потом закрываешь ноутбук и понимаешь: большинство этих инструментов в России либо не работают нормально, либо требуют VPN который отвалится в самый неподходящий момент, либо стоят $20 в месяц которые ещё надо как-то оплатить иностранной картой. Это меня достало. Поэтому я сделал своё. Как это началось Всё началось с простого вопроса: а как вообще эти агенты работают под капотом? Я привык разбираться в вещах, которыми пользуюсь. Открыл репозитории, почитал про agentic loop, tool calling, планировщики. Потом написал первую версию для себя. Потом вторую. Потом обнаружил, что провожу выходные не за сериалами, а за отладкой браузерного агента и думаю о том, как правильно обрабатывать retries в агентном цикле. Классический разработчик который начал делать «простую штуку» и не смог остановиться. В какой-то момент у меня на руках был рабочий агент. Он умел искать в интернете, открывать страницы, читать их содержимое и отвечать на вопросы — причём показывал каждый шаг: «ищу ? открываю ? читаю ? отвечаю». Я использовал его каждый день. Никому не показывал. Момент когда стало понятно — надо выпускать Показал знакомому. Он смотрел как агент сам открывает сайты, читает страницы, структурирует данные — и у него было такое лицо, как будто я показал фокус. «Это вообще что? Это можно скачать?» Нельзя. Потому что это был мой личный инструмент. Без нормального UI, без онбординга — чтобы им пользоваться, нужно было понимать как он устроен изнутри. Обычному человеку это не нужно. Ему нужно написать задачу и получить результат. Поэтому я сделал Доку. Взял то что построил, упаковал в нормальное десктопное приложение с человеческим интерфейсом. Добавил главное — локальную модель которая работает без интернета и без облака. Почему локальная модель — это не компромисс Когда я только начинал думать о Доке, локальные модели казались слабым вариантом. Да, нет зависимости от интернета, но качество хуже. За последний год эта пропасть закрылась настолько, что я перестал об этом думать. Qwen3 которую Дока ставит по умолчанию — это нормальная рабочая модель. Не GPT-5, но для 90% реальных задач — ищи в интернете, открой страницу, разберись что там написано, ответь на вопрос — её хватает с запасом. При этом: - Всё что ты пишешь остаётся на твоём компьютере - Работает без интернета после первой загрузки - Не зависит от того, заблокируют ли завтра ещё что-нибудь - Ноль рублей в месяц Для меня как для человека который работает с кодом и иногда с чувствительными данными — это не компромисс, это преимущество. Что я делаю с Докой каждый день Не буду писать пресс-релиз. Вот реальные сценарии: Ресёрч перед задачей. Когда нужно разобраться в незнакомой теме — архитектурное решение, библиотека, подход — я не гуглю сам. Пишу в Доку «разберись как работает X и объясни плюсы и минусы для нашего кейса». Агент сам ищет, читает документацию, возвращает структурированный ответ. Минут за пять вместо часа. Мониторинг индустрии. Каждое утро пишу «что интересного вышло в мире ML и backend за вчера». Дока делает несколько запросов, читает профильные источники, возвращает дайджест. Остаюсь в курсе не тратя время на бесконечный скроллинг. Разбор незнакомой документации. «Зайди на эту страницу и объясни как правильно настроить X для нашего случая». Особенно полезно когда документация большая и плохо структурированная. Просто когда лень. Это звучит несолидно, но это правда. Большинство вещей которые я делегирую Доке — это вещи которые я мог бы сделать сам но не хочу. И это нормально. Что будет дальше Текущая версия — осознанный минимум. Поиск в интернете и работа с веб-страницами. Этого хватает для старта и для того чтобы понять что людям реально нужно. Дальше планирую добавлять постепенно: Работа с файлами — читать, анализировать, редактировать локальные документы- Скриншот экрана— «посмотри что у меня открыто и помоги разобраться» Долгосрочная память — агент будет помнить ваши предпочтения между сессиями Фоновые задачи — поставил задачу, агент выполняет пока ты занимаешься другим Приоритеты буду расставлять по фидбеку. Если что-то из этого нужно прямо сейчас — пишите в комментариях. Попробовать https://dokaai.ru — бесплатно. Windows 10/11 и macOS 12+. Никакого терминала — скачал, запустил, написал задачу. Модель скачивается автоматически при первом запуске, приложение само выбирает подходящую под ваше железо. Буду рад фидбеку — особенно про баги и про то чего не хватает. Это важнее похвалы. Телеграм: t.me/ainewsline Источник: habr.com Комментарии: |
|