Mistral выпустила Codestral Embed |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-30 17:24 Mistral AI представила Codestral Embed — свою первую модель для создания эмбеддингов кода, которая уже обходит ключевых конкурентов: Voyage Code 3, Cohere Embed v4.0 и крупные эмбеддинги от OpenAI. Codestral Embed заточена под реальные задачи: поиск релевантного кода по описанию, RAG для код-ассистентов, обнаружение дубликатов и семантическую кластеризацию. Модель доступна через API ($0.15 за миллион токенов) или со скидкой 50% в пакетном режиме доступа. Для локальных развертываний необходимо связаться с Mistral. Документация - на сайте (https://docs.mistral.ai/capabilities/embeddings/code_embeddings/), есть cookbook (https://colab.research.google.com/github/mistralai/cookbook/blob/main/mistral/embeddings/code_embedding.ipynb) на Google Collab. mistral.ai (https://mistral.ai/news/codestral-embed) Anthropic открыла инструменты для анализа "мыслей" языковых моделей. Anthropic выложила в открытый доступ свой метод интерпретируемости, позволяющий заглянуть внутрь работы языковых моделей. Речь о генерации графов атрибуции — визуальных схем, которые частично показывают, какие шаги модель делает "в уме", формируя ответ. Это не просто картинки - инструменты помогают исследователям тестировать гипотезы, модифицируя признаки и наблюдая за изменениями в выводе модели. Можно визуализировать, аннотировать найденные "цепочки", например, отвечающих за многошаговые рассуждения. Попробовать можно уже сейчас на Neuronpedia (https://www.neuronpedia.org/gemma-2-2b/graph), код доступен в репозитории проекта (https://github.com/safety-research/circuit-tracer). anthropic.com (https://www.anthropic.com/research/open-source-circuit-tracing) PerplexityAI представила Labs: автоматизация ваших проектов. Perplexity запускает новый инструмент – Perplexity Labs. Это не просто поиск ответов или их углубленный анализ, а целая команда в вашем браузере. Система использует самообучающиеся процессы, глубокий веб-поиск, исполнение кода и генерацию контента. Labs может создавать отчеты, дашборды, электронные таблицы, визуализации данных и даже простые веб-приложения прямо во вкладке "App". Весь сгенерированный код, файлы, графики и изображения собираются во вкладке "Assets" для скачивания. Labs доступен для подписчиков Pro на сайте и в iOS-приложении. perplexity.ai (https://www.perplexity.ai/hub/blog/introducing-perplexity-labs) Black Forest Labs презентовала FLUX.1 Kontext. FLUX.1 Kontext — семейство моделей для генерации и редактирования изображений, которые работают "в контексте". Это значит, что модели умеют не только генерировать картинки по тексту, но и принимать на вход изображения, чтобы модель поняла, что именно вы хотите сохранить или изменить. Возможности: сохранение стиля или персонажа из вашего референса, точечное редактирование без искажения и добавление инструкций шаг за шагом. Есть 3 версии: FLUX.1 Kontext [pro] — универсальная для генерации и инпейнта, работает в разы быстрее аналогов и сохраняет консистентность при многошаговых правках. FLUX.1 Kontext [max] — экспериментальная модель с улучшенным следованием промптам и типографикой. Обе уже доступны через партнеров: KreaAI, Freepik, LeonardoAI, Replicate и др. Для исследователей и энтузиастов открыли доступ по запросу к приватной бета-версии FLUX.1 Kontext [dev] с открытыми весами (12B). А чтобы просто потестить возможности, запустили демо - Playground (https://playground.bfl.ai/). bfl.ai (https://bfl.ai/announcements/flux-1-kontext) Gemini научился анализировать видео на Google Drive. Гугл прокачал Gemini в Drive, и теперь ИИ умеет разбирать не только документы, но и видео. Просто спрашиваете в чате, что внутри ролика — и получаете сводку, ключевые моменты или список задач из записанной встречи. Работает это через чат-интерфейс Gemini. Важно: видео обязательно должны быть с включенными субтитрами, иначе Gemini не справится. Возможность уже доступна в английской версии Drive для подписчиков Workspace и Google One и AI Premium, а также владельцев корпоративных дополнений Gemini. И еще Гугл добавил в плеер базовую аналитику просмотров — теперь видно, сколько раз видео открывали. Полезно для оценки интереса к вашему контенту. workspaceupdates.googleblog.com (https://workspaceupdates.googleblog.com/2025/05/understand-videos-using-gemini-google-drive.html) Источник: workspaceupdates.googleblog.com Комментарии: |
|