The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Изначальное сообщение [ Отслеживать ]

"Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с формальной верификацией"  +/
Сообщение от opennews (??), 17-Мрт-26, 11:31 
Компания Mistral AI представила большую языковую модель Devstral, нацеленную на использование для разработки приложений (вайб-кодинга) и оптимизированную для формальной верификации кода. Предполагается, что Devstral может применяться для создания AI-ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок...

Подробнее: https://www.opennet.dev/opennews/art.shtml?num=65005

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по времени | RSS]


1. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (1), 17-Мрт-26, 11:31 
Кто пользуется подобным, какое железо нужно, чтобы запустить? Сам использую qwen code, было бы интересно запускать всё локально
Ответить | Правка | Наверх | Cообщить модератору

4. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (4), 17-Мрт-26, 11:38 
>Leanstral-2603  121 GB

https://huggingface.co/mistralai/Leanstral-2603/tree/main
Дорогое.

Ответить | Правка | Наверх | Cообщить модератору

6. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –2 +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:41 
Замечу что из описания следует что русский язык оно не поддерживает
Ответить | Правка | Наверх | Cообщить модератору

42. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Аноним (4), 17-Мрт-26, 13:09 
На кириллице кодите ? Что не комментарий от вас, то откровение.
Ответить | Правка | Наверх | Cообщить модератору

45. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от aname (ok), 17-Мрт-26, 13:19 
1C
Ответить | Правка | Наверх | Cообщить модератору

67. Скрыто модератором  +/
Сообщение от Аноним (4), 17-Мрт-26, 16:09 
Ответить | Правка | Наверх | Cообщить модератору

59. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (59), 17-Мрт-26, 15:22 
Дык он из будущего. Он знает.
Ответить | Правка | К родителю #42 | Наверх | Cообщить модератору

73. Скрыто модератором  +/
Сообщение от Аноним (73), 17-Мрт-26, 16:27 
Ответить | Правка | К родителю #6 | Наверх | Cообщить модератору

56. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от подчиняйся свободе GPL (?), 17-Мрт-26, 14:45 
Естественно. Придется Core 2 Duo апгрейдить. А это дорого. На макарошки не хватит
Ответить | Правка | К родителю #4 | Наверх | Cообщить модератору

5. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –2 +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:39 
Тут главное видеокарта и её объем памяти. Лучше брать все что выше 16Гб и NVidia. Можно конечно и под других производителей адаптировать, а некоторые сразу поддерживают, но чаще всего для этого придется потанцевать с бубном. Можно все немного ускорить заморозив код и скомпилировать пайтон, но правки придется делать. Процессор хороший тоже не помешал бы, бывает что-то слетает и если протанцевали с бубном под не ту видеокарту под которую оно сделано, то можно настроить переход на процессор, но это в 10 раз дольше выполнение.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

12. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (4), 17-Мрт-26, 11:59 
Чтоб хоть как-то запустилось 128 Гб DDR5 ОЗУ.
Или можно одну NVIDIA H200.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

34. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 12:56 
> Чтоб хоть как-то запустилось

И выдало хоть какие-то результаты.

Ответить | Правка | Наверх | Cообщить модератору

13. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –2 +/
Сообщение от Аноним (13), 17-Мрт-26, 12:02 
Нужно было интересоваться до взлета цен на память. Купить максимум во все слоты по 32гб = 128гб. Да любая видяха пойдет. Я на интегрированной 8700G. Но модели 30-60гб юзаю (q6). Квен3-кодер-30b полюбился. Главная проблема - научиться общаться с ии. Придется слова учиться подбирать и вычищать промпт от "помогающих" инструкций. Модели от devstral ужасны. Европа загнила. Фантасмагорический язык они придумали, а компилятор или интерпретатор существует? Короче он нам и нафиг не нужон Ленстрал ваш. Вайбкодинг не существует, это протокол.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

29. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (29), 17-Мрт-26, 12:50 
Вообще-то максимум для DDR5 4x48 Gb, но нужна поддержка процом и мамой.
Ответить | Правка | Наверх | Cообщить модератору

57. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (4), 17-Мрт-26, 14:51 
То замёрзла, то загнила, то ли дело у нас!
Ответить | Правка | К родителю #13 | Наверх | Cообщить модератору

14. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Андрей (??), 17-Мрт-26, 12:02 
Вообще чем мощнее тем лучше, дальше по убыванию скорости генерации:
1) "вся модель должна влезть в VRAM" ->
2) "Часть модели влазит в VRAM, остальная часть помещается в RAM" ->
3) "Часть модели в VRAM, часть в RAM, часть в SSD swap(В случае MoE моделей на ура)
4) "Вся модель в RAM"
5) "Часть в RAM, часть в SWAP"

Короче дальше думаю ясно, по итогу ключевое наверное ограничение, это чтобы на базу и плотные слои(или активируемую часть экспертов) хватало по минимуму VRAM + RAM, тогда потыкать в разумных пределах можно любую модель, в противном случае - суета. На удивление для себя обнаружил(хотя и ожидал), что в ноут 8VRAM + 32RAM вполне влезла 80B MoE q6 модель, да ещё и работает на ~4 т/с, что вполне годно и по качеству и по скорости для автономной LLM, если бы ещё заморочится и переупорядочить экспертов(в пользу самых востребованных) и поколдовать с матричками активации, то так вообще космос будет.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

83. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 17:40 
А дальше уже всё будет ограниченно самим чипом, контроллером памяти и даже самой моделью:
https://signal65.com/wp-content/uploads/2025/03/chart01.webp
Ответить | Правка | Наверх | Cообщить модератору

17. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 12:06 
В моделях как правило есть ещё B параметры (B = биллионы, миллиарды). Параметры — это веса нейронной сети: числа, которые хранятся в памяти и участвуют в вычислениях при каждом токене. Грубо: чем их больше, тем больше "знаний" и контекста модель может удерживать. 1B параметров ≈ 2 ГБ в памяти при float16, или ≈ 0.5 ГБ при 4-битной квантизации.

Важный нюанс про MoE (Mixture of Experts) — это как раз случай Leanstral/Devstral 2 в статье. Модель имеет 119B "всего" параметров, но активирует только 6.5B на каждый токен. Остальные "эксперты" в этот момент спят. Это значит, что вычислений меньше (скорость выше), но в памяти нужно держать всё равно почти все 119B — потому что неизвестно заранее, какой эксперт понадобится.

Железо: минимум и комфорт
Вот реальная картина по трём размерам моделей из этой истории:

Модель Devstral Small 2 24B dense, Apache 2.0 контекст 256K
Минимум RTX 3090 / 24 ГБ VRAM, Q4 квантизация, Mac 32 ГБ RAM, ~20 tok/s, контекст 32–57K
Хорошо работает RTX 4090 / 24 ГБ, RTX 3090 / 24 ГБ, AMD 6700 XT ×2 / 24 ГБ, ~44 tok/s (RTX 3090, Q4)
Комфортно RTX A6000 / 48 ГБ, Mac M3 Max / 96 ГБ, ~55 tok/s, полный контекст 256K

Devstral 2 (MoE), 123B / 6.5B активных, контекст 256K
Минимум 72+ ГБ VRAM, RTX 3090 ×4 или 4090 ×3, Q2 квантизация, Медленно, контекст 4–16K
Хорошо работает 96 ГБ unified RAM, Ryzen AI Max+ 395 96ГБ (~$1500), Mac M3/M4 Max 96 ГБ, Умеренно, контекст ~64K
Комфортно 128 ГБ unified RAM, RTX Pro 6000 Blackwell, Dual RTX 4090 48ГБ, Нормальная скорость, полный контекст

Вывод по железу:
Для Leanstral (119B MoE) локально — это уровень энтузиастов с бюджетом от $1500 только на железо: либо Ryzen AI Max+ 395 с 96 ГБ unified memory, либо Apple Silicon M3/M4 Max с 96–128 ГБ, либо несколько потребительских GPU в связке. На обычном домашнем ПК с одной видеокартой — не запустить.
Devstral Small 2 (24B) — другая история: одна RTX 3090/4090 справляется реально и выдаёт приемлемую скорость. Если сравнивать с Qwen2.5-Coder, который ты уже используешь — они в одной весовой категории, разница только в специализации (Devstral заточен под агентные задачи и тулколлинг).

Про модели в статье
Статья слегка путает названия: Leanstral и Devstral — это разные вещи. Leanstral — это специализированная модель именно под Lean 4 и формальную верификацию. Devstral — это общий coding-агент от Mistral. Судя по описанию (119B параметров, 6.5B активируемых) — речь о MoE-архитектуре, это скорее относится к Devstral 2 (123B).

Я ещё попросил составить по другим моделям ИИ чтоб он посчитал от дешевым к дорогим, минутку.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

54. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от booksy (?), 17-Мрт-26, 14:34 
Всё чётко разложил. Что посоветуете на бюджет до 4500-5000 евро? Интересно именно кодинг и эта новая модель выглядит многообещающей.
Ответить | Правка | Наверх | Cообщить модератору

71. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 16:22 
https://www.google.com/search?q=&hl=ru&aep=22&udm=50
Ответить | Правка | Наверх | Cообщить модератору

82. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (82), 17-Мрт-26, 17:36 
> Что посоветуете на бюджет до 4500-5000 евро?

Openrouter. И найти работу.

Ответить | Правка | К родителю #54 | Наверх | Cообщить модератору

18. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от gethemail (?), 17-Мрт-26, 12:09 
На HF народ квантует. Пишут что:
Performance
On 2x RTX 4090 (48GB VRAM) + 192GB RAM with Q4_K_M:

~34 tokens/s generation speed
Model splits between GPU and system RAM automatically with -fit on
Т.е. 8 битное квантование будет примерно в 2 раза медленнее. А цены на 4090 и 5090 уточняйте у поставщиков, советую обращать внимание на китайцев с 48 Гб VRAM.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

70. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 16:18 
Вредный совет, сколько уже людей обожглись на всяких PELADN и т.д.
Все эти подвальные рефабы с неизвестным ресурсом. Так что себе этих мутантов можете купить, но советовать другим это такое...
Ответить | Правка | Наверх | Cообщить модератору

72. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от gethemail (?), 17-Мрт-26, 16:23 
Уговорили, тогда покупайте H200, делов на 30 минут.
Ответить | Правка | Наверх | Cообщить модератору

21. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 12:18 
Данные свежие, март 2026. Строю большую сводную таблицу по тирам.
Тир 0 — CPU / интегрированная графика
Любой ноутбук или ПК с 8–16 ГБ RAM, без дискретного GPU.
Qwen 3.5 4B (Q4, ~3 ГБ RAM) — минимально жизнеспособный кодинг-ассистент на CPU или интегрированной графике. Мышление включается по запросу. Хорош для объяснений и простых задач. Скорость 5–10 tok/s на CPU, контекст 32K.
Phi-4-mini (3.8B, Q4, ~2.5 ГБ) — от Microsoft, сильный интеллект для размера. MMLU 68.5 — лучший в классе до 4B. Хорош для math/logic. Слабоват на длинном коде. Скорость 10–20 tok/s на CPU, контекст 16K.
Llama 3.2 3B (Q4, ~2 ГБ) — от Meta, оптимизирован для edge/mobile. Хорош для chat, суммаризации. Не специализирован на коде. Скорость 8–15 tok/s на CPU, контекст 128K.

Тир 1 — 8 ГБ VRAM
RTX 3070 / 4060 / RX 7600 XT, около $300–500 за GPU.
Qwen 2.5 Coder 7B (Q4, ~6.6 ГБ) — лучший FIM-автокомплит в классе до 8B. HumanEval 88.4%, 128K контекст, 92+ языка. Основа для inline autocomplete в редакторе. Скорость 30–50 tok/s, контекст 128K.
Qwen 3.5 9B (Q4, ~7 ГБ) — вышел 2 марта 2026. Мультимодальный (читает изображения), thinking mode. LiveCodeBench 65.6. Хорош для чата и ревью кода рядом с автокомплитом. Скорость 25–40 tok/s, контекст 262K.
Gemma 3 9B (Q4, ~6 ГБ) — от Google, сильный general-purpose. Хорошее reasoning, мультилингвальность. Apache 2.0. Хуже на чистом коде, чем Qwen. Скорость 30–45 tok/s, контекст 128K.

Тир 2 — 12–16 ГБ VRAM
RTX 4070 / 3080 Ti / RX 7800 XT, около $500–800 за GPU.
Qwen 2.5 Coder 14B (Q4, ~10 ГБ) — значительно сильнее 7B на многошаговых задачах. Всё ещё лучший FIM. Хороший выбор для daily driver кодинга. Скорость 20–35 tok/s, контекст 128K.
DeepSeek-R1-Distill 14B (Q4, ~10 ГБ) — дистилляция R1 от DeepSeek. Цепочка рассуждений, сильный на debug и math. Медленнее из-за thinking-токенов, но заметно умнее на сложных задачах. Скорость 15–25 tok/s, контекст 64K.
Phi-4 14B (Q5, ~11 ГБ) — от Microsoft, MMLU 76.2. Отличное reasoning и math для размера. Конкурирует с моделями втрое больше. Скорость 20–30 tok/s, контекст 16K.
Gemma 3 12B (Q4, ~8 ГБ) — лучший general-purpose в 12B классе по мнению многих. Хорошо на мультилингвале, суммаризации, code review. Скорость 25–40 tok/s, контекст 128K.

Тир 3 — 24 ГБ VRAM
RTX 3090 / 4090 / RX 7900 XTX, около $700–2000 за GPU.
Qwen 2.5 Coder 32B (Q4, ~20 ГБ) — топ для кодинга на одной потребительской карте. SWE-bench 43.4%. Хороший для больших проектов и рефакторинга. Скорость 20–35 tok/s, контекст 128K.
GLM-4.7-Flash (Q4, ~18 ГБ) — от Zhipu AI. Intelligence Index 30.1 — лучший all-rounder на 24 ГБ по тестам 2026. Победитель agentic coding challenge на localllm.in. Сильный на математике. Скорость 25–40 tok/s, контекст 128K.
DeepSeek-R1-Distill 32B (Q4, ~20 ГБ) — самый сильный reasoning на одной 24GB карте. Цепочка мыслей, math, сложный debug. Медленнее из-за thinking. Скорость 12–20 tok/s, контекст 64K.
Devstral Small 2 (24B) (Q4, ~14 ГБ) — от Mistral, специализирован на агентном кодинге и тулколлинге. SWE-bench 68%. Apache 2.0. Та самая модель из статьи выше. Скорость 44 tok/s на RTX 3090, контекст 256K.
Gemma 3 27B (Q4, ~16 ГБ) — лучший general от Google для 24 ГБ. Мультимодальный, хороший на длинных документах и мультилингвале. Скорость 20–30 tok/s, контекст 128K.

Тир 4 — 48+ ГБ VRAM или unified 96 ГБ
RTX A6000 / 2×RTX 3090 / RTX 5090 / Mac M3 Max 96 ГБ / Ryzen AI Max+ 395. Цена от $1500 до $5000+.
Llama 3.3 70B (Q4, ~40 ГБ) — от Meta, огромная экосистема fine-tune и тулинга. Хороший general + code. Нужно 48 ГБ VRAM или 2×24 ГБ. Скорость 15–25 tok/s, контекст 128K.
Qwen3-Coder-Next (80B MoE) (Q4, ~46 ГБ RAM) — от Alibaba, вышел февраль 2026. Первое место на SWE-rebench (64.6%), обходит Claude Opus 4.6 (58.3%). Всего 3B активных параметров — высокая скорость для класса. Нужно 46 ГБ unified memory или VRAM+RAM с offload. Скорость 20–40 tok/s, контекст 256K.
Devstral 2 (123B MoE) (Q2, 72+ ГБ VRAM) — из статьи выше. SWE-bench 72.2%. Нужно минимум 72 ГБ VRAM или 96 ГБ unified memory для нормальной работы. Скорость 10–20 tok/s, контекст 256K.
GPT-oss 20B (Q4, ~14 ГБ) — утёкшая open-weight модель от OpenAI. Сильное reasoning и tool-calling. Помещается на 24 ГБ, но раскрывается на большем железе с длинным контекстом. Скорость 25–35 tok/s, контекст 128K.

Тир 5 — экстремальное железо
128+ ГБ unified memory, multi-GPU, Mac M3 Ultra 512 ГБ. Цена $5000 и выше.
Qwen3-Coder 480B (Q2, ~276 ГБ) — аналог Claude Sonnet 4 по кодингу (Aider Polyglot 60.9% против 61.8% у полной точности). 35B активных параметров. Нужен кластер или Mac Ultra. Скорость 5–15 tok/s, контекст 1M токен.
DeepSeek V3.2 (685B MoE) (~200+ ГБ) — лучший open general-purpose на данный момент. SWE-bench 70.2%. Для домашнего запуска нужен Mac Ultra 512 ГБ или multi-GPU сервер. Скорость 3–10 tok/s, контекст 64K.

Самое интересное открытие из поиска — Qwen3-Coder-Next (80B MoE, 3B активных параметров) занял первое место на SWE-rebench с результатом 64.6%, обходя Claude Opus 4.6 (58.3%), GPT-5.2-medium (60.4%) и Gemini 3 Pro (58.3%). И при этом для запуска нужно всего около 46 ГБ RAM или unified memory в 4-битной квантизации.
По стратегии на 24 ГБ: Рекомендуемая связка — Qwen 2.5 Coder 7B для автокомплита (FIM), и Qwen 3.5 9B отдельно для чата, дебага и ревью кода — они не обязаны работать одновременно.
По Mac Mini как варианту: M4 Pro с 64 ГБ RAM запускает Qwen 2.5 Coder 32B на 11–12 tok/s — достаточно для production-задач. Четыре Mac Mini M4 в кластере (~$2400 суммарно) дают 496 ГБ unified memory и запускают даже Nemotron-70B.
По AMD: ROCm продолжает нагонять NVIDIA в поддержке llama.cpp и vLLM, но пока отстаёт. Radeon PRO W7900 с 48 ГБ стоит около $3500, потребительский RX 7900 XTX с 24 ГБ — ближайший вариант, но совместимость с ROCm нужно проверять под конкретную задачу.

Дополнительные заметки:
Стратегия на 24 ГБ — держать две модели по очереди: Qwen 2.5 Coder 7B для inline autocomplete (FIM) и Qwen 3.5 9B для чата и ревью. Они не обязаны работать одновременно.
Mac Mini M4 Pro с 64 ГБ RAM запускает Qwen 2.5 Coder 32B на 11–12 tok/s — достаточно для production. Четыре Mac Mini M4 в кластере (~$2400) дают 496 ГБ unified memory и тянут даже Nemotron-70B.
AMD ROCm продолжает нагонять NVIDIA в поддержке llama.cpp и vLLM, но пока отстаёт. RX 7900 XTX с 24 ГБ — ближайший потребительский аналог RTX 3090, совместимость с ROCm нужно проверять под конкретную задачу.
Квантизация Q4_K_M — золотой стандарт: уменьшает размер модели на ~75% с минимальной потерей качества. Для большинства задач неотличима от полной точности.

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

60. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (59), 17-Мрт-26, 15:28 
Спасибо!
Ответить | Правка | Наверх | Cообщить модератору

65. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 16:07 
Вы тоже самое можете спрашивать из чатов, как он и сделал:
1) https://www.google.com/search?q=&hl=ru&aep=22&udm=50
2) https://www.perplexity.ai
Ответить | Правка | Наверх | Cообщить модератору

66. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (66), 17-Мрт-26, 16:08 
Чтобы нормально работать вся модель должна влазьть в VRAM, а RAM брать в дваразы больше: RAM = 2 * VRAM.

Важно скорость работы VRAM и вычислительная способность видяхи в int8/s - больше значит лучше.


В топовую видяху, сабжевая модель в память уже не влазит:
Nvidia RTX PRO 6000 Workstation Edition Blackwell; 96GB DDR7 ECC; 1024 TOPS (Int8); -600W; PCI-E 5.0 x16

Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

69. Скрыто модератором  +/
Сообщение от Аноним (4), 17-Мрт-26, 16:12 
Ответить | Правка | Наверх | Cообщить модератору

77. Скрыто модератором  +/
Сообщение от Аноним (66), 17-Мрт-26, 17:12 
Ответить | Правка | Наверх | Cообщить модератору

80. Скрыто модератором  +/
Сообщение от Аноним (4), 17-Мрт-26, 17:26 
Ответить | Правка | Наверх | Cообщить модератору

68. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от nagual (ok), 17-Мрт-26, 16:10 
Вообще железо нужно мощьное, но облачный сервис всегда будет дешевле, + скидки + акции + пробные периоды на новые модели.
Ответить | Правка | К родителю #1 | Наверх | Cообщить модератору

2. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Джон Титор (ok), 17-Мрт-26, 11:34 
> В проведённых тестах модель Leanstral ощутимо обогнала существующие открытые модели Qwen3.5 397B-A17B, Kimi-K2.5 1T-A32B и GLM5 744B-A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6.

О, это уже не плохо. Sonnet 4 уже хорош, а 4.5 немного лучше. 4.6 там не особо то и сильно лучше. Если проверять что оно пишет, то 4.5 уже отличная помощь.

Ответить | Правка | Наверх | Cообщить модератору

8. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +6 +/
Сообщение от Аноним (-), 17-Мрт-26, 11:48 
> AI-модель для вайб-кодинга с формальной верификацией

Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

Ответить | Правка | Наверх | Cообщить модератору

10. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (10), 17-Мрт-26, 11:53 
> Хихи, маркетологи нынче зажигают на тему взаимоисключающих параграфов.

А где противоречие? Модель просто обучили в том числе на ошибках Aeneas.
Модель выдает код, агент запускает верификатор, тот выдает какие-то ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно.
Обычный close loop.

Ответить | Правка | Наверх | Cообщить модератору

15. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (15), 17-Мрт-26, 12:03 
В итоге, модель научится писать код, проходящий конкретный верификатор. А вовсе не нормально работающий
Ответить | Правка | Наверх | Cообщить модератору

16. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (16), 17-Мрт-26, 12:06 
> В итоге, модель научится писать код, проходящий конкретный верификатор.
> А вовсе не нормально работающий

Если "не нормально работающий" код проходит ваш верификатор... то проблема в верификаторе.
Потому что сам факт прохождения верификации должен давать гарантии соответствия спецификации.

Ответить | Правка | Наверх | Cообщить модератору

20. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Хрю (?), 17-Мрт-26, 12:17 
Вся проблема, что написать полностью правильную верификацию на код, не проще чем этот код написать 😃 Т.е. одну сложность заменили на другую 😃
Ответить | Правка | Наверх | Cообщить модератору

27. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (-), 17-Мрт-26, 12:46 
вот только сначала тебе в норме надо было написать и код верификации, и код под нее

а сейчас надо написать верификацию, код нейробратан напишет

не одну "сложность заменили на другую", а уполовинили сложность

Ответить | Правка | Наверх | Cообщить модератору

28. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Хрю (?), 17-Мрт-26, 12:50 
Сейчас верификацию на код пишут, мягко скажем очень редко, и в мегакритикал системах, потому что это тяжёлая, сложная и очень затратная операция с малым колвом спецов по теме и небольшим колвом специального ПО. Гораздо проще и дешевле тупо написать код и облажить его тестами.
Ответить | Правка | Наверх | Cообщить модератору

32. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 12:55 
тогда о чем разговор? у нас нет верификатора, потому мы хотим, чтобы модель, заточенная на работу через верификатор, без него код написала? или что?
Ответить | Правка | Наверх | Cообщить модератору

38. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Хрю (?), 17-Мрт-26, 13:03 
Разговор про то что дешевле и лучше не стало, а просто одну сложность 'написание кода', заменили на другую сложность (возможно даже более сложную) 'написание верификатора'. Я пока вижу очень узкую сферу применения сей модели к этому и был изначальный каммент.
Ответить | Правка | Наверх | Cообщить модератору

40. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 13:05 
> Разговор про то что дешевле и лучше не стало
> Я пока вижу очень узкую сферу применения сей модели

Дак стало или нет?

А там, где писали верификацию, стало легче или нет?

Или раз никто не пишет верификацию, то это нормально и верификацию писать не нужно?

Ответить | Правка | Наверх | Cообщить модератору

46. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Хрю (?), 17-Мрт-26, 13:42 
Верификацию пишут для всяких контроллеров и т.п. критикал вещей, там не только нужна правильность, а так же real time, ограниченные ресурсы и т.п. вопросы. Способна ли эта модель всё это учесть? Очень сомнительно, отсюда и скепсис.

Сейчас очень много игр в верификацию. Т.е. она заявляется много об этом трубится, но используется на самом деле очень и очень ограниченно. Моё мнение, что эти модели из той же серии "давайте поиграем в серьёзных дяденек".

Ответить | Правка | Наверх | Cообщить модератору

63. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 16:03 
> Верификацию пишут для всяких контроллеров и т.п. критикал вещей, там не только нужна правильность, а так же real time, ограниченные ресурсы и т.п. вопросы

я очень рад, что ты признаешь, что есть сферы, где верификация очень важна

> Способна ли эта модель всё это учесть? Очень сомнительно

это не сложно проверить - цены приведены в новости, прогон теста стоит меньше похода в магазин за едой на пару дней, а зачит написать что-то будет еще дешевле

ну и да, сначала ты пишешь про то, что оно не нужно, а теперь, что модель что то там не способна

нужно или не нужно верифицировать? способна или не способна модель?

> Т.е. она заявляется много об этом трубится, но используется на самом деле очень и очень ограниченно

я рад, что ты признаешь, что она используется, но лучше бы ты сказал, хорошо это или плохо, что очень ограничено

> Моё мнение, что эти модели из той же серии "давайте поиграем в серьёзных дяденек".

это про все современное IT так можно сказать, а то куда это серьезные дяденьки то без IT то в конторе

Ответить | Правка | Наверх | Cообщить модератору

37. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (37), 17-Мрт-26, 13:02 
облАжить тестами - это зачЁт!
Ответить | Правка | К родителю #28 | Наверх | Cообщить модератору

30. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (30), 17-Мрт-26, 12:51 
> не одну "сложность заменили на другую", а уполовинили сложность

Нюанс в том, что 99% 6ыdlo-кодеров никогда в жизни не писали спецификаций.
Максимум смотрели в AC в задачке, которые выдавил из себе менеджер, и где-то в голове прикидывали эджкейсы. Ну, могли еще комментарий в коде оставить "вот тут может произойти такая х..., поэтому делаем так-то"

Ответить | Правка | К родителю #27 | Наверх | Cообщить модератору

35. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (-), 17-Мрт-26, 12:56 
вот то же самое

тогда о чем разговор? у нас нет верификатора, потому мы хотим, чтобы модель, заточенная на работу через верификатор, без него код написала? или что?

Ответить | Правка | Наверх | Cообщить модератору

47. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от aname (ok), 17-Мрт-26, 13:45 
Анонимные эксперты с опеннета хотят, чтоб за них всё делала нейрослопть, а они сидели и получали 300kk/наносекунду.

Весь дев должен, по- хорошему, отталкиваться от ТЗ, от правил о ограничений, в виде верификации, но по сложившимся причинам, такое делают настолько редко, что аж пришлось придумывать целый ЯЗЫК погроммирования, чтоб обучившиеся на курсах разного уровня качества могли выдавать код, хотя бы, без вылезания за границы буффера.

Mistral всё, же, идёт в правильном направлении: разрабатывайте условия, а накодить может хоть биоединица, хоть цифровая.

Но анонимным экспертам с опеннета, привыкшим к хелло ворлдам библиотеки подключать, такое сложно, да.

Ответить | Правка | Наверх | Cообщить модератору

51. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (51), 17-Мрт-26, 13:51 
> В итоге, модель научится писать код, проходящий конкретный верификатор

По-моему, ты путаешь формальную верификацию со статическим анализом. Формальная верификация не зависит от "конкретного верификатора", ибо код либо математически корректен, либо нет. Если один верификатор пропускает код, который второй верификатор посчитал некорректным - значит, в первом верификаторе баг.

Ответить | Правка | К родителю #15 | Наверх | Cообщить модератору

39. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 13:03 
> ошибки, которые модель обрабатывает и исправляет код. После этого верификатор запускается повторно

Но есть нюанс: процесс не обязан сходиться. Практика применения ИИ показывает, что 1+1 нейроslop ещё может научиться складывать, а более сложное - постоянно в ошибках.

Ответить | Правка | К родителю #10 | Наверх | Cообщить модератору

48. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от aname (ok), 17-Мрт-26, 13:46 
Что значит "не обязан сходится"?

Практика применения ИИ показывает, что от людей ИИ тупеет, и какие выводы из этого сделаем?

Ответить | Правка | Наверх | Cообщить модератору

55. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 14:37 
С такими вопросами - к математикам, но они от ИИ тупеют, от того самого, который отупел.
Ответить | Правка | Наверх | Cообщить модератору

58. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (58), 17-Мрт-26, 15:19 
//www.youtube.com/watch?v=JHEO7cplfk8

Вот наглядное пособие, приглядитесь по внимательней и сделайте вывод в качестве чего используется в данном контексте ЫЫ?

Ответить | Правка | Наверх | Cообщить модератору

64. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от Аноним (64), 17-Мрт-26, 16:06 
>Но есть нюанс: процесс не обязан сходиться

Какой процесс у тебя там не сходится? Верификация должна гарантировать соответствие спецификации. Всё. Сдается мне, что ты не в курсе, что такое верификация.
>1+1 нейроslop ещё может научиться складывать, а более сложное - постоянно в ошибках

А, ты и про ИИ не в курсе. Понятно всё.

Ответить | Правка | К родителю #39 | Наверх | Cообщить модератору

81. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 17:35 
Чем отличается верификация от имплементации - тебе надо рассказывать?
Ответить | Правка | Наверх | Cообщить модератору

11. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (11), 17-Мрт-26, 11:59 
Нейрослоп вышел на новый уровень.
Ответить | Правка | Наверх | Cообщить модератору

41. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Аноним (34), 17-Мрт-26, 13:08 
Вангуется очередное повышение цен на память в 2 раза.
Ответить | Правка | Наверх | Cообщить модератору

44. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (4), 17-Мрт-26, 13:13 
Ими кстати ASML заинтересовались:
https://www.asml.com/en/news/press-releases/2025/asml-mistra...
Ответить | Правка | К родителю #11 | Наверх | Cообщить модератору

22. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +3 +/
Сообщение от Аноним (22), 17-Мрт-26, 12:20 
> позволяет подтвердить, что сгенерированный AI-моделью код делает именно то, что задумано

Осталось теперь подтвердить, что описанное в спецификации - это именно то, что и было задумано

Ответить | Правка | Наверх | Cообщить модератору

49. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от aname (ok), 17-Мрт-26, 13:48 
Ну если условные "вы" не способны написать спецификации, то тут не только нейрослопть бессильна, тут даже у медицины на этом полномочия всё.
Ответить | Правка | Наверх | Cообщить модератору

62. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (58), 17-Мрт-26, 15:32 
> Ну если условные "вы" не способны написать спецификации, то тут не только
> нейрослопть бессильна, тут даже у медицины на этом полномочия всё.

//www.youtube.com/watch?v=JHEO7cplfk8

Ну вот, чем, по вашему, тут занята ЫЫ?

Ответить | Правка | Наверх | Cообщить модератору

78. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от aname (ok), 17-Мрт-26, 17:13 
>> Ну если условные "вы" не способны написать спецификации, то тут не только
>> нейрослопть бессильна, тут даже у медицины на этом полномочия всё.
> //www.youtube.com/watch?v=JHEO7cplfk8
> Ну вот, чем, по вашему, тут занята ЫЫ?

Главное, что понаделал кожаный мешок

Ответить | Правка | Наверх | Cообщить модератору

74. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +2 +/
Сообщение от Аноним (73), 17-Мрт-26, 16:32 
Вы совершенно правы, я ошиблась в спецификации - ваш рентгеновский аппарат совершенно точно не должен выжигать пациентам суставы в порошок, так что вот вам новая, исправленная, спецификация.
Ответить | Правка | К родителю #22 | Наверх | Cообщить модератору

76. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Вайбкодер (?), 17-Мрт-26, 17:11 
выфсёврёти, пациент сам виноват, смотреть надо было ! Сеточка ни при чём !
Ответить | Правка | Наверх | Cообщить модератору

31. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 12:53 
> математического доказательства корректности

не гарантирует, что код оптимальный. Чтобы получить "единицу", можно сделать 0+1, а можно сумму квадратов косинуса и синуса, разложенных в ряды, вычисляемых через soft-float повышенной разрядности, от случайного аргумента, полученного криптографически через энтропию устройств ввода-вывода системы.

Ответить | Правка | Наверх | Cообщить модератору

36. Скрыто модератором  –1 +/
Сообщение от Аноним (36), 17-Мрт-26, 13:02 
Ответить | Правка | Наверх | Cообщить модератору

61. Скрыто модератором  +/
Сообщение от Аноним (58), 17-Мрт-26, 15:30 
Ответить | Правка | Наверх | Cообщить модератору

50. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  –1 +/
Сообщение от aname (ok), 17-Мрт-26, 13:51 
Ну так критерии оптимальности, для начала, завезите.
Ответить | Правка | К родителю #31 | Наверх | Cообщить модератору

53. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от Аноним (34), 17-Мрт-26, 14:33 
В том-то и дело, что нейроslopеры не могут это организовать.
Ответить | Правка | Наверх | Cообщить модератору

79. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +/
Сообщение от aname (ok), 17-Мрт-26, 17:14 
> В том-то и дело, что нейроslopеры не могут это организовать.

Будто эксперты опеннета способны

Ответить | Правка | Наверх | Cообщить модератору

43. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от Bob (??), 17-Мрт-26, 13:12 
Вайбкод:
1) модель тренировали на общедоступном мусоре, а не топовых примерах кода и коммерческом софте
2) задача максимум токенов "сожрать/выплюнуть" - чтобы платили
3) общение напоминает диалог глухо-немого со слепым
4) в тесте не учли человекочасы на годный результат
Ответить | Правка | Наверх | Cообщить модератору

75. "Mistral опубликовал Leanstral, AI-модель для вайб-кодинга с ..."  +1 +/
Сообщение от 12yoexpert (ok), 17-Мрт-26, 16:42 
подскажите, сколько нужно нести денег и куда?
Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2026 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру