Ludowa mądrość mówi, że „Europa nie jest innowacyjna”, a w AI liczy się tylko Ameryka, oraz ewentualnie Chińczycy. Zapomnijmy o takich bzdurach i spójrzmy na fakty. Wiedzieliście, że jest europejska firma rozwijająca całą gamę zastosowań sztucznej inteligencji, od rozpoznawania głosu i tekstu po kodowanie? Francuski Mistral AI upublicznił w grudniu 2025 ciekawe modele Devstral. Większy dorównuje w testach DeepSeekowi, mimo 5-krotnie mniejszego rozmiaru. Mniejszy Devstral też ma przyzwoite wyniki, a jest 28-krotnie mniejszy od tak często wspominanego w mediach chińskiego modelu.
Możecie się spytać, co z tego wynika dla waszej codziennej pracy, którą jest pisanie kodu, a nie przerzucanie się plotkami z działki AI.
Otóż tak mały rozmiar modeli pozwala Mistralowi oferować bardzo konkurencyjne ceny, na poziomie tego, czym działają na wyobraźnię chińscy dostawcy. Czasy odpowiedzi mają też być bardzo krótkie.
Jeśli płacicie za AI pomagający w kodowaniu z własnej kieszeni, oto nowa możliwość. Możecie dostać produkt nieodstający możliwościami od średniej, za atrakcyjną cenę, a wasze pieniądze zostaną na kontynencie, podobnie jak wasze dane. Pewnie też nie słyszeliście, że Mistral inwestuje we własne serwery w Szwecji, żeby europejskie prompty nie musiały latać po chmurze pana Bezosa, na obcej ziemi? To już wiecie.
Zamiast lajkować posty o budowaniu europejskiej suwerenności cyfrowej, możecie coś praktycznego zrobić w tym kierunku. Do tego oszczędzając sporo grosza w porównaniu z używaniem amerykańskich rozwiązań, wytrenowanych między innymi na pobranej bez pozwolenia (i bez płacenia) europejskiej własności intelektualnej.
Wracając do kwestii technicznych. Mistral stworzył też Vibe, własne narzędzie do pracy agentowej z AI. Startowanie tak późno od zera do walki z Claude CLI? Brzmi jak szaleństwo, ale po kilku dniach z Vibe stwierdziłem, że choć to dość prosty program, to robi co trzeba i jest imponująco szybki. Bez zarzutu łączy się z IntelliJ (tak, to przytyk do was, twórcy Copilota!).
To nie jest tekst sponsorowany. Nie mam też kodów zniżkowych ani gadżetów – piszę, bo lubię, nie ma tu ukrytych haczyków.
W dalszej części tekstu pokażę w dużym skrócie, jak wygląda Vibe samodzielnie w terminalu oraz zintegrowany z IntelliJ. Opowiem o odczuciach względem Devstrala z punktu widzenia człowieka przyzwyczajonego do flagowych modeli typu Claude Opus. Postaram się też przejrzyście pokazać, na ile atrakcyjna jest cena w porównaniu z konkurencją.
Spis treści
Vibe w terminalu
Zacznę od krótkiego demo pokazującego, że produkt Mistrala to nie jest zabawka, ale narzędzie tu i teraz gotowe do pracy. W użyciu Vibe, czyli agent do terminala, oraz model Devstral.
Jak to w narzędziu agentowym, model decyduje, jakich narzędzi użyć (edytować pliki, przeglądać commity Gita, uruchamiać kompilację). Domyślnie będziemy pytani o zgodę, choć są też inne tryby, jak „auto approve”.




Koszty
Powiedzmy to uczciwie: Mistral nie ma produktu, który dorównałby czystą mocą najwyżej punktującym modelom na rynku (z rodzin Claude, Gemini i ChatGPT). Uznając to, pozycjonuje się odpowiednio niżej cenowo.
Porównanie zrobiłem krótkie, bo modeli AI jest dużo, a wasz czas jest ograniczony. Dla zobrazowania skali wziąłem wycinek rynku: dwa „amerykańskie” modele, poniżej dwa „chińskie”, a na koniec bohaterów tego artykułu. Jeśli ktoś nie kojarzy jeszcze SWE: to bardzo znany benchmark, ma mierzyć pracę z kodem.
| Model | Input | Output | SWE |
|---|---|---|---|
| Claude Sonnet 4.6 | 3.00 | 15.00 | 79 |
| ChatGPT-5 mini | 0.25 | 2.00 | 59 |
| GLM 4.6 | 0.60 | 2.20 | 68 |
| DeepSeek-V3.2 | 0.28 | 0.42 | 73 |
| Devstral 2 | 0.40 | 2.00 | 72 |
| Devstral Small | 0.10 | 0.30 | 68 |
Według mnie jeśli chodzi o stosunek cena/jakość, francuskie modele są na tle konkurencji bardzo atrakcyjną propozycją.
Mała uwaga: na koszty inputu wpływa prompt caching. Cache hit typowo jest wyceniany 10-krotnie taniej. Ciężko powiedzieć, jak dużo cache hits dostaniecie, więc dla uproszczenia nie podawałem cen w tabelce. Warto jednak zaznaczyć, że w momencie pisania tego tekstu Mistral nie oferuje cache’owania promptów.
Jeśli jeszcze nie liczycie swojego użycia AI, możecie się zastanawiać, czy milion tokenów inputu to dużo czy mało? Ciężko powiedzieć, bardzo zależy od waszego sposobu pracy, jak dużo tekstu macie w AGENTS.md itp. Bardzo zgrubny szacunek: przy w miarę oszczędnym korzystaniu (przyspieszanie nudnych rzeczy, a nie „AI pisze wszystko za mnie”), milion może wystarczyć na dwa dni robocze. Nie ma nic dziwnego w użyciu 1 mln na dzień, lub powiedzmy 4 mln w dzień intensywnego zdania się na AI.
„Spryt” modeli Devstral
Testowanie AI to skomplikowana i czasochłonna rzecz, wymaga powtarzania, stworzenia powtarzalnych warunków itp. Są od tego specjaliści, produkują liczbowe wyniki (jak SWE powyżej). Nie zrobię tego lepiej, więc na potrzeby tego artykułu podzielę się subiektywnymi odczuciami, zgodnie z przekonaniem, że nawet jeśli czegoś nie da się obiektywnie zmierzyć, to nie znaczy, że w pracy jest nieistotne.
W porównaniu z topowymi modelami Anthropica zauważyłem, że Devstral słabiej „czyta między wierszami”, czyli reaguje na to, gdy piszemy zbyt ogólnie i krótko, co ma zrobić. Czasem zaskoczy pozytywnie (jak na screenshocie wyżej, gdy z własnej inicjatywy postanowił odpalić yq, by sprawdzić składnię po edycji YAML-a; nic takiego nie było w prompcie, nie było AGENTS.md). Zazwyczaj jednak idzie po najmniejszej linii oporu, jak najbardziej stereotypowy bezrefleksyjny junior developer tuż po studiach.
Gdy jednak opiszemy w prompcie nieco dokładniej, czego oczekujemy i na co nie pozwalamy, modele od Mistrala są w stanie radzić sobie z nieoczekiwanymi przeszkodami (mylący kod w testach, zawodzące wołanie narzędzi), będą próbować różnych podejść, planować, dawać różne opcje do wyboru z uzasadnieniem – zupełnie jak Sonnet, ChatGPT i wszystko to, czym podnieca się teraz jakieś 3/4 LinkedIna. Czasem w „wywodzie myślowym” skierowanym do człowieka nie do końca spina się logika, ale pamiętajmy, że oceniamy model z innej póki cenowej, bez funkcji reasoning.
Bardzo trzeba uważać z Devstrall Small. Lubię ten model, bo jest niesamowicie szybki, ale radzi sobie najlepiej ze szczegółowymi instrukcjami. Gdy ma za dużo swobody, trzeba mu przypomnieć wprost, by zastosował do swoich edycji najlepsze praktyki danego języka programowania, bo pierwsza wersja będzie może i działająca, ale niezbyt ładna i łatwa do utrzymania.
Bezpieczeństwo
Nie trafiłem korzystając z Devstrala na niebezpieczne sytuacje. Co należy docenić, jeśli spojrzeć na niepokojące rzeczy, które potrafią się dziać za sprawą nowych chińskich modeli.

IntelliJ
Vibe można wpiąć do IntelliJ dzięki zaimplementowaniu przez JetBrains świeżego standardu Agent Context Protocol, czyli niezależnych od producenta reguł dogadywania się agentów z edytorami. Oprócz Vibe są tam wielcy gracze jak Copilot i Gemini CLI, są też narzędzia chińskie.
Instrukcja dodania. Terminalowy Vibe i Vibe podłączony do IntelliJ korzystają z tych samych ustawień, czyli też tego samego klucza do API Mistrala.


Z moich subiektywnych wrażeń:
- Są agenty świetnie zintegrowane z IntelliJ i one pomijają ACP; są to Junie od samego JetBrains i Claude; sprytnie używają różnych narzędzi z IDE (Junie ma monopol na wbudowany w IDE rozbudowany test runner), korzysta się bardzo płynnie.
- Copilot to przykład z przeciwnej strony: niby rozbudowany, ale ciągle coś się sypie, w stopniu nie do zaakceptowania dla żadnego płatnego produktu. To tradycyjny plugin, nie używa ACP, więc problem nie leży w świeżości protokołu. Copilot rzuca błędy przy najprostszym czytaniu plików z dysku, zawiesza się zamiast odpowiedzieć, uruchamianie komend działa w kratkę, a UI jest toporny jakby cofnąć się w czasie o 10, jak nie 20 lat. Do szału doprowadza mnie konflikt z auto-save (Copilot gubi się w synchronizacji plików z dyskiem).
- Vibe działa szybko, bez problemu uruchamia testy i kompiluje w różnych językach i platformach. Nie ma fajerwerków, ale robi co trzeba. Czyli coś pomiędzy.
Agent Skills i inne funkcje
Brakuje mi w terminalowej aplikacji więcej skrótów klawiaturowych przyspieszających pracę, jak choćby w OpenCode.
Tyle że chiński AI-owy kombajn to projekt o dłuższej historii. Jak na zupełną nowość pisaną od zera, Vibe prezentuje się przyzwoicie.
Dużą wagę Mistral położył na zgodność ze standardami, jak wcześniej wspomniany ACP do łączenia z IntelliJ. Główne instrukcje czyta ze standardowej lokalizacji, czyli AGENTS.md (tak jak OpenCode; Francuzi zrobili to, czego dalej nie można doprosić się od Claude CLI). Obsługiwany jest format Agent Skills.
Czy światu potrzebny jest jeszcze jeden agent AI? Nie wiem, czas pokaże. Póki co Vibe ma jakąś cechę wyróżniającą, jest bardzo szybki.
Więcej
Strona Mistrala pokazuje krótkie nagrania z Vibe w działaniu oraz więcej informacji o szczegółach modeli Devstral (na przykład że są open source, jak DeepSeek).
Żeby zacząć używać modeli, wymagany jest klucz API. Konieczna jest rejestracja na https://console.mistral.ai/, nie potrzeba podawać danych płatniczych.