A DeepSeek V4 API 2026. április 24-én jelent meg, és újraírja a fejlesztői AI-szolgáltatások árazási logikáját. A V4 Flash és V4 Pro modellek azonnal beilleszthetők a meglévő OpenAI vagy Anthropic SDK-ba. A base URL átírása elég, a kódot nem kell átírni.
A piaci hatás azonnali. Az árlista egy nagyságrenddel a Claude és a GPT családok alatt van. Aki API-költséget akar csökkenteni, ezt a kiadást nem hagyhatja ki.
Mit hoz a V4 a számokban
A V4 Flash 284 milliárd paraméteres modell, ebből futás közben 13 milliárd aktív. A V4 Pro 1,6 billió paramétert tárol, és 49 milliárdot kapcsol be tokenenként. Mindkettő Mixture-of-Experts architektúra. A modell csak a feladathoz illő részt aktiválja, így az inference olcsóbb és gyorsabb.
A kontextusablak mindkét változatnál 1 millió token. Ez elegendő egy közepes méretű kódbázis vagy hosszabb dokumentumcsomag betöltéséhez. A TechCrunch tesztjei szerint a V4 a kódolási benchmarkokon a GPT-5.4 szintjén áll. Tudástesztekben viszont 3–6 hónappal lemarad a frontier modellektől.
A V4 Flash 0,14 dollár per millió input token és 0,28 dollár per millió output token áron fut. A V4 Pro 0,145 dollár input és 3,48 dollár output. Ezek az árak a Claude Opus 4.7 és a GPT-5.5 költségének töredékét jelentik. Egy olcsó prototípus pipeline így nagyságrenddel olcsóbbá válhat.
A modellek nyitott súlyúak, így a saját infrastruktúrán futtatás opciós. A Flash méretű modell egy 8 GPU-s node-on már elindítható. A Pro inkább nagyobb klaszterre vágyik. Ez stratégiai szempontból fontos: a V4 a vendor lock-in kockázatát csökkenti.
OpenAI- és Anthropic-kompatibilis végpontok
A DeepSeek két SDK-formátumot kiszolgál. Az OpenAI kliens a https://api.deepseek.com base URL-en fut. Az Anthropic SDK a https://api.deepseek.com/anthropic végpontot használja. A request és response sémák megegyeznek a hivatalos szolgáltatókéval.
A modellnevek tiszták: deepseek-v4-flash és deepseek-v4-pro. A hivatalos API dokumentáció Python, Node és curl mintákat ad. A korábbi deepseek-chat és deepseek-reasoner azonosítók 2026/07/24-én megszűnnek. A migrálás kockázata így korlátozott, de halogatni nem érdemes.
A DeepSeek a thinking mode-ot is támogatja. A reasoning_effort paraméter low, medium és high értéket vehet fel. Az érdemi gondolkodási lépések a válasz mellett külön mezőben jelennek meg. Ez ismerős a Claude vagy az OpenAI o-családját használó fejlesztőknek.
Egy meglévő rendszerben a base_url és a model paraméter cseréje általában elég. Az Anthropic Managed Agents stabil interfésze mellé így könnyen behúzható másodlagos provider. Egy OpenAI Structured Outputs alapú pipeline tesztkörnyezete is áthelyezhető DeepSeek V4 alá.
Mikor érdemes a DeepSeek V4 API-t választani
A DeepSeek V4 API a költségérzékeny munkafolyamatokra erős. Belső tooling, batch feldolgozás, dev és staging környezet — itt a Flash gyakran elegendő. Termelési forgalomhoz, hosszabb kontextus mellett a Pro a logikus választás. A kódolási teljesítmény mindkét szinten versenyképes a frontier modellekkel.
Multi-provider stratégia mellett a V4 a baseline szerepét veheti át. A drágább frontier modellek így csak az igazán nehéz részfeladatokat kapják. Az átirányítás logikája lehet feladattípus, hossz vagy bizalmi szint alapú. A költségmegtakarítás 60–80% között is lehet, ha a feladatok többsége nem frontier-szintű.
Adatvédelmi mérlegelés is kell. A kínai jogi keret előírja a hatósági adatkérések teljesítését. Bizalmas ügyfél- vagy enterprise-adat esetén a kockázatot fel kell mérni. A nyitott súly itt segíthet: a modell saját infrastruktúrán is futtatható.
Vannak további korlátok. A modellek csak szöveget kezelnek, audiót és képet nem. Tudásintenzív feladatokon a frontier modellek továbbra is jobbak. Multimodális workflow-hoz tehát továbbra is más providert kell beállítani.
A választás keretrendszere ugyanaz, mint a Sonnet és Opus döntésénél. Méretkategória, kontextusigény és költségplafon dönt. A DeepSeek V4 az ár-érték oldalt feszíti most ki.
A következő lépés egyszerű. API kulcs igénylése a console-on, base_url átírása a meglévő SDK-ban, majd egy benchmark futtatás a saját feladaton. Az eredmények alapján eldönthető, melyik részfeladatot érdemes a V4 alá tolni. A V4 olcsó és kompatibilis — a többi a saját pipeline mérésétől függ.

