Ugrás a tartalomra
Nyílt AI Modellek

Lokális AI és adatvédelem — miért futtass modellt on-premise?

A GDPR, az ipari titokvédelem és a confidential data az on-premise modell-futtatás legerősebb érvei. Nem technológiai luxus — sok iparágban jogi kötelezettség.

TL;DR

Az API-alapú AI-használat egyszerű, de minden kéréssel adatot küldesz egy külső szervernek. GDPR-érzékeny, bizalmas üzleti és orvosi adatok esetén ez nemcsak kockázat, hanem jogszabályi tilalom. A lokális modell-futtatás (on-premise LLM) ma már nem csak a nagyoknak szóló lehetőség — kis és közepes vállalkozások is deployálhatnak 7-14B paraméteres modelleket olyan hardveren, ami beefér egy szobába. A kérdés nem technológiai — hanem az, hogy ki viseli a felelősséget az adatért.


A kolléga, aki minden meetingjegyzetét beillesztette a ChatGPT-be

Ismerem ezt a szituációt. Egy kkv-ban dolgozó vezető tanácsadó naponta összefoglaltatja a ChatGPT-vel a belső megbeszélések szöveges átiratát. Gyors, kényelmes, az összefoglalók jók. A kolléga boldog. Az IT vezető — aki erről csak hónapokkal később értesül — kevésbé.

Nem azért, mert a ChatGPT “rossz”. Hanem mert minden egyes kérés elküldte az OpenAI szervereire a belső stratégiai megbeszélések tartalmát. Ügyféladatokkal. Üzleti tervekkel. Néhány esetben személyes adatokkal, amelyek GDPR-hatálya alá esnek.

Ez nem elvont jogi aggály. Ez a mindennapi AI-használat legrejtettebb kockázata.

Mit jelent a “data residency” és miért számít?

A “data residency” (adat-elhelyezkedés) azt jelöli, hogy az adatokat fizikailag hol tárolják és dolgozzák fel. Az EU GDPR keretein belül ez kritikus: személyes adatokat csak olyan szerveren szabad feldolgozni, amely megfelel az EU adatvédelmi követelményeinek — vagy ahol az adatkezelő érvényes adatfeldolgozói megállapodást kötött.

Az API-alapú AI-modell esetén a helyzet a következő:

  • Az adat elhagyja a vállalatot és átmegy egy külső szerverre
  • A szerverek fizikailag lehetnek az USA-ban, Írországban, bárhol
  • A prompt tartalma potenciálisan bekerülhet a modell jövőbeli tanítóadatai közé (amennyiben nem kötöttél opt-out megállapodást)
  • A felelősség megosztott — és bizonyítani kell

Ezzel szemben az on-premise futtatásnál az adat soha nem hagyja el a vállalati infrastruktúrát. Ez nem marketing szöveg — ez egy architekturális tulajdonság. A modell fut a saját szerveredén, a kérés helyben feldolgozódik, a kimenet helyben marad.

Konkrét iparágak, ahol ez nem opció — hanem kötelező

Három iparág, ahol az on-premise LLM ma már nem ajánlás, hanem elvárás:

Egészségügy és klinikai döntéstámogatás

Az orvosi dokumentáció, betegadatok, diagnózisok GDPR szempontból különleges kategóriájú személyes adatok. Ezeket kórházon, klinikán kívülre küldeni — beleértve egy API-kérésbe csomagolva is — szabálysértés. Több európai kórházcsoport már telepített helyi Llama-alapú modelleket orvosi összefoglalók és ápolási dokumentáció generálásához. Nem azért, mert olcsóbb (néha nem az), hanem mert törvényesen csak így mennek a dolgok.

Jogi és pénzügyi tanácsadás

Egy ügyvédi iroda belső szerződésvázlatai, egy bank ügyfél-hitelkérelmei, vagy egy M&A tranzakció dokumentumai nem mehetnek ki a szervezeti hálózatból — sem felhőbe, sem partnerhez, sem AI API-ba. A titokvédelmi és üzleti titoktartási kötelezettségek ezt explicit tiltják. On-premise LLM esetén a dokumentum-összefoglaló, a kockázatkeresés és a jogi szöveg-elemzés belső infrastruktúrán futhat.

Gyártóipari és védelmi ipari KKV-k

A duális felhasználású technológiák, a gyártási eljárások, az anyagösszetételek és a minőség-ellenőrzési protokollok ipari titkot alkotnak. Egy külföldi API-nak küldött prompt ezeket potenciálisan kiteszi. Különösen igaz ez a NATO-ellátási láncban részt vevő vállalatokra, ahol a biztonsági előírások az adatkezelésre vonatkozóan szigorúbbak a GDPR-nál is.

Hogyan mérhető az adatvédelmi kockázat API vs. on-premise között?

Nem minden adat egyforma. Érdemes egy egyszerű kockázati kerettel gondolkozni:

Alacsony kockázat — API mehet:

  • Nyilvánosan elérhető tartalom feldolgozása
  • Általános szövegírás, marketing copy, SEO tartalom
  • Semmilyen személyes vagy bizalmas adatot nem érint a prompt

Közepes kockázat — körültekintés kell:

  • Belső dokumentumok, ahol nincs személyes adat, de üzleti stratégia igen
  • Partneri levelezés, amely üzleti tervet tartalmaz
  • Fejlesztői kód, amely infrastruktúra-detaileket tartalmaz

Magas kockázat — on-premise kötelező:

  • Személyes adatot tartalmazó dokumentumok (GDPR-érzékeny)
  • Orvosi, pénzügyi, jogi ügyféladatok
  • Minősített vagy üzleti titkot alkotó anyagok
  • Belső HR folyamatok, teljesítményértékelések

A kockázat mérése nem rakétatudomány: elegendő végigmenni a feldolgozandó dokumentumokon és megkérdezni — “ha ez kiszivárogna, ki szenvedne kárt és mennyit?”

Az on-premise LLM nem egy szerverfarm

Az egyik legelterjedtebb tévhit: az on-premise futtatás csak nagyvállalatoknak lehetséges, mert drága és összetett infrastruktúrát igényel.

2026-ban ez már nem igaz. A jelenlegi reális lehetőségek:

Egy Qwen2.5-14B Q4_K_M kvantizált modell egy NVIDIA RTX 4090-es GPU-n (24 GB VRAM) production minőségű szöveggenerálást futtat, latenciája 1-3 másodperc / válasz. Az RTX 4090 ára ma kb. 1500-1800 EUR. Egy közepes méretű cégnél ez egyszeri infrastruktúra-beruházás, ami megtérül az API-megtakarításon.

Még ennél is kisebb footprinttel: egy Apple M2/M3 Pro Mac Studio (64 GB unified memory) stabil minőséggel futtat 13-30B paraméteres modelleket. Sok tanácsadó iroda és klinika ezt a megoldást választja — asztali méretű, csendes, egyszerű karbantartású.

A szoftver oldalon az Ollama és az LM Studio tette mindezt telepíthető és menedzselhető szintre. Egy IT-értő csapat egy nap alatt deployálhat egy működő, API-hívható belső LLM-et.

A felelősség kérdése

Az on-premise vs. API döntés végső soron nem technológiai — hanem felelősségi kérdés.

Ha API-t használsz: az adatkezelési felelősség egy részét átadod a szolgáltatónak. Cserébe kényelmet és teljesítményt kapsz. Ez elfogadható megállapodás — de tudatosan kell megkötni, és dokumentálni kell.

Ha on-premise-t választasz: teljes kontrollt tartasz. Az adatok nem hagyják el az infrastruktúrát, a feldolgozás auditálható, a megfelelőség bizonyítható. Cserébe több munkát vállalsz a telepítésben és a karbantartásban.

A probléma nem az API vagy az on-premise. A probléma az, amikor valaki nem döntött tudatosan — csak elkezdte használni a legkényelmesebb eszközt, anélkül hogy feltette volna a kérdést: “ki viseli a felelősséget ezért az adatért?”

Mert ha ezt nem teszed fel, a válasz alapértelmezésben te leszel.


Kapcsolódó gondolatok


Varga Zoltán - LinkedIn Neural • Knowledge Systems Architect | Enterprise RAG architect PKM • AI Ecosystems | Neural Awareness • Consciousness & Leadership Az adatért mindig valaki felel — legyen az tudatos döntés, ne véletlen következmény.

Beszéljünk erről

Ha ez a cikk gondolatokat ébresztett — foglalj egy 1 órás beszélgetést.

Időpont foglalás