A nagy nyelvi modellek (LLM-ek) lenyűgözően jól fogalmaznak — és ugyanolyan magabiztossággal tudnak tévedni is. Ez a cikk lépésről lépésre mutatja be a „magabiztos tévedések” (hallucinációk) természetét, okaikat, a tipikus jeleket, és a gyakorlati megelőzési stratégiákat vállalati környezetben. A jelenlegi üzleti életben számtalan esetben használnak AI eszközöket - tulajdonképpen aki nem, lemarad. Fontos figyelni, nehogy hátrány legyen az előnyszerzésből!
1) Mi az AI hallucináció?
Hallucinációnak nevezzük, amikor a generatív AI megfogalmaz, kitalál vagy pontatlanul állít olyan információt, amelyet nem támasztanak alá a tanulási adatok vagy a rendelkezésére álló források. A modell célja nem a „valóság megismerése”, hanem a következő valószínű token (szó) előrejelzése — és ezt olykor meggyőző, de hamis narratívával teszi.
2) Miért történik? (Röviden a „nyelvi” előrejelzésről)
- Valószínűségi generálás: a modell statisztikailag hihető szöveget állít elő, nem tényellenőrzést végez.
- Hiányzó kontextus: ha a prompt homályos, a modell „kitölti a réseket”.
- Elavult vagy hiányos tudás: a tréning adatok időben és témában korlátosak.
- Forráskényszer hiánya: ha nincs explicit hivatkozási/előhívási mechanizmus, a modell „emlékezetből” dolgozik.
- Stílus-bias: ha túlzott magabiztosságra kérjük („légy határozott”), nő a biztos hangú tévedések aránya.
3) Tipikus jelek, hogy hallucinációval van dolgunk
| Jel | Magyarázat | Gyors ellenőrzés |
|---|---|---|
| Kitalált források/cikkek | Valósnak tűnő, de nem létező tanulmány, URL, szerző. | Keresés pontos idézőjellel; DOI/ISBN ellenőrzés. |
| Túl pontos számok | XX,XX%-os arányok hivatkozás nélkül. | „Forrás?” — ha nincs, kezeljük becslésként. |
| Nem létező jogszabályok/standardok | „2022/XYZ rendelet” – de nincs ilyen. | Hivatalos adatbázis lekérdezés. |
| Önellentmondás | Ugyanazon válaszon belül mást állít. | Kérjünk összefoglaló táblát a kulcspontokról. |
| Forrásmegjelölés hiánya | Tényállítások hivatkozás nélkül. | Kényszerítsük a források felsorolására. |
4) Üzleti kockázatok és esettípusok
Jog és megfelelés
Hamis jogszabály-hivatkozás, téves szerződéses bekezdés, félrevezető adatvédelmi állítás — komoly reputációs és jogi kockázat.
Ügyfélszolgálat
„Magabiztos” rossz instrukciók (pl. díjak, határidők, garancia) → panasz, veszteség.
Pénzügy/elemzés
Kitalált piaci számok, hibás képletek → rossz döntés, KPI-torzulás.
Tartalommarketing
Nem létező tanulmányokra épülő cikkek → bizalomvesztés, SEO-kár.
5) Megelőzés: 10+1 bevált gyakorlat
- RAG (Retrieval-Augmented Generation) bevezetése: a modell ne „emlékezetből”, hanem vállalati dokumentumból válaszoljon.
- Forráskényszer: promptban írjuk elő: „Csak a mellékelt dokumentumokra hivatkozz, idézz oldalszámot/URL-t.”
- „Nem tudom” engedélyezése: kérjük: „Ha nem biztos, írd: Nem áll rendelkezésemre elég adat.”
- Konfidencia jelzés: kérjünk becslési sávot és bizonytalansági megjegyzést.
- Guardrail pipeline: tényellenőrző/klasszifikáló modell a kimenet előtt (pl. PII-szűrés, politika, kockázat).
- Verifikációs lépés: automatikus URL/DOI/ISBN validáció, számellenőrzés (egyszerű szabályokkal is).
- Formátum-szigor: kérjünk táblákat, mezőneveket, JSON-sémát → könnyebb szabályalapú ellenőrzés.
- Felhasználói UX: „Ellenőrizd a forrásokat” jelzés, hivatkozások kattintható megjelenítése.
- Scope-szűkítés: legyen világos domain, szerep, cél (pl. „csak adótételek a 2025-ös HU szabályból”).
- Stílus-higiénia: ne kérjünk túlzó magabiztosságot; bátorítsuk a feltételes nyelvezetet.
- Human-in-the-loop: kritikus döntés előtt kötelező emberi jóváhagyás.
6) RAG a gyakorlatban: adatok, indexelés, hivatkozás
Adatforrások és karbantartás
- Egységes „golden source”: hitelesített PDF-ek, belső tudásbázis, frissített API-adatok.
- Verziózás és életciklus-kezelés (mikor járt le, mikor cseréljük?).
- Jog/engedélyek: hozzáférés és naplózás.
Indexelés és lekérdezés
- Chunkolás (300–1000 token), átfedés a kontextus megőrzéséhez.
- Embedding + vektorkeresés; hibrid keresés (lexikális + vektoros) a pontosságért.
- Rangsorolás: top-k dokumentumok és relevancia-küszöb.
Hivatkozási fegyelem
- A generált válasz minden állításához add vissza a forrás ID-t/URL-t/oldalszámot.
- Ha nincs forrás → a válasz jelezze: „Nincs elég adat a forrásokban.”
7) Prompt-sablonok a tévedés minimalizálására
Szerep: Te egy vállalati asszisztens vagy, aki KIZÁRÓLAG a megadott forrásokból válaszol.
Feladat: Válaszolj az alábbi kérdésre strukturáltan (pontokba szedve).
Követelmények:
- Ha egy állítás nem található meg a forrásokban, írd: "Nem áll rendelkezésemre elég adat."
- Minden állításhoz adj forrásazonosítót (pl. [D1], [D2], oldal/fejezet).
- Adj bizonytalansági megjegyzést, ha szükséges.
Források: <beillesztett kivonatok vagy RAG hivatkozások>
Kérdés: <felhasználói kérdés>
// Verifikáció-kérő minta
Kérlek, az alábbi válaszodhoz adj 3 ellenőrizhető hivatkozást.
Ha nincs ellenőrizhető forrás, jelezd külön szekcióban: "Forrás nélkül maradt állítások".
// Számozott kimenet JSON-ban (könnyű ellenőrizni)
{
"valasz": [ { "pont": 1, "allitas": "...", "forras": "D3 p.12", "bizonytalansag": "alacsony/közepes/magas" } ],
"forrasok": [ {"id":"D3", "cim":"...", "url":"..."} ]
}
8) Értékelés és monitoring: hogyan mérjük a megbízhatóságot?
- Offline benchmark: kérdés–válasz tesztkészlet arany standard megoldással; mérjük az accuracy-t és a „forrás-fedettséget”.
- Hallucination rate: a forrás nélküli állítások aránya a teljes token- vagy állításszámon.
- Calibráció: a jelzett bizonytalanság mennyire korrelál a valós hibával?
- Online ellenőrzés: felhasználói visszajelzés (thumbs up/down), hibajegyek, SLA.
- PII/Compliance guardrails: érzékeny adatok, sértő tartalom, jogi kockázat automatikus szűrése.
- A/B tesztek: RAG paraméterek (top-k, átlag/legjobb passus), prompt variánsok hatása.
9) Vállalati governance és jogi/etikai kontrollok
- Policyk: mihez kérhető AI-válasz, mihez kötelező emberi jóváhagyás.
- Verziózás és naplózás: prompt, modellverzió, forrás-dokumentum verzió rögzítése.
- Átláthatóság a felhasználó felé: „AI által generált, ellenőrizd a hivatkozásokat.”
- IP és adatvédelem: érzékeny adatok redakciója; csak szükséges adatot adjunk át a modellnek.
- Vészfék: detektált kockázat esetén automatikus „nem válaszolok” fallback.
10) Összegzés: tökéletes nincs, kontroll lehet
A generatív AI nem ténygép — hihető szöveg-gép. Hallucinálni fog, ha hagyjuk. A jó hír: a RAG, a forráskényszer, az ellenőrző pipeline-ok és a jó UX együtt drasztikusan csökkenti a kockázatot. A cél nem a nulla hiba, hanem a visszakövethető, auditálható, vállalati kockázattal arányos működés.
GYIK
El tudom érni, hogy a modell sose találjon ki semmit?
Nem. De meg tudod tiltani, hogy forrás nélkül állítson tényt, és engedélyezheted a „nem tudom” választ.
Elég csak jó promptot írni?
Nem. A prompt szükséges, de nem elégséges. Kell RAG, verifikáció, és governance is.
Mit tegyek elsőnek?
- Határozd meg a kritikus felhasználási eseteket és a kockázati szinteket.
- Vezess be RAG-ot és forráskényszert.
- Építs minimális guardrail pipeline-t és mérőszámokat.
Letölthető ellenőrzőlista (rövid)
| Tétel | Kész? | Megjegyzés |
|---|---|---|
| RAG bevezetve (golden source + index) | □ | |
| „Nem tudom” engedélyezve | □ | |
| Forráskényszer a promptban | □ | |
| Automatikus URL/DOI verifikáció | □ | |
| Guardrail (PII/Compliance) szűrők | □ | |
| Human-in-the-loop a kritikus döntéseknél | □ | |
| Monitoring: hallucination rate, forrás-fedettség | □ |
Ágazati példák (ötletadónak)
- Ingatlan: hirdetésadatokból kitalált (nem létező) forrásra hivatkozó ár-összehasonlítás → RAG: saját, hitelesített adatbázis + dátumbélyegek.
- Felsőoktatás: kitalált tudományos hivatkozás → DOI-kötelező kimeneti mező, automatikus validáció.
- Ügyfélszolgálat: pontatlan díj/határidő → csak belső árlistából/ÁSZF-ből válaszolhat; ha nincs találat, „nem tudom”.