
dr. Szetei Ágnes
2026-05-12
Az orvostudomány és a technológia összefonódása nem újkeletű, ám a mesterséges intelligencia (MI) térnyerésével egy olyan etikai és jogi ingoványba léptünk, ahol a határvonalak elmosódnak. Amikor egy algoritmus elemzi a röntgenfelvételt, vagy javasol kezelési tervet, az orvos keze alá dolgozik. De mi történik akkor, ha a „fekete doboz” – amelynek döntési folyamatait sokszor maguk a fejlesztők sem látják át teljesen – téved?
Ez a kérdés nem csupán az orvosi rendelőkben visszhangzik. Ugyanezzel a feszültséggel néz szembe a könyvvizsgáló, az adószakértő és a jogalkalmazó is.
A diagnózis és a főkönyv: Párhuzamos kockázatok
Az Adózóna.hu cikke rávilágít: az orvosi felelősség alapvetően a „szakma szabályainak betartásán” alapul. Ha az orvos vakon bízik az MI-ben, és elmarad a kontroll, az műhibának minősülhet.
Vegyük át ezt a logikát a számvitel és az adózás világába. Ma már léteznek szoftverek, amelyek automatikusan kontíroznak, felismerik az adóeltéréseket, vagy éppen „optimalizációs” javaslatokat tesznek.
Ki felel, ha az algoritmus rosszul értelmez egy fordított adózás alá eső ügyletet, és a NAV súlyos adóbírságot szab ki?
Mentesülhet-e a könyvelő vagy az adótanácsadó azzal az érvvel, hogy „a szoftver ezt dobta ki”?
A válasz itt is a szakmai gondosság körében keresendő. Ahogy az orvos sem válhat az MI puszta végrehajtójává, úgy a pénzügyi szakember sem delegálhatja a végső felelősséget a technológiának. Az MI nálunk is csak segédeszköz: a „human-in-the-loop” (ember a folyamatban) elve szerint a végső szót az embernek kell kimondania. Ha a gép hibázik, és mi nem vettük észre, a mulasztás a miénk.
Büntetőjogi vetület: Szándékosság vagy gondatlanság?
A kérdés legsúlyosabb rétege a büntetőjog. A hatályos magyar Btk. szerint büntetőjogi felelőssége csak természetes személynek lehet. A gép nem büntethető. Az orvosi területen a foglalkozás körében elkövetett veszélyeztetés tényállása merülhet fel. Ha az orvos az MI-re támaszkodva téves döntést hoz, a bíróságnak azt kell vizsgálnia: elvárható volt-e tőle a gép eredményének felülbírálata? Ugyanez a dilemma jelenik meg a gazdasági bűncselekményeknél (pl. költségvetési csalás)
Ha egy mesterséges intelligencia által vezérelt adóoptimalizáló rendszer olyan struktúrát hoz létre, amely utóbb jogsértőnek bizonyul, ki a tettes?
A fejlesztő, aki az algoritmust írta?
A tanácsadó, aki az algoritmust alkalmazta?
Vagy a cégvezető, aki jóváhagyta a bevallást?
A jelenlegi joggyakorlat szerint a technológia használata nem mentő körülmény, sőt: a technológia nem megfelelő ismerete vagy a kontroll hiánya a gondatlanságot alapozhatja meg.
Az Európai Unió AI Act-je (a világ első átfogó MI-szabályozása) kockázati kategóriákba sorolja a rendszereket. Az orvosi diagnosztika és a pénzügyi szektor bizonyos elemei a „magas kockázatú” kategóriába eshetnek, ami szigorú átláthatósági és felügyeleti kötelezettséget ró a felhasználókra. A magyar Polgári Törvénykönyv (Ptk.) felől nézve a kárfelelősség központi eleme a felróhatóság. „Úgy járt-e el, ahogy az az adott helyzetben általában elvárható?” Ha egy szakértő (orvos vagy adótanácsadó) kritikátlanul elfogad egy olyan gépi eredményt, amely szakmai szemmel gyanús kellene, hogy legyen, a felelősség alól nem mentesül.
Záró gondolatok: A bizalom ára
Az orvos és a beteg, valamint az adószakértő és az ügyfél kapcsolata egyaránt a bizalmon alapul. Ezt a bizalmat nem a gépnek, hanem az embernek adják. A mesterséges intelligencia nem fogja kiváltani a felelősségünket, csupán átalakítja azt. Már nem az a dolgunk, hogy minden adatot mi vigyünk be, hanem az, hogy minden gépi kimenetet a szakmai intuíciónk és tudásunk szűrőjén engedjünk át. Az igazi kockázat nem abban rejlik, hogy a gép téved, hanem abban, ha mi elfelejtünk kételkedni benne.
Kié tehát a kockázat? Jogi értelemben – egyelőre és még jó ideig – változatlanul azé a szakemberé, aki a nevét adja a döntéshez. A technológia csak egy toll a kezünkben; az, hogy mit írunk vele, a mi felelősségünk marad.

