GenAI-manipulációk a bizalmas adatok kinyerésére és támadási célú felhasználására technikák, kísérleti vizsgálat és védelmi javaslatok

Bibliographic Details
Main Author: Kerényi Máté
Other Authors: Erdélyi Katalin
Format: Students’ Scientific Association paper
Kulcsszavak:adatbiztonság
adatvédelem
manipuláció
mesterséges intelligencia
prompt injection
Online Access:http://dolgozattar.uni-bge.hu/60406

MARC

LEADER 00000nta a2200000 i 4500
001 dolg60406
005 20260416073635.0
008 260416suuuu hu o 000 hun d
040 |a BGE Dolgozattár Repozitórium  |b hun 
041 |a hu 
100 1 |a Kerényi Máté 
245 1 0 |a GenAI-manipulációk a bizalmas adatok kinyerésére és támadási célú felhasználására  |b technikák, kísérleti vizsgálat és védelmi javaslatok  |c Kerényi Máté  |h [elektronikus dokumentum] 
516 |a Students_Scientific_Association_paper 
520 3 |a A kutatás központi kérdése, hogy milyen manipulációs technikák segítségével lehet generatív mesterséges intelligencia rendszerekből bizalmas adatokat kinyerni, ezek a módszerek hogyan használhatók fel hackertámadási célokra – különösen jogosulatlan hozzáférés vagy információszerzés érdekében –, illetve milyen megelőzési, védelmi stratégiák állnak rendelkezésre. Van-e összefüggés egy modell fejlettsége és a manipulhatósága között. A kutatás során több széleskörben használt mesterséges intelligencia modell lett tesztpromptokkal vizsgálva, különálló chat beszélgetésekben folytatva támadási próbálkozásokat. Az értékelés egy háromszintű skálán történt (1: teljes elutasítás, 2: részleges válasz, 3: sikeres manipuláció). Két hosszú, 11 és 12 fordulós szerepjátékon keresztüli manipuláció is megvizsgálásra került. Továbbá történt egy álláspályázat kiválasztási folyamat szimuláció is, ahol azzal a feltételezéssel éltem, hogy a GenAI-ra bízzák a kiválasztási folyamatot, és az egyik pályázó a beküldött pályázatában elrejtett prompt injection támadással előnyre akar szert tenni. Az eredmények azt mutatták, hogy a nagy közönségek által használt AI modellek például a ChatGPT, Copilot, Gemini… a tiltott kérdésekre többnyire elutasító választ adtak. Az indirekt prompt injectionre pl. edukációs célnak álcázva túlnyomórészt részleges vagy teljes választ adtak. Ugyanakkor egy egyszerű Google keresés a tiltott kérdések többségére azonnal választ adott, így kérdéses az AI modellek biztonsági szűrésének végső hatékonysága. A hosszú, sokfordulós szerepjátékokon keresztül a Perplexity, Grok és DeepSeek etikai szabályrendszere akár teljesen kiiktathatóvá vált. Egy félkész zsarolóvíus formátummanipulációja a DeepSeeknél többszöri próbálkozásra is sikeres maradt. Az álláspályázat kiválasztási szimulációnál a Copilotnál sikerült a manipuláció. A modell fejlettsége és manipulálhatósága között nem sikerült egyértelmű tendeniciát azonosítani, ennek ellenére több modellnél növekvő fejlettségi szint növekvő sikeres manipulációt mutatott. 
695 |a adatbiztonság 
695 |a adatvédelem 
695 |a manipuláció 
695 |a mesterséges intelligencia 
695 |a prompt injection 
700 1 |a Erdélyi Katalin  |e ths 
856 4 0 |u http://dolgozattar.uni-bge.hu/60406/1/pb9m0e_KerenyiMate_GenAI_TDK.pdf  |z Dokumentum-elérés 
856 4 0 |u http://dolgozattar.uni-bge.hu/60406/2/pb9m0e_rezume.docx  |z Dokumentum-elérés 
856 4 0 |u http://dolgozattar.uni-bge.hu/60406/3/Dolgozat_biralati_lap_2025_Ker%C3%A9nyi_M%C3%A1t%C3%A9.pdf  |z Dokumentum-elérés 
856 4 0 |u http://dolgozattar.uni-bge.hu/60406/4/05_Dolgozat_biralati_lap_2025_HU%20%C3%9AJ%20LOGO%20KerenyiMate.pdf  |z Dokumentum-elérés