Inno/Tech

Chat GPT a csalók szolgálatában?

Szerző Ónodi Vanda

Adatbiztonság, szabályozások, kockázatok és lehetőségek

Manapság már mindent átjár a technológia. A mindennapi életünk része, és ezért is fontos odafigyelni a lehetséges veszélyekre, amelyek felett többségében elsiklunk. Az adataink sok mindent elárulnak rólunk és könnyen vissza lehet élni velük, ha rossz kezekbe kerülnek. Az egyik ilyen veszélyforrás a mesterséges intelligencia (MI), amely egy nagyon hasznos eszköz lehet cégek és magánszemélyek számára is az automatizációban, viszont ennek vannak hátulütői is. Csak pár példa: az adathalászok hihetőbb megkereséseket írhatnak a segítségével, kiszivároghatnak személyes adatok az algoritmus tanulása során, illetve könnyebb lehet vele plágiumot elkövetni.

A technológia fejlődésével egyre több mindenre lehet használni a mesterséges intelligenciát, mint például elemzés, szövegírás, vázlatok készítése, ellenőrzési feladatok, illetve fordítás. Az egyik legpopulárisabb mesterséges intelligencia eszköz az Open AI által fejlesztett chat GPT, ami egy úgynevezett nagy nyelvi modell, ami az emberi szöveg írását próbálja meg utánozni az algoritmus tanulási folyamata során felhasznált adatokkal. Az Európai Unióban a felhasználók rendelkezhetnek adataikkal, amelyek alapján engedély esetén fejlesztik az algoritmust. A mesterséges intelligencia nagyon hasznos, de továbbra is egy fejlődő – az ember által fejlesztett – eszköz, ami nem mindig megbízható, van hogy téves információt közöl, vagy valótlant állít, esetenként személyekről is, így személyi jogokat sérthet. A sok adatszükséglete, valamint a lehetséges adatszivárogtatás miatt aggodalmak merültek fel a GDPR-nak való megfelelésben. Ezekre jogorvoslatokat és folyamatos fejlesztéseket tesznek az OpenAI európai felhasználóinak.

Tanulás és tanítás hasznos eszköze lehet a MI, azonban amerikai felmérések alapján megosztó nézet alakult ki róla. Segíti a kritikus gondolkodást és személyre szabott tanulást, vagy épp hátráltatja azt? A téma kapcsán egy dologban van nagy egyetértés, hogy az iskolákban szabályozni kell a használatot. Diákok buktak már le MI használatával a megmérettetések során.

Akadémiai körökben is kérdés a mesterséges intelligencia használata, plágium sokkal könnyebben elkövethető ennek a segítségével, akár több oldalt is meg lehet íratni MI-val és bár vannak ingyenes és megvehető MI detektáló alkalmazások, ezek sokszor nem jelzik a gépi szöveget.

A nem észrevehető mesterséges szövegek azonban nem csak itt okoznak gondot, ennek segítségével az adathalászok sokkal könnyebben, hihetőbben és gyorsabban tudnak fals emaileket gyártani, így akár tömeges kiber támadásokat indíthatnak a csalók adathalászat céljából, mellékletekkel vírusokat és malware-t tehetnek a gépekre.

Bár az Open AI tett a csalások elkerülése céljából biztonsági mechanizmusokat a rendszerbe, de ezek nem mindig működnek megfelelően. Az adathalász email megkeresések generálását megpróbálja korlátozni és letiltani, mint például pénz kérésre írt emailek, vagy banki adatok gyűjtése, de ezeket könnyedén kikerülhetik a csalódk.

A legtöbb rosszindulatú emailnek azonban vannak jelei, de ezekre oda kell figyelni, mert nem könnyű meglátni őket. Ezek váratlanul bukkannak fel, ismeretlen emailben kártékony linkeket, vagy rosszindulatú fájlokat tartalmaznak, gyakori stratégia a sürgetés, határidőhöz kötött ajánlat, ingyenes ajándékok. Népszerű hírekre építenek vagy vészhelyzetekre, hogy rákattintsanak az emberek, illetve az email címük gyakran nem valós (az email cím és az egérrel rámutatva felugró email közötti különbség, elírás gyakori) és magukat szervezetek, vállalatok képviselőinek próbálják kiadni. Az így szerzett adatokat ezután a dark weben is eladhatják, személyazonosság lopás vagy csalás céljából.

Ha mindez nem lenne elég, a mesterséges intelligencia az álhírek terjesztéséhez is nagy mértékben hozzájárul. Az algoritmus igyekszik mindenképpen megválaszolni a neki feltett kérdéseket, és ha azt nem tudja pontosan kinyerni a már betáplált adatbázisból, akkor összeollózza a kapcsolódónak vélt témakörökből. Ez viszont nagyon gyakran vezet félretájékoztatáshoz, téves információközléshez. Mindez pedig igazán akkor jelent problémát, ha bizonyos szervezetek és hatalmak, kihasználva például a chat gpt gyengeségeit a területen, propaganda gépezetként használják azt.

Ahogy arról korábban beszámoltunk, az új Globális Kockázati Jelentés kimutatásai szerint a következő időszakban a 2. legvalószínűbb globális válságot okozó kockázat a mesterséges intelligencia félretájékoztatásához és az MI által terjesztett álhírekhez lesz köthető. Ez nemcsak a politikai és gazdasági szintéren okoz hatalmas problémát, hanem az egészségügy és más tudományterületek esetében is, ahol a pontos információ és tudás elengedhetetlen a tudatos és jó döntés meghozatalához, az álhírek pedig ezeket a folyamatokat akadályozzák, sőt, esetenként szinte ellehetetlenítik.

És bár a legtöbb technológiai nagyvállalat (mint a Google és az Apple is) szokta ellenőrizni az applikációkat, és keresőmotorok is jelezni próbálják a nem biztonságos oldalakat, erre nem jut mindig elégséges idő, így a gyors reakció késve érkezhet. Ha tehát munkahelyi vagy mindennapi környezetben a mesterséges intelligenciát hívjuk segítségül, fontos az elővigyázatosság, adataink és eszközeink védelme. A vírusírtók és detektorok viszont a csalásoktól nem védenek, így egy biztos, az MI egyre nagyobb terjedése még nagyobb körültekintést kíván majd meg tőlünk az online térben.

A szerzőről

Ónodi Vanda

Leave a Comment