A ChatGPT egy nagy nyelvi modell, amelyet az OpenAI fejlesztett ki. Használata lehetővé teszi, hogy szöveges kommunikáció során interakcióba lépjen az emberekkel, és különböző feladatokat végezzen el, például kérdésekre válaszoljon, vagy szöveget fordítson. Azonban a ChatGPT-vel kapcsolatosan felmerülhetnek etikai dilemmák, például a modell korlátai, illetve biztonsági és adatvédelmi kérdések, amelyeket figyelembe kell venni, ha a mesterséges intelligenciához fordulunk.
Írta: Orosz Petra; borítókép: unsplash.com
A ChatGPT megfelelő használatáról és a lehetséges dilemmákról beszélt Dabis Attila, az Egyetemi Könyvtár tudományos írás tanácsadója a könyvtár által szervezett online előadáson. Tapasztalatai alapján a hallgatók már most is készség szinten használják a különböző mesterséges intelligenciával működő platformokat akár egyetemi feladatokhoz is. A Budapesti Corvinus Egyetem által készített kérdőív, amely a mesterséges intelligencia működtette eszközök népszerűségét mérte, szintén azt az eredményt hozta, hogy bár sokan ismerik ezeket a platformokat, de jelenleg még sok kérdést vet fel a használat, főleg etikai szempontból. Az eseményen arra keresték a választ a résztvevők segítségével, hogy hogyan lehet megfelelően beépíteni az egyetemi tevékenységekbe a mesterséges intelligenciát.
Mesterséges intelligencia és a ChatGPT
A mesterséges intelligencia elektronikus rendszerek összefoglaló elnevezése. Ezek képesek olyan műveletek végrehajtására, amelyek kivitelezése korábban csak az emberi felfogóképesség révén volt lehetséges. A ChatGPT egy hasonló elveken alapuló szolgáltatás. A GPT egy mozaikszó, a generative pre-trained transformert foglalja magába, amelyet magyarul előre betanított generatív (szókombinációs) átalakítónak lehet fordítani. Elsősorban egy szöveggeneráló mesterségesintelligencia-modell, amelyet az interneten elérhető, illetve külön betáplált, főleg szöveges adatok segítségével állítottak elő. A GPT 3.5-ös verzióját egy több mint 45 terabájtnyi adatból álló, változatos korpuszon képezték ki, amely több százmilliárd szót tartalmaz, és az írott források széles skálájából, könyvekből, cikkekből, weboldalakból és az interneten elérhető szövegek más formáiból származik. De ez csak a kezdet. A GPT 4-et március 14-én prezentálta fejlesztője, az OpenAI nevű vállalat. Állításuk szerint a GPT 4-nél már 82 százalékkal kisebb a valószínűsége annak, hogy átengedi a tiltott tartalmat, vagyis kevésbé manipulálható, és 40 százalékkal valószínűbb, hogy tényszerű válaszokat ad, mint a GPT 3.5. Jobban szemléltetve: a magyar ügyvédi szakvizsgának megfeleltethető amerikai Bar Examen mindkét verziót vizsgáztatták, és míg a GPT 3.5 az alsó tíz százalékban végzett, a GPT 4 már a felső tíz százalékban.
„A GPT kis túlzással bármilyen szöveg-előállítással kapcsolatos feladat végrehajtására alkalmas. Esszéket lehet vele íratni, de azok vázának elkészítésére is alkalmas. Lehet használni parafrazeálásra; összefoglalókat, absztraktokat, könyvkritikát lehet vele íratni. Ha egy szemináriumi vitára szeretne a hallgató felkészülni, akkor ahhoz is ír vázlatot. Továbbá alkalmas még formális e-mailek szövegeinek megalkotására, interjúkérdések kidolgozására. Most már különböző képanyagokat, illusztrációkat is elő tud állítani”
– fejtette ki Dabis Attila a GPT szerteágazó felhasználási módjait.
Forrás: Unsplash.com
Segítő platformok
Az említett kérdőívre beérkezett több, mint 300 válasz alapján Attila a DeepLt (36% használja) és a Grammarlyt (40% használja) emelte ki mint a két legtöbbet használt platform a hallgatók körében (A ChatGPT mellett, melyet a válaszadók 54%-a használ). A DeepL egy online nyelvi fordító, amely mesterségesintelligencia-alapú fordítást végez, míg a Grammarly egy online nyelvhelyesség-ellenőrző szolgáltatás, amely szintén a mesterséges intelligencia segítségével automatikusan ellenőrzi az írásbeli anyagokat helyesírási, nyelvtani és stilisztikai hibákat. Attila ezeken kívül még két platformot említett, a Quillbot és Wordtune nevű szolgáltatásokat, amelyeket kifejezetten parafrazeáláshoz – vagyis egy gondolat nem szó szerinti idézéséhez, hanem összefoglalásához – lehet alkalmazni. A felmérés szerint ez előbbit jelenleg a válaszadók 11%-a használja.
A plagizálás problémája
Attila szerint egyáltalán nem fogadható el az, ha bármilyen egyetemi feladat vagy esszé teljes egészét valamilyen mesterségesintelligencia-alapú platformmal készíttetjük el. Ezt a gyakorlatot az Open AI a Felhasználási Feltételeiben maga is tiltja. A platformokat előállító társaságok is érzékelték a kevésbé etikus felhasználási módok terjedését, ezért előállítottak különböző, úgynevezett mesterségesintelligencia-detektorokat. Maga az OpenAI is fejlesztett ilyet, de hasonló módon működik a ZeroGPT is. Egy további megoldás lehet a digitális vízjel használata, amely több platformon már működik. Ez a rendszer az emberi szem számára láthatatlan módon jelöli meg a mesterséges intelligencia által gyártott szövegek minden formáját.
„Ezek az eszközök a szó emberi értelmében nem intelligensek, nem értik azokat a válaszokat, amelyeket adnak, nem tudnak róla, hogy mit írnak. Egy óriási nyelvi korpusz van beléjük táplálva, és ha valaki feltesz egy kérdést, akkor ők az alapján elvégeznek egy valószínűségszámítást. Tehát a működésük valójában arra alapul, hogy az adott kérdésre mi a legvalószínűbb válasz, ami nem feltétlenül egyezik meg mindig, vagy teljes egészében a helyes válasszal.. Ez van még annyiban finomítva, hogy megpróbálnak lehetőség szerint etikus válaszokat adni”
– emelte ki Attila. A mesterséges intelligencia használata több dilemmát is felvet. Ezek egyike az adatvédelmi aspektus: pontosan hogyan tárolják az általunk feltett kérdéseket és mire használják ezeket; ezáltal a transzparencia problémája is szóba jöhet, ami nem csak az adatkezelés tekintetében merül fel, hanem abból a szempontból is, hogy nem lehet tudni, hogy egy adott válasz megalkotásánál pontosan mely forrásokat veszi igénybe a GPT. Továbbá a profitszerzés kérdése is egy vizsgálandó szempont, pontosabban az, hogy milyen módon és hogyan lehet profitot termelni a generatív mesterséges intelligenciaeszközök használatával, amelyek szövegek mellet kép- és hanganyagok előállítására is alkalmasak már. Már több videó is kering az interneten, amelyben a ChatGPT-től kértek befektetési tanácsokat, vagy egyszerűen csak ötleteket, hogy hogyan válhat valaki milliomossá.
Forrás: Unsplash.com
Mire kell figyelni használat során?
A mesterséges intelligencia használatával kapcsolatban a szakirodalom két táborra oszlott. Az egyik irányzat azt az álláspontot pártolja, hogy ha egy írásos anyag nagy részét nem az emberi szerző, hanem egy szöveggeneráló program írta, akkor az etikus eljárás szerint a platform társszerzővé válik, de legalábbis jelölni kell valamilyen módon a szövegalkotásban való érintettségét (ezt a gyakorlatot követeli meg a hallgatóitól pl. az ausztráliai Monash Egyetem). A másik oldal véleménye azonban az, hogy a szerzők felelősek a saját munkájuk hitelességéért, eredetiségéért és integritásáért, amely felelősség nem átruházható. A mesterséges intelligencia nem vonható felelősségre, az emberi szerző viszont igen, ezáltal ő válik felelőssé azért, hogy hogyan használja ezeket a platformokat. A két vonal közül jelen állás szerint ez utóbbi tűnik a dominánsabbnak. Több vezető kiadó (pl. Taylor & Francis), illetve egyetem (pl. Harvard) is fogadott már el ezzel kapcsolatos állásfoglalást.
További dilemmát jelenthet még a megbízhatóság kérdése. Isaac Asimov sci-fi író alkotta meg a robotika három alaptörvényét, és bár az ő szabályai a tudományos-fantasztikus műveire vonatkoztak, a szakirodalom rávilágít az átmenetre a fikció és a valóság között. A három törvény így szól:
- A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény kárt szenvedjen.
- Egy robot köteles engedelmeskedni az emberi utasításoknak, kivéve, ha azok ellentmondanak az első törvénynek.
- Egy robotnak meg kell védenie saját létét, amíg az nem ütközik az első vagy a második törvénybe.
A második törvény nem minden esetben teljesül a mesterséges intelligencia kapcsán. Egy stanfordi PhD-hallgató tette közzé a Twitter-oldalán, hogy bizonyos szövegkörnyezetet generálva a ChatGPT-nél sikerült elérniük, hogy olyan tartalmakat és tanácsokat generáljon, ami egy fiatal fiú zaklatásához vezetne. Bár a ChatGPT nem adhatna ki emberi lényekre ártalmas gondolatokat, a rendszer manipulálható, és a kontextus határozza meg a válaszát. Ha ezeket az etikai gátakat ki lehet kerülni, akkor a ChatGPT veszélyes eszközként is felhasználásra kerülhet.
További fontos tényező a mesterséges intelligencia kapcsán a fake news gyártása. A ChatGPT esetében például nincs minden tudományos folyóirat a rendszerbe táplálva, emiatt fordulhat elő, hogy torzít vagy hazudik a chatbot. Ugyanis, ha nem ismeri a választ egy kérdésre, nem árulja el, hogy nem tudja, hanem kitalál fiktív forrásokat, és tudományosan nem validálható információkat nyújt a kérdezőnek.
Attila összegzésként elmondta, hogy érdemes használni ezeket a felületeket, azonban az egyetem rá van szorulva arra – elsősorban a teljesítményértékelés miatt – hogy keretek közé terelje ezeknek az alkalmazását. A Budapesti Corvinus Egyetem egységes állásfoglalásának kialakítása a kérdés kapcsán jelenleg is zajlik. A cél az, hogy konstruktív, rugalmas hozzáállás alakuljon ki, mert a tiltás nem vezet a várt eredményre. Itt is eltérnek a vélemények, például a New York-i közoktatási rendszerben a teljes tiltás mellett döntöttek, így oktatási feladatokra sem szabad használni a ChatGPT-t.
„Az egyetemi előmeneteletek végén képesnek kell lennetek arra, hogy tényalapon, tudományosan igazolható érvek mentén, újszerű gondolatokat fogalmazzatok meg írásban és szóban egyaránt, valamint az így kialakított véleményeteket képesek legyetek megvédeni. Talán ez a legfontosabb etikai érv, hiszen erre akkor is képesnek kell lennetek, ha áram sincs az egyetem falain belül, nemhogy internet. Ezeknek a rendszereknek a túlhasználat a veszélye, nem maga a használat. A veszély valójában az, hogy te a saját kapacitásépítő tevékenységedet ásod alá”
– tette hozzá Attila.
(Cikkünk címét és leadjét a ChatGPT készítette megadott paraméterek alapján.)