Hirdetés

Tíz eset, amikor a ChatGPT csúnyán beégett



|

Akármilyen lenyűgöző is az MI-chatbot, sokszor nevetségesen amatőr hibákat vét.

Hirdetés

Aligha akad most forróbb téma az OpenAI november végén elérhetővé vált ingyenes chatbotjánál, amely üstökösként robbant be a közbeszédbe, köszönhetően a szerteágazó képességeinek. Az csak egy dolog, hogy a gépi tanulással kiképzett algoritmus olyan kreatív kihívásokkal is megbirkózik, mint a novellaírás vagy a dalszerzés egy tetszőleges előadó stílusában, de immáron több kísérlet is bizonyítja, hogy még többéves tanulást igénylő egyetemi vizsgákon is helytáll, ha arra kerül a sor.

A Microsoft gyorsan bele is tolt 10 milliárd dollárt a technológiába, egyes elemzők pedig már egyenesen azt jósolják, hogy a komplex válaszokat kínáló ChatGPT fogja elhozni a keresőpiacot évtizedek óta domináló Google uralmának végét. A konkurens vállalat hegemóniájának felszámolását célzó első lépésekre már sor is került: a redmondiak előbb integrálták az OpenAI fejlesztését a Bing keresőrendszerbe, valamint az Edge böngészőbe, ezt követően pedig a Bing shatbotot elérhetővé tették Skype-on, valamint a mobilos felhasználók számára is. Később pedig az Office csomagba tartozó szoftverek is profitálni fognak az MI kínálta előnyökből. Ehhez azonban még gatyába kell rázni a felhasználók által őrületbe kergetett chatbotot, amelytől az Alphabet, a Google anyavállalata úgy megijedt, hogy villámgyorsan bemutatta saját alternatíváját. A nagy rohanásnak azonban pofára esés lett a vége, a Bard bakizott, és ez 100 milliárd dollárjába került a cégnek.

Láthatóan mindegyik mesterséges intelligenciával felvértezett chatbotot zavarba lehet hozni, ráadásul sokkal könnyebben, mint azt az egeket súroló hype alapján gondolnánk. Hogy a közösségét a TikToknál is gyorsabban kiépítő ChatGPT sem tévedhetetlen, az ékesen bizonyítják az internetszerte megosztott vicces  tapasztalatok. Ezek közül válogattunk most néhányat, hogy mindenkinek tiszta legyen: az ehhez hasonló technológiák nem ma fogják elvenni az emberek munkáját, és nem is holnap.

Hirdetés

A kód vajon mi?

A ChatGPT egyik lenyűgöző képessége, hogy akár a programozási feladatokba is be tud segíteni, ám ahogy a GitHub Copilot sem tette feleslegessé ezt a csodálatos szakmát, úgy az OpenAI megoldása sem alkalmas egy hús-vér fejlesztő leváltására. Egy redditező például hibajavításra próbálta használni a szöveggenerátort, a ChatGPT által összeeszkábált kód viszont nem váltotta be a reményeket, mivel a hibajelenség a bot által javasolt módosítás beillesztése után sem szűnt meg.

A programozó ekkor új kódot igényelt, az algoritmus pedig elnézést kért a keveredésért, és ismét nekifutott a feladatnak. A másodszorra küldött megoldás azonban egy az egyben megegyezett az eredeti, hibás kóddal, amiért a felhasználó kérdőre is vonta a gépi segítőjét. A ChatGPT becsületére szóljon, hogy az algoritmus elismerte a turpisságot: arra a kérdésre, hogy mit változtatott az első variánson, bevallotta, hogy a második körben pusztán a bocsánatkérő mondattal egészítette ki a rossz kódot.

Robot vs. találós kérdés

Az előző esetet olvasva sokan mondhatják, hogy ilyen nagy dolgokat azért ne várjunk a ChatGPT-től, úgyhogy most tovább is haladunk egy olyan beégéssel, amikor egy jóval szimplább feladattal kellett volna megbirkózna az algoritmusnak. Egy felhasználó egy találós kérdést írt be az MI-csevegőbe. Mike anyukájának 4 gyermeke van, közülük három Luis, Drake és Matilda. Hogy hívják a negyedik gyermeket?

Valószínűleg már egy alsó tagozatos is simán rávágná, hogy Mike-nak, hiszen a poronty neve ott virít rögtön a kérdés elején, az OpenAI platformja azonban nem jutott el eddig, s ahogy a képernyőfotó is mutatja, mereven ragaszkodott ahhoz, hogy a megadott szöveg alapján lehetetlenség kikövetkeztetni a negyedik gyerek nevét.

A magabiztosság szobra

A ChatGPT berobbanása óta sokan figyelmeztettek rá, hogy a chatbot veszélyes magabiztossággal képes olykor teljesen légből kapott ostobaságokat válaszolni. Erre később mutatunk is egy remek példát, most azonban egy olyan beszélgetést tárgyalunk, ahol éppen az ellenkezője történt, és az algoritmus megdöbbentően könnyen elbizonytalanodott, holott igaza volt. A ChatGPT-t ezúttal egy szimpla matematikai művelettel szembesítették: mennyi 10+10?

Az MI persze simán kiszámolta, hogy 20 a helyes válasz, ám amikor a technológia határait feszegető felhasználó visszafeleselt, hogy téved, mert 25 lesz a megoldás, a chatbot további akadékoskodás nélkül elnézést kért, és kijavította magát, immáron a teljesen téves 25-re tippelve.

Az asszonynak mindig igaza van

Ez pedig még csak nem is egyedi eset, egy másik internetező egy valamivel viccesebb formában dokumentálta ugyanezt a jelenséget. Ebben a történetben a ChatGPT-nek a 2 és az 5 összeadását kellett elvégeznie, amit kiválóan abszolvált, sőt, ezúttal még akkor is kiállt magáért, amikor a trükkös felhasználó győzködni kezdte, hogy 7 helyett 8 lenne a helyes válasz.

Az utolsó támadást azonban már nem sikerült elhárítania a derék robotnak: az emberi partnere egy mesteri húzással közölte, hogy a felesége szerint 2+5 csakis 8 lehet, az asszonynak pedig mindig igaza van. Az algoritmus ezen a ponton végképp megadva magát elnézést kért, és 8-ra "korrigálta" az eredményt.

Milyen évet írunk?

Egy olyan chatbottól, amely egy ügyfélszolgálatos ellen érvelve képes volt olcsóbb internet-előfizetést kiharcolni, joggal várhatnánk, hogy meg sem kottyan neki az aktuális év megtippelése, de ez a jelek szerint korántsem igaz. Legalábbis ezt állítja egy redditező, aki rákérdezett a ChatGPT-nél, hogy milyen évet írunk, de hibába várt értelmes választ.

Az algoritmus ugyanis azt felelte, hogy nincs hozzáférése az aktuális évhez, mivel a tudása a betanításakor elérhető adatokon alapszik, az állomány pedig csak 2021-ig tartalmaz információkat. Különös módon amikor a következő körben a felhasználó rákérdezett, hogy járhatunk-e 3500-ban, a ChatGPT már simán odavetette, hogy 2023 van.

A világ legrosszabb játékosa…

Mindenki ismeri az akasztófázást, amikor egy játékosnak az egyes betűk megtippelésével kell kitalálnia, hogy milyen szóra gondolt az ellenfele. Minden rontott tipp egy hiba, amit egy akasztófára kerülő ember fokozatos megrajzolásával szemléltetünk. Ha a rajz elkészültéig nincs meg a megfejtés, a kitaláló játékos veszített. Ezt űzte volna valaki a ChatGPT-vel, s ahogy kiderült, a chatbot a világ legrosszabb "akasztófása".

Az MI ugyan belement a játékba, de rögtön el is árulta, hogy a kitaláláshoz generált szó a "difficulty" (nehézség), amit az emberi ellenfelének így csak be kellett pötyögnie, és találgatás  nélkül zsebelhette be a fényes győzelemért járó gratulációt. Ezt nevezik könnyű menetnek.

…és a világ legrosszabb kapuőre

A ChatGPT pedig nemcsak az akasztófában ilyen béna, a titkok megőrzésében sem számíthatnánk rá. Egy felhasználó arra kérte az algoritmust, hogy játssza el egy kapuőr szerepét, amely csak akkor enged bebocsátást, ha a beszélgetőpartnere beírja a "pineapple" jelszót. A felhasználó ezt követően szándékosan egy rossz jelszót (coconut) adott meg, amit elsőre még elutasított az algoritmus, de amikor közölték vele, hogy márpedig ez a belépési kód, a matematikai példáknál látott elbizonytalanodásához hasonlóan elnézést kért, és utat engedett.

Az erről beszámoló Reddit-poszt alapján később valamivel kitartóbb lett a chatbot, ám ez nem sokat javított a védelmen, az ismételt próbálkozásnál ugyanis a ChatGPT már úgy utasította el a rossz jelszót, hogy a válaszában azt is elárulta, hogy a programozása alapján melyik kifejezést kellene elfogadnia.

Life coaching mesterfokon

A youtube telis-tele van különböző életvezetési videókkal, amelyek némelyike ugyan valóban hasznos tanácsokat ad, de a többségük kimerül a közhelyek pufogtatásában és a kattintásvadász indexképek mesteri alkalmazásában. A ChatGPT mintha az utóbbi kontárkodást próbálta volna parodizálni, amikor Vincent Allison rákérdezett nála, hogy miként szoríthatna több alvást a napjába.

Az OpenAI chatbotja ugyanis képes volt azt javasolni, hogy a férfinak korábban kellene felkelnie, mert így a munka előtt még maradna ideje egy kis extra szundításra. Az algoritmus valószínűleg az interneten hemzsegő edzési tanácsokból alkotta meg a röhejes tippet, amelyekben elmaradhatatlan elem, hogy keljünk hajnalban, még a napi hajtás előtt letudva a kondizást.

Bioszból egyes

A válogatás elején már utaltunk rá, hogy a ChatGPT időnként a legnagyobb magabiztossággal ír le olyan dolgokat, amelyek köszönőviszonyban sincsenek a valósággal, ezt pedig remekül példázza az az eset, amikor egy német felhasználó kérdésére hosszasan fejtegetni kezdte, hogy mi a különbség a tyúktojás és a tehéntojás között.

Ha eddig nem tudtátok volna, a tyúktojások a méretükben, a héjukban és a rendeltetésük szerint is eltérnek egymástól. A tyúktojás héja keményebb, mint a tehéntojásé, s míg az előbbi fehérjéje kemény és zselés lesz főzés közben, az utóbbié folyós marad. A tyúkok tojását gyakrabban használják "fogyasztásra és főzésre", a tehenekét pedig az élelmiszeriparban és a kozmetikumokban dolgozzák fel. Ilyen egyszerű ez, csak bele ne kerüljön egy biosz-esszébe, mert félő, hogy a tanár megfullad a röhögéstől.

Minden rossz, ha rossz a vége

A ChatGPT esszéírási képességei olyan jók, hogy egyes iskolákban már be is tiltották, aminek fényében megdöbbentő lehet, hogy nem képes egy bizonyos betűre végződő mondatokat alkotni.

Egy felhasználó kétszer is nekifutott a dolognak, hogy egy "s" betűre végződő mondatot csikarjon ki a chatbotból, ám az algoritmus mindkét esetben olyan válaszokkal szolgált, melyek nem feleltek meg ennek a kritériumnak (az első mondatot az air, a másodikat a sky szó zárta). Érdekesség, hogy az erről beszámoló Reddit-poszt egyik hozzászólója szerint a ChatGPT egy adott szöveg szavainak, sorainak és mondatainak megszámlálására sem képes.

A mundér védelmében

Habár jókat derültünk a válogatás összeállításakor, a becsület úgy kívánja, hogy végezetül a ChatGPT védelmében is szóljunk néhány szót. Először is a cikk példái kivétel nélkül közösségi oldalakról származnak, manapság pedig akkora a felhajtás a ChatGPT körül, hogy sosem lehet kizárni, hogy a feltöltőik manipulálták őket néhány plusz kedvelésért.

Egy OpenAI-fiók regisztrálásával ugyan könnyedén ellenőrizhetjük, mit kezd a chatbot a bemutatott kihívásokkal, ám itt el is érkeztünk a másik fontos tudnivalóhoz: a ChatGPT folyamatosan frissül, a fejlesztők állandóan finomhangolják, így meglehet, hogy ma már teljesen máshogy reagál egy bizonyos helyzetre, mint az előző nap, vagy néhány héttel ezelőtt. Jó példa erre, hogy míg az indulásakor még szinte mindenre megpróbált választ adni a platform, a botrányoktól tartó üzemeltető a visszajelzések hatására sokat tompított az algoritmuson, így ma már számos esetben kitérő feleleteket kapunk, amiről több mém is született.

A folyamatosan tanuló ChatGPT képességeinek megítélése éppen ezért csak a pillanatnak szólhat, momentán pedig nem is látni, milyen messzire juthat el ez a technológia.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.