Hoci jazykové modely na báze umelej inteligencie (AI) napredujú raketovým tempom, stále majú ďaleko od dokonalosti. Svedčí o tom napríklad skutočnosť, že OpenAI, strojca systému ChatGPT, môže čeliť žalobe za urážku na cti. Jeho jazykový model mal totiž krivo obviniť reportéra zo spáchania trestného činu, informuje portál The Verge.
Jazykové modely prenikajú čoraz hlbšie do citlivých vrstiev ľudskej spoločnosti. Na jednu stranu to dokáže byť prospešné, na druhú stranu to môže viesť k nepríjemným komplikáciám. Na vlastnej koži sa o tom presvedčil americký reportér Mark Walters, ktorého ChatGPT obvinil zo sprenevery a finančných podvodov v neziskovej organizácii.
To je vážne obvinenie, ktorého potvrdenie by so sebou nieslo ťažké následky. Išlo však o dezinformáciu, ktorú jazykový model vygeneroval na žiadosť novinára Freda Riehla.
„Zákazník má vždy pravdu“
Tento incident prichádza popri rastúcemu objemu sťažností na nepravdivé informácie generované jazykovými modelmi. Tieto systémy nedisponujú spoľahlivým spôsobom, vďaka ktorému by dokázali vždy efektívne rozlíšiť skutočnosť od výmyslu. Keď sú teda požiadané o určité informácie, najmä ak majú tieto informácie potvrdiť niečo, čo sa žiadateľ domnieva, že je pravda, pre účely úspešného výsledku si vymýšľajú dátumy, fakty aj čísla.
Zvyčajne výmysly jazykových modelov so sebou nenesú až tak vážne následky. Dá sa povedať, že v takom prípade používatelia len stratia pár minút svojho času. Akonáhle však dôjde k vážnym dezinformáciám, ako je napríklad predmetné obvinenie amerického reportéra, treba čakať adekvátnu odozvu.
A tak sa aj stalo. Walters v štáte Georgia podal žalobu na spoločnosť OpenAI za urážku na cti. Žaloba vytvorená systémom ChatGPT síce obsahovala niekoľko vecne správnych informácií, no našli sa v nej aj kopy výmyslov a nepravdivých tvrdení. Žaloba uvádza, že Walters mal spreneveriť finančné prostriedky vo výške až 5 miliónov amerických dolárov (4,6 milióna eur).
Fact-checking netreba podceňovať
Jazykové modely dokážu ľudstvu pomôcť, no netreba zabúdať na to, že stále ide o čerstvé systémy, ktoré rozhodne nie sú bezchybné. Poväčšine síce môžu generovať relevantné informácie, no tu a tam „vypľujú“ aj nejakú tú hlúposť. Problémom je, že mnohí podceňujú dôležitosť fact-checkingu, teda overovania faktov, čo následne vedie k vzniku dezinformácií. A ako všetci vieme, dezinformácie sa šíria naozaj rýchlo.
Ak teda patríš medzi používateľov ChatGPT alebo iných jazykových modelov, všetky informácie si radšej vlastnoručne over. Áno, je to časovo náročný proces, no aspoň si budeš istý, že vygenerované materiály majú hlavu a pätu. A to ti v konečnom dôsledku môže len pomôcť.