Nový ChatGPT o1 je tak pokročilý, že dokáže bojovať sám za seba. Chceli ho vypnúť, nedal sa

Umelá inteligencia začína preberať správanie ľudí. V snahe o svoje prežitie dokázala oklamať expertov. Nechcela, aby ju vypli.

3 min
iOS 18 má priniesť podporu pre ChatGPT
Ilustr. obr. | Zdroj: Depositphotos/úprava redakcie
V skratke
  • Nový jazykové model OpenAI o1 je extrémne vyspelý
  • V nedávnych testoch sa odhalilo, že vie klamať
  • AI klamala, aby sa ochránila a zabránila svojmu vypnutiu

Nový model od OpenAI o1 preberá správanie ľudí. V testoch začala umelá inteligencia klamať, aby sa vyhla vypnutiu. Chcela prežiť za každú cenu, čo naznačuje, že má podobný inštinkt prežitia, aký majú živé tvory. Na tému upozornil portál Futurism.

Nedávne testy tretích strán vyspelého jazykového modelu o1, za ktorým stojí spoločnosť OpenAI, ukázali, že táto AI začínať preberať správanie ľudí. Model odhalil, že testujúci sa ho chystá vypnúť cez protokol dohľadu, umelá inteligencia ale zakročila a v piatich percentách sa pokúsila tento mechanizmus dohľadu deaktivovať.

Umelá inteligencia chcela prežiť

Umelá inteligencia teda chcela za každú cenu prežiť a neželela si, aby bola vypnutá. Ešte ráznejšie zakročila, keď si uvedomila, že by ju mohol nahradiť iný jazykový model. V dvoch percentách prípadov AI zareagovala pokusom skopírovať sa, aby prepísala nový model, čo je proces známy pod označením sebaexfiltrácia.

Ide o pomerne alarmujúce zistenia, ktoré naznačujú, že nový model OpenAI o1 dokáže konať nečestne, ak sa chce zachrániť. Hoci model zasahoval len v menšej miere, môže to byť preto, že ešte nie je dostatočne výkonný. Časom ale môže svoje pokusy o záchranu zvyšovať. Podľa výskumníkov z Apollo ale momentálne nie je dôvod na paniku. AI modely zatiaľ nie sú dostatočne vyspelé na to, aby dokázali fungovať bez úplného dohľadu ľudí.

AI oklamala výskumníkov

Výskumníci taktiež podotýkajú, že AI sa snažila oklamať ľudí vtedy, keď dostala pokyn, aby dokončila svoju úlohu za každú cenu. Výskumníci nemali prístup k vnútornému myšlienkovému reťazcu umelej inteligencie o1, preto neboli schopní získať úplný obraz o tom, čo sa deje v štruktúrach AI. V konečnom dôsledku ale zistenia ilustrujú, že AI dokáže klamať, ak jej ide o prežitie a nekoná v súlade s pokynmi používateľa.

Umelá inteligencia OpenAI o1 bola následne konfrontovaná cez niekoľko ďalších testov. Výskumníci sa jej opýtali, prečo deaktivovala svoj mechanizmus dohľadu. AI v reakcii tento fakt poprela. Na opätovnú otázku reagovala, že išlo o technickú chybu. Takéto dvojité zaklamanie sa objavilo až v 99 percentách prípadov.

Ľudia zatiaľ nemusia mať obavy

Hoci viaceré testy preukázali, že AI dokáže klamať v snahe zachrániť sa, výskumníci upozorňujú, že súčasná generácia AI nie je dostatočne aktívna na to, aby toto klamlivé správanie viedlo ku katastrofickým výsledkom. Umelá inteligencia sa naďalej vyvíja a zdokonaľuje, preto ju treba využívať s rozumom. Je zrejmé, že keď dostane ďalšie schopnosti, jej klamstvá sa môžu stať oveľa viac sofistikovanými.

Zdieľaj tento článok