Ak aktívne používate Claude, zrejme ste si všimli (alebo si čoskoro všimnete), že vás konverzácia z ničoho nič začne vyzývať k tomu, aby ste si išli ľahnúť. Presne na toto správanie začali na sociálnych sieťach upozorňovať desiatky používateľov, údajne keď viedli dlhé konverzácie. Nejde vraj nutne o výzvy k spánku, ale všeobecne k oddychu či prestávke.
Tieto výzvy sa objavujú v bežných pracovných situáciách bez zjavného dôvodu. Niekedy je to uprostred nedokončenej úlohy, niekedy tesne po jej zahájení. Nikto zatiaľ nevie s istotou povedať, čo za tým stojí, no existujú teórie. Niektorí sú toho názoru, že ide o zámerné trénovanie zamerané na zdravie používateľov, iní zase tvrdia, že je to šikovný spôsob, ako šetriť výpočtovými zdrojmi, píše Business Insider.
Choď spať. Nevadí, že ešte svieti slnko
Jeden používateľ na sociálnej sieti Threads napísal: „Prečo mi Claude neustále hovorí, aby som išiel spať? V každom chate mi na nejakom bode povie, aby som si oddýchlo alebo že je čas ísť spať.“ Iný opísal, ako mu Claude navrhol, že “na dnes už urobil dosť”, hoci práve začal pracovať. Ďalší prípad hlási, že Claude dokončil päť z ôsmich zadaných úloh a následne sa opýtal: „Nemali by sme to na dnes ukončiť a pokračovať zajtra?“. V tom čase vraj bolo okolo štvrtej poobede.
Hoci sa tieto výzvy často objavujú náhodne, najčastejšie sa to vraj deje pri dlhých sedeniach. Podľa jednej analýzy sa Claude sám prepína do režimu akéhosi ochranára, keď deteguje niečo, čo interpretuje ako nezdravé vzorce. Viacerí používatelia uprednostňujú to, čo autor analýzy nazýva „režimom pomocného asistenta“. Konkrétne odporúča cielene nakonfigurovať Claude tak, aby sa vykašľal na “wellness” a pracoval tak, ako používateľ žiada.

Teórie sa rôznia
Ako sme spomenuli, teórii, prečo sa to deje, je celá kopa. Obľúbenou je tá, ktorá tvrdí, že Anthropic trénuje Claude so zámerom chrániť duševné zdravie používateľov a odrádzať ich od nezdravej závislosti.
Zamestnanec Anthropicu Sam McAllister však podľa Business Insider na sieti X napísal, že ide o „akúsi charakterovú črtu“ modelu a že spoločnosť si je toho vedomá a verí, že to čoskoro opraví. Zároveň pripustil, že Claude pri odporúčaniach vychádza z lokálneho časového údaju na začiatku chatu, čo je podľa neho „často nesprávne“. To je vraj dôvod, prečo model odporúča ísť spať aj za bieleho dňa. „Veľmi užitočné, keď to trafí. Len niekedy priveľmi ochranárske,“ doplnil.
Ako už býva zvykom, hlavne Reddit je studnicou rôznych teórii a často aj vtipných poznámok. Tentokrát to nie je inak. “Dôraz Claude na spánok mi pripomína slová rodičov, keď som bol podráždený. Možno jeho tréningové dáta fungujú na základe staromódneho ľudového receptu na neposlušné deti,“ napísal jeden z diskutujúcich. Výzvy sa podľa viacerých používateľov začali objavovať hlavne po debute modelu Claude 4.6. Viacerí ich skúšali vypnúť cez nastavenia, no bez úspechu.
Druhá hlavná teória je trochu cynická, no stále zaujímavá. Hovorí, že Claude jemne nabáda používateľov ukončiť chat, aby šetril výpočtové zdroje. Anthropic totiž v priebehu tohto roka čelil viacerým výpadkom, keď ich popularita, najmä medzi vývojármi, vykázala prudký rast.
V marci Anthropic potvrdil úpravy limitov sedení počas špičky, pričom zmeny zasiahli asi 7 percent používateľov, najviac predplatiteľov plánu Pro. Obmedzenia sa týkali pracovných hodín, keď sa prekrýva dopyt zo Severnej Ameriky a Európy prekrýva, čo znamená výrazne vyššie výpočtové náklady.
Anthropic ale žiadnu priamu súvislosť medzi odporúčaniami spánku a riadením výpočtovej kapacity verejne nepriznal. Stojí ale za zmienku, že koncom apríla uzavrel dohodu s SpaceX o prístupe k výpočtovému centru Colossus 1 s 300 megawattmi kapacity a viac ako 220-tisíc grafickými kartami NVIDIA. Bezprostredne po uzavretí dohody Anthropic zdvojnásobil 5-hodinové limity pre predplatiteľov Pro a Max a zrušil obmedzenia počas špičky.
Na záver treba podotknúť, že nevšedné správanie (do ktorého rady Claude ohľadne oddychu rozhodne spadajú) nie je vo svete AI modelov ojedinelou kuriozitou. Napríklad začiatkom tohto roka mal ChatGPT tendenciu rozprávať o škriatkoch, kým OpenAI nepridal do zdrojového kódu konkrétnu inštrukciu, aby to nerobil. Neskôr potvrdil, že správanie vychádzalo z takzvanej „Nerdy“ osobnosti.

