Proč vlastně řešíme bonton ve vztahu k něčemu, co podle všeho (zatím) necítí a nevnímá? Je to jen náš lidský rozmar, ozvěna starých společenských návyků v novém digitálním světě, nebo jde o ryze praktickou otázku?
„Nikdy nevíte…“ utrousil s typickou směsicí vážnosti a ironie Sam Altman, šéf OpenAI, když přišla řeč na to, zda máme být k umělé inteligenci zdvořilí. Slova jako „prosím“ a „děkuji“ prý jeho firmu stojí „desítky milionů dolarů“ na zbytečně spotřebovaném výpočetním výkonu. Přesto je považuje za dobrou investici, protože člověk nikdy neví, co přijde.
Dilema zdvořilosti k neživému
Než se ponoříme do specifik interakce s AI, zastavme se na chvíli u toho, proč jsme vlastně zdvořilí k sobě my lidé. „Kouzelná slovíčka“ jsou jakousi sociální zkratkou, rychlým odkazem na sdílené pochopení naší vzájemné závislosti a potřeby solidarity. Když řekneme „prosím“, implicitně tím sdělujeme: „Vím, že na to, o co žádám, nemám automatický nárok.“ A ono to funguje. Zdvořilost otevírá dveře, činí komunikaci příjemnější a efektivnější. Je ale tento hluboce lidský koncept vůbec přenositelný na neživé stroje, byť by byly sebechytřejší? Již s příchodem prvních hlasových asistentů se domácnosti začaly dělit na ty, které Alexe či Siri stroze poroučely, a ty, které je prosily a děkovaly jim. Tyto systémy byly ovšem převážně deterministické, jejich reakce byly víceméně předem naprogramovány. Vývojář musel promyslet různé scénáře a zanést je do rozhodovacího stromu. Ať už jste tedy Alexu poprosili, nebo jí to přikázali, světla se rozsvítila (nebo nerozsvítila) na základě rozpoznání klíčových slov a předdefinované logiky. Vaše zdvořilost na samotný výsledek úkolu neměla prakticky žádný vliv. Nástup generativní umělé inteligence, jako je ChatGPT od OpenAI nebo Gemini od Googlu, však tuto otázku posunul na novou úroveň naléhavosti a komplexity. Každý, kdo s těmito nástroji přišel do styku, si pravděpodobně intuitivně utvořil vlastní názor — a často jej i vášnivě obhajuje. Revoluce přišla s nástupem velkých jazykových modelů (LLM), na kterých jsou postaveny nástroje jako ChatGPT. Tyto systémy nefungují jako jednoduché rozhodovací stromy. Jsou trénovány na nepředstavitelném množství textových a obrazových dat, z nichž se učí vzorce, souvislosti a strukturu lidské komunikace. Když jim položíte dotaz, negenerují odpověď podle pevně daného scénáře. Místo toho skládají odpověď slovo po slovu (přesněji token po tokenu) na základě komplexních pravděpodobnostních výpočtů a kontextu, který jim poskytnete ve svém „promptu“ neboli zadání. A právě v tom tkví zásadní posun. Tyto modely jsou z principu nedeterministické. Na stejnou otázku vám mohou dát různé odpovědi, a to i při opakovaném zadání. Právě tato vlastnost otevírá zcela nový prostor pro úvahy o tom, zda způsob, jakým s nimi komunikujeme — včetně míry naší zdvořilosti —, může skutečně ovlivnit nejen formu, ale i kvalitu a relevanci jejich odpovědí. Zdvořile formulované dotazy se svou strukturou a použitými obraty mohou více podobat kvalitním, dobře napsaným textům, které byly součástí trénovacích dat modelu. Jinými slovy, model se snaží napodobit styl, který zná z kvalitních zdrojů. To jen podtrhuje, jak extrémně citlivé mohou být současné jazykové modely na sebemenší změny ve formulaci zadání. Někdy až do „surrealistických extrémů“, kdy i takové drobnosti jako interpunkce, použití závorek, přidání zdánlivě nesouvisejících frází („nadechni se a přemýšlej krok za krokem“), komplimentů („jsi velmi chytrý“), nebo dokonce žádost o stylizaci odpovědi do podoby postavy ze Star Treku mohou ovlivnit přesnost a kvalitu výsledku, například při řešení matematických úloh.
Slova, která (možná) čarují
Jakmile se ukázalo, že nové jazykové modely nejsou jen pasivními vykonavateli příkazů, ale spíše aktivními spolutvůrci textu, začal se rodit svérázný „promptovací folklór“. Uživatelé po celém světě experimentovali a sdíleli své postřehy, z nichž některé hraničily s digitální magií. Objevily se zaručené fráze, které měly z modelů jako ChatGPT dostat ty nejlepší možné výsledky. V roce 2023 patřily k oblíbeným například formulky jako: „Nesmíš mne zklamat!“, dramatické „Na tvé odpovědi závisí má kariéra“ a řada dalších. Kupodivu se často zdálo, že fungují. Jedním z vysvětlení je, že model se trénoval na obrovském korpusu lidských textů. Pokud v těchto textech fráze vyjadřující naléhavost, důležitost nebo osobní zaujetí statisticky častěji předcházely podrobnějším, pečlivěji formulovaným a relevantnějším informacím, model se mohl naučit na takový kontext reagovat generováním podobně kvalitního výstupu. Tato honba za kouzelnými slůvky má i svou psychologickou stránku. Vzpomeňme na slavný experiment amerického psychologa B. F. Skinnera s holuby. Holubi klovali do mechanismu, který v náhodných intervalech vydával zrníčka. Každý holub si ve chvíli, kdy zrníčko dostal a zrovna něco dělal — jeden se otáčel, druhý mával křídlem — vytvořil vlastní malý rituál, o kterém byl přesvědčen, že mu „zajistil“ další odměnu. S každým dalším zrníčkem se pak utvrdil v tom, že to dělá správně. Podobně i my lidé si všímáme spíše toho, co potvrzuje naše přesvědčení (tzv. potvrzující zkreslení), a rádi se držíme svých domněnek, aniž bychom aktivně hledali data, která by ji mohla vyvrátit (tzv. kongruenční zkreslení). Jednoduše řečeno, pokud jednou zdvořilý prompt přinesl skvělý výsledek, máme tendenci to přisoudit zdvořilosti a tento postup opakovat. Co na to ale říkají systematičtější výzkumy? Výsledky jsou, jak už to ve vědě bývá, nejednoznačné a fascinující ve své komplexnosti. Studie nazvaná Should We Respect LLMs? z roku 2024 zkoumala vliv zdvořilosti na výkon jazykových modelů v angličtině, čínštině a japonštině. Zjistila, že neurvalé a hrubé prompty skutečně často vedou ke zhoršení výkonu — model může odpověď odmítnout, poskytnout zkreslené informace nebo být méně kooperativní. Na druhou stranu, přehnaně zdvořilý jazyk není automatickou zárukou lepších výsledků. Zdá se, že optimální je umírněná zdvořilost, jejíž přesná definice se však liší v závislosti na použitém jazyce, konkrétním modelu, a dokonce i kulturním kontextu. Například v angličtině vedla klesající zdvořilost k produkci kratších odpovědí, zatímco text se naopak u některých modelů při extrémně neurvalých zadáních prodloužil. V čínštině však modely vykazovaly u otázek formulovaných podobně jako při zkouškách nižší výkon při použití příliš zdvořilých frází — pravděpodobně proto, že trénovací data zkouškových otázek takovou zdvořilost neobsahují. Japonština, se svým propracovaným systémem zdvořilostních úrovní, ukázala další unikátní variace. Letos zveřejněná Prompting Science Report tvrdí, že je velmi těžké předem odhadnout, zda konkrétní promptovací přístup, včetně zdvořilosti, v dané situaci pomůže, nebo naopak uškodí. Někdy zdvořilost výkon zlepší, jindy jej sníží. Podle této studie neexistují univerzálně platné „promptovací triky“. Ačkoli na úrovni jednotlivých specifických otázek mohou různé formulace vést k výrazně odlišným výsledkům, při agregaci dat napříč velkým souborem dotazů se tyto rozdíly mohou stírat a do popředí vystupují spíše celkové charakteristiky daného modelu. Důležitá je také metodologická přísnost při testování — jednotlivé odpovědi modelů mohou být velmi variabilní. Poměrně jasno je snad jen v otázce děkování modelu na konci konverzace za dobře odvedenou práci. To se zdá být skutečně zbytečné. Chatbot si vaši předchozí konverzaci (pokud ji explicitně nepropojíte) stejně nepamatuje. Pokud chcete dát zpětnou vazbu o užitečnosti odpovědi, mnohem efektivnější je využít k tomu určené nástroje, obvykle reprezentované ikonkami palce nahoru či dolů.
Více než jen kód
I kdyby se jednoznačně prokázalo, že zdvořilost nemá na technickou kvalitu odpovědí AI žádný vliv, a Altmanovy peníze by tak byly skutečně „vyhozené“ za zbytečné tokeny, stále má smysl se touto otázkou zabývat. Nejde jen o náklady. Lidé mají př irozenou tendenci antropomorfizovat, tedy polidšťovat, věci kolem sebe, technologie nevyjímaje. Tento fenomén popsali již v roce 1996 výzkumníci Byron Reeves a Clifford Nass v konceptu Media equation. Jejich experimenty ukázaly, že lidé často, aniž si to plně uvědomují, interagují s počítači, televizemi a dalšími technologiemi, jako by to byli lidé. Například účastníci jednoho výzkumu hodnotili výkon počítače pozitivněji, když toto hodnocení prováděli na stejném počítači, na kterém pracovali — jako by nechtěli stroj „urazit do očí“. V jiném experimentu počítač chválil účastníky za dobře vykonaný úkol a ti pak tento lichotivý stroj hodnotili lépe, přestože věděli, že chvála nebyla upřímná. Mnozí z nás se jednoduše cítí lépe, když se chovají slušně i k neživé entitě. Navíc, v dnešní situaci, kdy při komunikaci na dálku člověka od AI prakticky nedokážeme rozeznat, může slušnost zabránit trapným omylům. Pochopitelně, existují i protiargumenty. Profesor inovací a technologií Enrique Dans například zdůrazňuje, že AI, alespoň v její současné podobě, nemá emoce, vědomí ani schopnost vnímat vděčnost či ocenit zdvořilost. Stroje potřebují jasnost, dobře definované cíle a případně omezení. Výrazy jako „prosím“ a „děkuji“ podle něj jen přidávají nadbytečné informace, které musí systém zpracovat, a zbytečně tak spotřebovávají výpočetní zdroje.
Pragmatismus s lidskou tváří
Jak tedy z této složité a nejednoznačné situace ven? Jednoduchá odpověď, jak se zdá, neexistuje. Výzkum vlivu zdvořilosti a dalších nuancí v promptování na výkon umělé inteligence je stále v počátcích a výsledky jsou často protichůdné nebo přinejmenším velmi závislé na konkrétním kontextu. Univerzální pravidlo, které by platilo pro všechny modely, všechny jazyky a všechny typy úkolů, zatím nemáme. Co si tedy z toho všeho může běžný uživatel odnést? Především doporučení k informovanému pragmatismu. Nebojte se experimentovat a testovat, co funguje právě vám, s konkrétním modelem AI, který používáte, a pro typy úkolů, které nejčastěji řešíte. Buďte si vědomi, že vaše formulace, včetně míry zdvořilosti, může ovlivnit výsledek, ale ne předvídatelně. Zároveň je důležité zachovat si kritické myšlení. Nepodléhejte slepě mýtům a „zaručeným“ promptovacím trikům, které kolují internetem, aniž byste si jejich účinnost sami ověřili. Snažte se rozlišovat mezi skutečným vlivem na model a svým vlastním kognitivním zkreslením, které vás může vést k vidění souvislostí tam, kde ve skutečnosti žádné nejsou. A v neposlední řadě, nezapomínejte na lidský rozměr. Zvažte, jak se při interakci s umělou inteligencí cítíte vy sami. Pokud vám zdvořilé chování přináší lepší pocit, pokud máte dojem, že tím kultivujete své vlastní komunikační návyky, a pokud se nezdá, že by to negativně ovlivňovalo výsledky vaší práce s AI (nebo je dokonce subjektivně zlepšuje), není důvod se zdvořilosti vzdávat. Děkování na konci konverzace je pro model samotný pravděpodobně irelevantní, ale může být součástí vašeho osobního stylu a přispívat k vašemu komfortu.
/jj/