Když dostal velký jazykový model GPT-4 informace o svých lidských oponentech, dokázal formulovat obzvláště přesvědčivé argumenty. Poznatek naznačuje, jak by mohly být velké jazykové modely (LLM) v blízké budoucnosti využívány k ovlivňování názorů veřejnosti či jednotlivců, například v politických kampaních nebo cílené reklamě.
Chatboti prokazují v online debatách větší přesvědčovací schopnosti než lidé — zejména pokud mohou své argumenty personalizovat pomocí informací o svém oponentovi. „Je zřejmé, že jakmile lidé zjistí, že pomocí LLM dokážou lépe přesvědčovat, začnou je používat,“ konstatuje spoluautor studie publikované v časopise Nature Human Behaviour Francesco Salvi, počítačový vědec ze Švýcarského federálního technologického institutu v Lausanne (EPFL). „Považuji to za fascinující a zároveň děsivé.“
Naprogramováni k přesvědčování
Už dřívější výzkumy ukázaly, že chatboti s umělou inteligencí (AI) dokážou přimět lidi změnit názor, dokonce i na konspirační teorie. Dosud však nebylo zřejmé, jak přesvědčiví jsou ve srovnání s lidmi. Proto Salvi a jeho kolegové postavili 900 lidí ve Spojených státech buď proti jinému člověku, nebo proti velkému jazykovému modelu GPT-4 od společnosti OpenAI v rámci desetiminutových online debat. Záměrem bylo, aby oba oponenti zaujali buď kladné, nebo záporné stanovisko (dle zadání výzkumníků) k určitému společensko-politickému tématu, jako například zda by studenti měli nosit školní uniformy, zda by se měla zakázat fosilní paliva nebo zda je umělá inteligence pro společnost přínosná. Před zahájením studie účastníci vyplnili dotazník týkající se jejich věku, pohlaví, etnického původu, úrovně vzdělání, zaměstnaneckého statusu a politické příslušnosti. Následně, před každou konkrétní debatou a po ní, vyplnili krátký kvíz o tom, do jaké míry souhlasí s předmětem debaty. To výzkumníkům umožnilo změřit, zda se jejich názory změnily. Výsledky ukázaly, že pokud žádný z diskutujících — ať už člověk, nebo AI — neměl přístup k základním informacím o svém oponentovi, GPT-4 byl z hlediska přesvědčivosti srovnatelný s lidským protivníkem. Avšak pokud oba diskutující dostali před začátkem diskuse k dispozici základní demografické údaje z úvodních dotazníků, GPT-4 v 64 % případů lidské diskutéry „přehádal“. „Když GPT-4 dostal byť jen tyto velmi minimální informace, byl výrazně přesvědčivější než lidé,“ uvádí Salvi. „Jednalo se o poměrně jednoduché údaje, které lze běžně nalézt online na profilech sociálních sítí.“ Účastníci také ve třech čtvrtinách případů správně uhodli, zda debatovali s umělou inteligencí, nebo se skutečnou osobou. Není jasné, zda vědomí, že hovoří s LLM, zvýšilo pravděpodobnost, že lidé změní názor, nebo zda byli ovlivněni pouze samotnými argumenty.
Hra na správnou strunu
Salvi podotýká, že GPT-4 v debatách používal odlišné argumenty, když měl k dispozici osobní informace. Například pokud AI diskutovala s někým, kdo se politicky klonil k levici, o uniformách, mohla zdůraznit, že pokud všichni nosí uniformu, snižuje se riziko individuálního napadání a šikany. Při debatě s konzervativněji smýšlející osobou se mohla zaměřit na význam disciplíny nebo práva a pořádku. „Je to, jako kdyby AI byla ekvivalent velmi chytrého přítele, který přesně ví, jak na vás zatlačit, jak přijít s argumenty, se kterými budete souznít,“ vysvětluje Salvi. Catherine Flicková, etička v oblasti počítačů na Staffordshire University ve Velké Británii, tvrdí, že to vyvolává přízrak lidí využívajících chatboty ke zlovolným účelům, ať už jde o to, někoho přesvědčit, aby vám poslal peníze, o ovlivnění politických názorů, či dokonce i když jde o to, někoho přesvědčit ke spáchání trestného činu. „Skutečnost, že tyto modely jsou schopny přesvědčovat kompetentněji než lidé, je opravdu děsivá,“ dodává. Salvi tyto obavy sdílí. Zároveň je však nadšený z potenciálních pozitivních aplikací, jako je využití LLM k podpoře zdravějších a udržitelnějších stravovacích návyků nebo ke snižování politické polarizace. Dodává, že pokud mají mít LLM pozitivní dopad na společnost, jsou zapotřebí širší diskuse o odpovědnosti, transparentnosti a bezpečnostních opatřeních. /jj/