Automobilka Elona Muska začala na začátku tohoto měsíce zavádět novou aktualizaci softwaru, která oprávněným majitelům umožňuje „plně autonomní jízdu“ v dalších dopravních situacích. Systém je zatím v beta verzi, firma však plánuje okruh spotřebitelů, kteří ho ve voze mají, dále rozšiřovat. Majitelé však musejí být i nadále schopni okamžitě převzít kontrolu nad vozidlem. Musk na Twitteru připustil, že se mohou vyskytnout „nepředvídané problémy“, které bude třeba v budoucnu dořešit. Zároveň požádal uživatele, aby „byli paranoidní“. Časopis Consumer Report uvedl, že plánuje nezávisle otestovat aktualizaci softwaru, známou jako FSD beta 9, jakmile ji obdrží jeho vlastní vozidlo. Nicméně zástupci organizace vyjádřili znepokojení už nad záběry chování vozu, které se objevily na internetu. Na některých je vidět, jak vůz naráží do křoví, vynechává zatáčky, či dokonce míří k zaparkovaným autům. Automobil Tesla Autopilot namísto drahého lidaru, který preferuje řada jiných společností z oboru, využívá ke sledování okolí kamery, ultrazvukové senzory a radar. Podle dnešních standardů je autopilot Tesly považován za částečně automatizovaný systém úrovně 2.
Neplacení betatesteři Vozidla Tesla již měla určitou úroveň autonomie při jízdě po dálnicích. FSD beta 9 však umožňuje větší automatizaci jízdních úkonů, včetně umožnění uplatnění na křižovatkách a v městských ulicích. „Videa s FSD Beta 9 v akci neukazují systém, který by dělal řízení bezpečnějším nebo dokonce méně stresujícím,“ řekl Jake Fisher, senior ředitel Centra automobilových testů CR. „Spotřebitelé jednoduše platí za to, že se stávají beta testery vyvíjené technologie bez adekvátní bezpečnostní ochrany.“ Profesor MIT Bryan Reimer, který se zabývá výzkumem automatizace vozidel, pro Consumer Report řekl, že „zatímco řidiči si mohou být vědomi zvýšeného rizika, které podstupují, ostatní účastníci silničního provozu — řidiči, chodci, cyklisté atd. — nevědí, že se nacházejí v přítomnosti testovacího vozidla, a podstupují tak riziko, se kterým nesouhlasili.“ Přístup společnosti Tesla je v kontrastu s ostatními společnostmi vyvíjejícími technologii samořízených automobilů, jako jsou Argo AI, Cruise a Waymo, které omezují testování svých softwarů na soukromé tratě, případně využívají vyškolené bezpečnostní řidiče jako kontrolory. Společnost Tesla na žádosti Consumer Report o komentář nereagovala. Fisher a další se domnívají, že Tesla by měla přinejmenším monitorovat řidiče v reálném čase, aby se ujistila, že dávají pozor při používání nového softwaru. Fisher například tvrdí, že aktualizovaný software má působivou grafiku na obrazovce, ale obává se, že i krátký pohled řidiče na displej může být příliš dlouhý na to, aby systém zabránil nárazu do auta nebo chodce. Některé nové vozy Tesla jsou vybaveny kamerami pro sledování řidiče v reálném čase. Experti Consumer Report ovšem pochybují o jejich účinnosti. „Tesle nestačí jen požádat lidi, aby dávali pozor! Systém musí zajistit, aby se lidé věnovali řízení, když je v provozu,“ říká Fisher, který doporučuje, aby Tesla používala systémy sledování řidiče ve voze, které zajistí, že řidiči budou mít oči na silnici. „Už víme, že testování samořídících systémů bez odpovídající podpory řidiče může skončit — a také končí — smrtelnými nehodami.“ Testovací samoř ízené vozidlo společnosti Uber v roce 2018 srazilo a způsobilo smrt 49leté Elaine Herzbergové, když přecházela ulici v oblasti Phoenixu. Vyšetřováním bylo zjištěno, že posádka se nevěnovala řízení, nijak nestačila zareagovat na nehodu a bezpečnostní prvky systému byly do značné míry „osekány“. Federální vyšetřování částečně vinilo ze srážky nedostatečnou regulaci a nevhodné bezpečnostní zásady společnosti Uber. Po této tragédii zavedlo mnoho společností přísnější interní bezpečnostní pravidla pro testování samořídících systémů. Jde například právě o sledování řidičů, které má zajistit, že se nerozptylují. Firmy také více spoléhají na simulace a uzavřené testovací dráhy.
Jako opilý řidič Kromě inženýrů společnosti CR vyjádřili obavy o výkonnost nového softwaru Full Self-Driving i odborníci z oboru, kteří sledovali videa s tímto softwarem v akci. Selika Josiah Talbottová, profesorka na American University School of Public Affairs ve Washingtonu, D. C., která se zabývá autonomními vozidly, uvedla, že Tesly vybavené FSD beta 9 se na videích, která viděla, chovají „téměř jako opilý řidič“, který se snaží udržet v jízdním pruhu. „Kličkuje vlevo a vpravo,“ říká. „Zatímco jeho pravotočivé zatáčky se zdají být poměrně pevné, levotočivé jsou hodně divoké.“ Video, které na YouTube nahrál uživatel AI Addict, ukazuje působivou navigaci kolem zaparkovaných vozidel a přes křižovatky. Auto se však i při této jízdě dopouští mnoha chyb. Tesla mimo jiné zavadí o keř, po odbočení najede do špatného pruhu a zamíří přímo do zaparkovaného auta. Software se také občas během jízdy odpojí a řízení řidiči přenechá náhle. „Je těžké zjistit jen na základě sledování těchto videí, v čem přesně problém spočívá, ale už na pohled je jasné, že má problém s detekcí nebo klasifikací objektů,“ říká Missy Cummingsová, odbornice na automatizaci, která je ředitelkou laboratoře Humans and Autonomy Laboratory na Dukeově univerzitě v Durhamu ve státě New York, N. C. Jinými slovy, auto se snaží určit, co jsou objekty, které vnímá, nebo co má s těmito informacemi dělat, případně obojí. Podle Cummingsové je možné, že Tesla nakonec samořídící vůz vytvoří. Zatím ovšem automobilka neprovedla dost zkušebních jízd, aby něčeho takového se stávajícím softwarem mohla vůbec dosáhnout. „Nevylučuji, že někdy v budoucnu je to možné. Ale funguje to už nyní? Ne. Přihořívá alespoň? Ne.“
Testování bez souhlasu Dát beta verze softwaru přímo do rukou spotřebitelů není nic neobvyklého, při vývoji počítačového softwaru je naopak běžný. Na silnici by ovšem mohl způsobit skutečné problémy, upozornila Cummingsová: „Je to étos Silicon Valley, že když je software hotový z 80 %, uvolníte ho, a necháte uživatele, aby odhalili chyby. To je možná v pořádku v případě mobilního telefonu, nikoliv však v případě systému kritického z hlediska bezpečnosti.“ Dodejme, že nikdo nezpochybňuje, že se výkony systému zlepšují. I odborníci oslovení Consumer Report si všimli výrazného zlepšení výkonu mezi staršími a novějšími videi Tesly automatizujícími úkoly řízení. „Je zajímavé, jak rychle inženýři v Tesle zřejmě využívají data ke zlepšení výkonu systému,“ řekl například již citovaný Bryan Reimer z MIT. Dokud se však Tesly nestanou skutečně autonomními, mohla by taková postupná zlepšení snížit ostražitost řidičů. Ti se začnou spoléhat na to, že auto bude rozhodovat za ně, byť na to ve skutečnosti není připraveno, obává se James Fisher: „Když bude software většinu času fungovat dobře, může se drobná chyba změnit v katastrofu, protože řidiči budou systému více důvěřovat a méně se zapojí, až bude potřeba.“ Aby se tomu předešlo, Fisher, Reimer, Talbottová a další vyzývají Teslu, aby začlenila robustní systémy monitorování řidiče. Ty by měly v reálném čase sledovat, zda osoba za volantem je připravena převzít řízení. Tesla se ale zatím zdráhá takové řešení zavádět. To se jí může vymstít, odhaduje Jason Levine, výkonný ředitel amerického Centra pro bezpečnost automobilů (Center for Auto Safety), americké zájmové organizace orientující se na bezpečnost silničního provozu. Levine říká, že automatizace může zachránit životy, ale pouze v případě, že řidiči si budou jasně vědomi omezení technologie. „Výrobci vozidel, kteří se rozhodnou bez souhlasu testovat své nevyzkoušené technologie na majitelích svých vozidel i na široké veřejnosti, v lepším případě ohrožují pokrok ve vývoji a zavádění nových bezpečnostní technologií, v horším případě mohou mít na svědomí nehody a úmrtí, kterým šlo předejít.“ Levine a další navíc tvrdí, že Tesla používá marketingové termíny, jako je „plně samořídící“, které vytvářejí klamný dojem, že vozidla mohou řídit bez zásahu člověka.
Sama mezi všemi Přístup Tesly k testování softwaru na veřejných silnicích bez monitoringu řidičů dělá z automobilky „vlka samotáře“ v odvětví, které jinak dbá na bezpečnost, tvrdila pro Consumer Report Talbottová. Ta pracovala mimo jiné i jako odbornice na hodnocení bezpečnosti vozidel a právnička se specializací na tuto oblast. Podle ní zbytek odvětví říká: „Chceme to dělat správně, chceme získat důvěru veřejnosti, chceme, aby regulační orgány byly našimi partnery.“ Dosud prý „správná praxe“ znamenala, že software vozidel se před testováním na veřejných silnicích ověřoval na vozech s vyškolenými řidiči a na uzavřených testovacích trasách. Pravdou je, že především právě po již zmíněné smrtelné nehodě Uberu v roce 2018 jsou ostatní výrobci velmi opatrní. Jistě, i další společnosti (Argo AI, Cruise, Waymo) zkoušejí prototypy samořídících vozidel na veřejných komunikacích, ale jejich postupy jsou jiné než Tesly. „Každá změna našeho softwaru prochází přísným procesem uvolňování a je testována kombinací simulačních testů, testování na uzavřených tratích a jízd na veřejných komunikacích,“ uvedla pro Consumer Report mluvčí společnosti Waymo Sandy Karpová. Ray Wert ze společnosti Cruise zase tvrdil, že autonomní vozidla jeho společnosti budou nasazena až poté, co se společnost přesvědčí, že jsou bezpečnější než lidé za volantem. Přístup Tesly ovšem zatím nenašel odpůrce tam, kde na tom opravdu záleží. Americké federální úřady se doposud neodhodlaly přesně určit, jaké druhy softwaru pro řízení vozidel lze na veřejných komunikacích přesně používat. Nepochybně jsou přitom pod jistým tlakem, aby zasáhly: „Nikdy jsem neviděl nic podobného, jako vidíme dnes v případě společnosti Tesla, kdy jako by americké ministerstvo dopravy mělo klapky na očích,“ divila se například Talbottová před novináři. Jak ale přibývá událostí na silnicích, objevují se náznaky, že americká regulace přitvrdí. Například Národní úřad pro bezpečnost silničního provozu zpřísnil požadavky na hlášení o nehodách, do kterých byly zapleteny vozy se zapnutými prvky „autonomního řízení“. K výraznější regulaci a zákazům je ovšem v USA ještě daleko. /jj/