Datacentra dnes podle dostupných odhadů spotřebovávají více než 3 % (a možná až 5) celkem vyrobené elektřiny, a do budoucna jejich podíl s největší pravděpodobností poroste. Odvážnější odhady říkají, že někdy během příštích deseti let se jejich procentuální podíl bude uvádět ve dvouciferných číslech. Pokud se tedy neobjeví (jako už vícekrát) nějaká nečekaná inovace, která by mohla trend zvrátit. Na jedné takové pracuje i Jiří Matyáš, dnes doktorand z VUT Brno a autor nejlepší diplomové práce roku 2017. Pracujete na metodice tzv. přibližných výpočtů. Co to přesně znamená? Jednoduše řečeno to, že v některých případech by počítače nemusely počítat zcela tak přesně, jak je dnes běžné. Existují aplikace, u kterých na přesnosti výsledků tolik nezáleží, nebo na nich záleží jen do určité míry. Důvodů může být více, například proto, že vlastně žádné správné řešení neexistuje. Nebo nemusí být zapotřebí, protože ho uživatel neocení. To může platit například u zpracování obrazu, kde nemá smysl mít lepší výsledek, než jaký dokážou lidské smysly zachytit. Snížení kvality může být tak malé, že je lepší ušetřit výpočetní výkon a energii. Jak velké úspory to může přinést? Můžu nabídnout příklad jedné konkrétní aplikace, kterou kolegové s naší architekturou provedli. Použili jsme hardwarovou neuronovou síť, která prováděla analýzu obrazu – velmi zjednodušeně řečeno měla určit, zda na daném snímku daný objekt je, nebo není. Síť postavená s použitím součástek používajících přibližné výpočty měla o 90 % nižší spotřebu než neuronová síť s klasickými výpočty. Její přesnost se přitom snížila jen zhruba o 2–3 %. V čem úspora energie spočívá? V neuronové síti se provádí opakovaně násobení vstupní hodnoty, tedy vektoru, nějakým číslem. Provádí ho součástka zvaná násobička. A my jsme vyvinuli přibližnou násobičku, která prováděla výpočet do jisté míry nepřesně. Do jaké míry, to si samozřejmě můžeme určit my jako konstruktéři, a na tom pak bude záležet úspora. Nám se ukázalo, že nepřesnost řádově v desetinách procenta snížila spotřebu energie násobičkou o nějakých 90 až 95 %. Součástka tedy přehlédne pár nejméně důležitých bitů, ale její spotřeba se dramaticky sníží. Úspora také závisí na velikosti součástky, obecně platí, že čím větší obvod se aproximuje, tím více lze redukovat jeho spotřebu. Na čem přesně v oboru pracujete? Zatím jsme na začátku. Vyrábíme základní díly pro obvody, které by přibližné výpočty mohly používat. Pracujeme na vývoji přístupů, jak takové prvky navrhovat. Kde si myslíte, že by mohla tato technologie najít hlavní použití? V nositelné elektronice, v osobních počítačích, či jinde? Já myslím, že největší potenciál se nachází především ve vědeckých výpočtech a velkých výpočetních centrech. U těch totiž v posledních letech už začíná platit, že absolutně největším výdajem nejsou náklady na pořízení hardwaru, ale cena spotřebované elektřiny. Role velkých center přitom, zdá se, v blízké budoucnosti poroste. Spoléhá se na ně především při zpracováních velkých dat. Stále totiž velmi rychle přibývá dostupných údajů a panuje všeobecné přesvědčení, že ve velkých datech se podaří objevit řadu zajímavých souvislostí. Praxe nám poví, nakolik je to naděje oprávněná, ovšem technologie přibližných výpočtů by se právě v takzvaném data-miningu dala velmi dobře využít. Je to sice stále základní výzkum, ale projevil už zájem nějaký komerční subjekt? Ano, praktické aplikace si lze představit poměrně snadno, ale s nikým ve spolupráci zatím nejsme – a ani zatím nikdo neprojevil zájem. Je to i tím, že výroba podobných čipů, či spíše už její samotná příprava vyžadují velké vstupní náklady. My můžeme navrhnout specializované obvody, ale ty je pak nutné ještě integrovat do architektury čipů pro koncové uživatele. A už výroba samotného vzoru pro výrobu, tedy masky, je otázkou řádově milionů dolarů. Samotná výroba je pak levná, ale zahájení procesu dává smysl jen pro ty největší společnosti, které jsou schopny takových čipů vyrobit a prodávat obrovské série. A máte pocit, že obor přibližných výpočtů už je podobně připraven k nasazení do praxe? V softwarové podobě si přibližné výpočty mohou určitě najít využití. Praktické příklady už ostatně jsou, například v programovacím jazyku Java existují knihovny, které poskytují možnost využít přibližných výpočtů, ale jejich přínos není tak výrazný. A zatím se nezdá, že by mohl dosáhnout potenciálu úspor, které by mohly nabídnout specializovaný hardware. Ale jak jsem říkal, vstupní bariéry vstupu do hardwarové oblasti jsou veliké, výrazně vyšší než u softwaru. I proto si nemyslím, že přibližné výpočty se v praxi objeví rychle. A samozřejmě také nedokážu říci, že až se skutečně začne používat, tak se bude používat právě náš přístup místo přístupů jiných. Abych se ještě jednou vrátil k příkladu neuronových sítí: jejich úspěch nakonec souvisel i s tím, že se zvýšil výpočetní výkon elektroniky. Nebude to platit i v případě vašeho oboru? V současné době výpočetní výkon není dostačující k návrhu opravdu velkých a komplexních přibližných systémů. A nevím, jestli s výrazným zvyšováním výkonů můžeme v blízké budoucnosti počítat. Především proto, že Mooreův zákon už nějakou dobu neplatí. Výrobci se dostali na fyzikální limity současných technologií, na úroveň jednotlivých atomů, a tak výkon žádným způsobem dále neroste a současná stagnace se bude zřejmě poměrně obtížně překonávat – pokud tedy neproběhne přechod na zcela nové výpočetní paradigma jako například kvantové počítání. /jj/