Power play: hledání energeticky úsporných čipů

Technologie |

Koncentrace energie v čipech běžných CPU používaných v běžných PC je dnes vysoká stejně jako v nukleárních reaktorech. Míra poruchovosti procesoru se zdvojnásobí při každém nárůstu teploty o 10 stupňů.




Hovoří-li se o výkonnosti počítačů, zpravidla se poukazuje na taková kritéria jako MIPS, MHz a MFLOPS (Million Instructions Per Second, Megahertz, Million FLoating-point Operations Per Second). Ale Wu-Chun Feng, počítačový konstruktér z Národní laboratoře v Los Alamos v Novém Mexiku, se domnívá, že takový přístup se v tomto desetiletí změní. Je podle něj nejvyšší čas, aby si počítačová komunita osvojila jiná kritéria hodnocení výkonnosti. „Víc než o rychlost,“ říká, „jde o spolehlivost, dostupnost a efektivnost.“

Jde tu o víc než jen o jakési slovíčkaření, které má význam jen pro zasvěcené a které je vzdáleno od praktického života. ASC Q, obrovský superpočítač v Los Alamos, pracuje s 8 192 procesory. Každý lze označit jako mimořádně spolehlivý a rychlý, ale i přesto je jich tolik, že tento počítač selže 114krát za měsíc, čili jednou během každé osmihodinové směny.

Hlavní problém představuje teplo, říká Feng, a to se zdaleka netýká jen superpočítačů. Potřebný elektrický příkon a jemu odpovídající teplo vyzářené na jednotkovou plochu procesorů stoupá podle Mooreova zákona, takže se každých 18 až 24 měsíců zdvojnásobí. Koncentrace energie v čipech běžných procesorů používaných v osobních počítačích je dnes vysoká stejně jako v nukleárních reaktorech. Míra poruchovosti procesoru, říká Feng, se zdvojnásobí při každém nárůstu teploty o 10 stupňů.

Chladnější chod

Vědci a výzkumní pracovníci ovšem přicházejí s novými vynálezy, které umožňují, aby rostla spolehlivost čipu, aniž by vzrůstala teplota a spotřeba proudu.

V roce 2002 vytvořili v Los Alamos 240uzlový počítač jménem Green Destiny. V prašném, neventilovaném skladišti běžel bezchybně dva roky, a to přesto, že průměrná teplota se tam pohybovala okolo 85 stupňů F. Tajemství úspěchu spočívalo v použití procesorů od firmy Transmeta, z nichž každý měl spotřebu 6 wattů. Pro srovnání, běžné mikroprocesory té doby spotřebovávaly kolem 100 wattů.

Green Destiny vděčí za tyto charakteristiky – nízký příkon, malé zahřívání a vysokou spolehlivost – své architektuře. Předchozí parametry neovlivňují ani aplikace, které na počítači běží. Nyní však Feng a jeho kolegové vyvíjejí software, který dokáže měnit příkon procesoru podle aktuální potřeby každého programu.

Elektrická energie využívaná procesorem je přímo úměrná jeho frekvenci a napětí. Dnešní notebooky dovedou po určité době, kdy s nimi uživatel nepracuje, snížit obě hodnoty tak, aby se zbytečně nevybíjela baterie. Ale tohle nelze dělat u počítačů používaných k vědeckým účelům, jež polykají obrovská kvanta čísel, ani u velkých serverů zpracovávajících rozsáhlé transakce. „Procesor budí dojem, že běží téměř neustále, srovnáme-li to třeba s prací na textovém dokumentu,“ vysvětluje Feng.

Laboratoř proto vyvíjí a v současnosti vylepšuje software pro dynamické vyvažování (dynamic scaling), který rozpoznává charakteristiky aplikace během jejího chodu. Software dovede předvídat, kdy objem práce výrazně poklesne tím, že se od operací silně zatěžujících procesor přechází k činnostem, které probíhají mimo čipy, a které tudíž nevyžadují vysoký taktovací kmitočet CPU ani vysoké napětí; a právě tehdy se tyto parametry dočasně sníží.

Vyvažováním, upozorňuje Feng, můžeme zredukovat příkon až o 70 %. Výkonnost u jednoprocesorových aplikací klesá při nasazení této technologie pouze o 1 až 5 % . Úspora energie dosahuje v průměru okolo 25 %. „Když se ušetří 25 % energie, znamená to, že můžeme k systému přidat o 25% více procesorů a přitom zůstáváme na stejné úrovni tepelné zátěže,“ říká Feng

Výhodnější než provádět vyvažování aditivním softwarem během chodu aplikace je docílit téhož efektu tím, že necháme programátory, aby svůj kód přímo uzpůsobili požadovanému účelu. To jest tomu, aby jejich aplikace vyžadovaly redukci energie vždy ve chvíli, kdy se rozebíhají operace neprobíhající na čipu. Půjde pravděpodobně o příliš velkou zátěž pro programátory, kteří jsou nadto ještě zaměstnáni psaním kódu pro paralelní zpracování, podotýká Feng. Jiná možnost, dodává, je přenechat implementaci technologie vyvažování kompilátoru, který ovšem nemůže vědět, jaká data bude muset program zpracovávat, přičemž podstatná část funkcionality vyvažování frekvence a napětí závisí právě na datech.

Feng poukazuje na to, že tohoto postupu lze použít při zpracování transakcí, ve webových službách nebo v databázových serverech, u nichž je hodně vstupů a výstupů, které často plně nezatěžují procesor. Říká, že pro firmy, jež používají tisíce procesorů, jako je například Google, není zásadním technickým požadavkem mít co nejrychlejší procesory, nýbrž vysoká spolehlivost při nízkých nákladech. „Pro Google,“ říká, „prostor znamená peníze a elektřina jsou peníze.“

Více nastavení

Výzkum opravdu začíná používat podobných monitorovacích technik u všech aspektů elektrické energie a u všech částí čipu, domnívá se Babak Falsafi, profesor výpočetní techniky a elektrotechniky na univerzitě Carnegie Mellon v Pittsburgu.

„U procesorových čipů, a dokonce i u dynamických pamětí RAM, budeme svědky jemného vyvažování zdrojů (resource scaling), takového, jakým je například vyvažování napětí a frekvence,“ předvídá Falsafi. „Nyní se technologie týká celého procesoru, ale v budoucnu budeme mít přísnější kontrolu různých zdrojů, takže budeme moci provádět vyvažování přímo na čipu samotném, což povede k daleko většímu počtu nastavení, jež budeme využívat, a k daleko větší flexibilitě.“

Falsafi se svými studenty vyvinul inovativní uspořádání vyrovnávací paměti, které sleduje chování programu za chodu a samostatně se nastavuje tak, aby se přizpůsobilo požadované vyrovnávací paměti a organizaci. Nepoužívané oblasti cache jsou uváděny do spánkového režimu, takže nespotřebovávají žádný proud.

Budoucí konstrukční provedení, předpovídá Falsafi, budou mít takové vyvažování zdrojů zabudované ve všech čipových strukturách, díky čemuž se významně uspoří energie.

Budou jednoho dne všechny počítače, od notebooků po superpočítače, používat těchto technik? „Budou muset,“ říká Falsafi. „S blížícím se rokem 2015 budou na procesorech přibývat další a další miliardy tranzistorů. Nemáme pro ně tolik energie.“








Související články




Komentáře

29.07.2014, 13:08

.... ñïñ!!...

Napsat vlastní komentář

Pro přidání příspěvku do diskuze se prosím přihlašte v pravém horním rohu, nebo se prosím nejprve registrujte.