Milník na cestě k Memory Driven Computing

Co brání tomu, abychom dokázali ještě dokonaleji předvídat počasí nebo změny klimatu? Abychom dosahovali více vědeckých objevů nebo mohli cestovat ke hvězdám? Odpovědi na nejvýznamnější otázky firem i celé společnosti bývají často pohřbeny v moři dat, která cirkulují kolem nás. Neustále je generujeme, ale nejsme schopni je v rozumné době zpracovat. Mnohdy jsme přitom naráželi na fyzikální limity stávající IT infrastruktury, ale i tohle oborové paradigma se začíná bortit.

Jsme na dosah Memory Driven Computingu a softwarových řešení, která dokážou využít jeho výhody, jako je například SAP HANA, In-Memory SPARK analytika nebo Memory Driven Monte Carlo finanční modely. Řešení, která zvyšují rychlost zpracování úloh o několik řádů a dávají nám naději, že společně s využitím metod umělé inteligence a strojového učení, dokážeme kýžené informace z moře dat vylovit.

„Když z dat nejsme schopni získat potřebné informace, jsou pro nás pouhým nákladem. Musíme je sbírat a také někde ukládat. Přitom žijeme v době, kdy data i zdroje rostou exponenciálně, ale zároveň se krátí čas, který máme na rozhodování. Rozevřely se křivky mezi počtem dat a vývojem technologií. Proto je potřeba něco změnit. A začít skutečně od základů, protože prosté násobení serverů a úložišť s sebou nese stále stejné otázky – jak to propojit, jak to napájet, jak to chladit,“ říkal na pražské konferenci HPE Discover More Konstatnin Selucký, který se zpracováním dat v reálném čase zabýval v ČSAV od roku 1977 a serverům HP a HPE pro mission critical aplikace od roku 1988 kdy do HP nastoupil.

Memory? Driven!

To, kam se bude ubírat budoucnost nejvýkonnějších počítačů na této planetě, naznačil HPE Superdome Flex MCS x86 server, který byl navržen pro in-memory aplikace a má Mission Critical vlastnosti, které ho odlišují od komoditních serverů. Je navržen na principech Memory Driven Computing. „Kdybych to měl několika slovy vysvětlit, tak bych řekl, že data se musí dostat k procesoru, tedy do rychlé paměti, která je dost velká, aby se tam všechna vešla. Dnes máme v Superdome Flex desítky TB, ale v dohledné budoucnosti to budou stovky až tisíce TB. Paměť musí být nejen dost velká, ale taky dost rychlá a s malou latencí pro všechna CPU, která do ni přistupují.  Takhle to vypadá jednoduše, ale abyste to dokázali postavit v reálu, tak potřebujete zvládnout několik technologií. Jednak protokol propojení, v Superdome Flex se jmenuje FlexGrid, ale v budoucích architekturách to už bude otevřený Gen-Z (článek o novém protokolu Gen-Z). Propojení musí fungovat taky na velkou vzdálenost s malou latencí, takže musíte dokázat implementovat fotoniku, tedy lasery a světlo citlivé prvky, přímo na čipy. A hlavně potřebujete paměť, která nežere elektřinu, i když zrovna nic nedělá a jen si pamatuje nuly a jedničky. To jsou persistentní neboli trvalé paměti. A pak to musíte všechno dokázat poskládat dohromady, naučit Linux, jak s tím má pracovat a dát vývojářům vývojové nástroje. A ti pak musí napsat inteligentní aplikace, které tohle všechno dokážou v Superdome Flex vyžít, jako je třeba SAP HANA, Oracle nebo MS SQL in-memory a další aplikace.“ říká Konstantin Selucký.

A jaký je výsledek toho všeho? Ten jsme již měli možnost pozorovat v praxi. Například porovnat genom při léčbě Alzheimerovy choroby je dnes ve špičkovém německém institutu DZNE možné 100x rychleji než dříve. To v praxi znamená několik desítek vteřin namísto několika dnů, které potřebuje počítač, aby rozpoznal vlastnosti vašeho těla a byl schopen namíchat optimální koktejl léků.

Nové algoritmy při rozsáhlých grafických úlohách a rozpoznávání obrazu vykázaly také stonásobné zrychlení. Asi největšího skoku bylo dosaženo při řešení finančních modelů, konkrétně tedy simulace Monte Carlo, jejíž rychlost výpočtů se zvýšila dokonce deset tisíckrát. Fenomenální zrychlení aplikací má obrovský potenciál transformovat celá průmyslová odvětví.

Budoucnost z Kutné Hory

Že se vám to celé zdá neskutečně vzdálené? Pak vězte, že není – a geograficky už vůbec ne. Revoluční HPE Superdome Flex se vyrábí přímo v České republice. V Kutné Hoře. A využívá všech současně dostupných technologií – škálovatelné procesory Intel Xeon z řady Cascade Lake se 4 až 28 jádry s podporou rozšířené instrukční sady pro VNNI; rozšiřitelnou sdílenou pamětí RAM od 768GB do 48TB a podporou paměti Intel® Optane™ DC Persistent Memory, s instalací až 16 NVIDIA GPU a vysokorychlostní konektivitou pro Ethernet, InfiniBand nebo Omni-Path.

Nyní již dokážeme pomocí HPE Superdome Flex řešit komplexní úlohy holisticky v bezkonkurenčním měřítku a zároveň s maximální jednoduchostí ovládání a správou jednoho jediného systému. Už dnes je na trhu server pro všechny vaše současné in-memory databáze, kritické aplikace, včetně analýzy dat, high performance computing nebo umělou inteligenci,“ uzavírá Konstantin Selucký.