Relacja z ISC 2018

Ikona wpisu Relacja z ISC 2018

Organizowana co roku we Frankfurcie konferencja International Supercomputing Conference (ISC) to – obok amerykańskiej Supercomputing Conference (SC) – jedno z dwóch najważniejszych na świecie wydarzeń w dziedzinie superkomputerów i ich zastosowań. Tegoroczna edycja odbyła się w dniach 24–28 czerwca. Podobnie jak jej amerykański odpowiednik, ISC oprócz ścieżki naukowej ma bardzo rozbudowaną część wystawową, która tak naprawdę dominuje, przynajmniej pod względem liczby uczestników, nad resztą imprezy. W tym roku w ISC wzięło udział ponad 3500 osób.

Podczas obu konferencji ogłaszane są aktualne listy TOP500 – najszybszych, najbardziej energooszczędnych komputerów. Towarzyszy temu zawsze duże zainteresowanie publiczności, jednak w tym roku najważniejsze informacje znane były już kilkanaście dni wcześniej. Na pierwszą pozycję – po kilku latach dominacji Chin – wybił się nowy komputer z USA (Summit), dostarczony przez IBM i oparty na procesorach Power9 oraz kartach GPU Nvidii. Amerykanie byli do tego stopnia zadowoleni z przełamania chińskiej dominacji, że nie czekali na formalne ogłoszenie listy i opublikowali informacje na temat Summita wcześniej, przez co podczas tegorocznego ISC zabrakło większych emocji.

Stoiska w części wystawowej generalnie nie różniły się wiele od tego, co zaprezentowano w ubiegłym roku. Univa przyjechała z tym samym modelem bolidu Formuły 1, inni pokazywali płyty, elementy chłodzenia czy rozwiązania programistyczne. Nowością była wyraźna obecność ARM – zarówno samej firmy, jak i rozwiązań opartych o tę architekturę procesorów. Jednak w hali wystawowej niewiele słychać było o pierwszej dużej instalacji opartej na procesorach ARM zrealizowanej przez Craya w Wielkiej Brytanii. Dużo za to mówiło się o planowanej instalacji w USA (Aurora).

Spośród innych nowości, w oczy rzucało się logo Atosa, który przejął Bulla i w zasadzie był jedynym europejskim dostawcą rozwiązań HPC podczas ISC 2018 . Z kolei stoisko Intela wydawało się w tym roku mniejsze, choć w materiałach promocyjnych można było znaleźć imponującą listę wystawców wykorzystujących jego technologię.

W hali wystawowej nie było specjalnych zaskoczeń: budzące dużą nadzieję procesory ARM, procesory Power9, karty GPU. Procesory KNL Intela są już na rynku od pewnego czasu, jednak nowe rozwiązania spodziewane są dopiero za kilka lat. Nic nie zapowiada też skoku technologicznego, który pozwoliłby zbudować komputer eksaskalowy pobierający 20–30 MW. To, co można by obecnie osiągnąć w tym obszarze wykorzystując procesory ARM, wskazuje na zapotrzebowanie mocy sięgające ponad 100 MW.

Wśród wiodących tematów trzeba wymienić sztuczną inteligencję (AI). Dostawcy sprzętu chwalili się bibliotekami AI dostosowanymi do danej architektury. Integratorzy pokazywali długą (czasem obejmującą kilkadziesiąt pozycji) listę wspieranych narzędzi. Na pierwszy rzut wyglądało to świetnie. Jednak po bardziej dogłębnej analizie (swoja drogą było to też przedstawiane w specjalistycznych prezentacjach) okazywało się, że to nadal mało. Wykorzystanie sprzętu jest niezbyt efektywne, a dobra implementacja AI w obszarze HPC na razie nie istnieje.

Drugim wyróżniającym się tematem było dostosowanie narzędzi, takich jak Python czy Jupiter Notebook, do superkomputerów. Zoptymalizowaną wersją Pythona chwaliło się wielu dostawców, aczkolwiek trzeba pamiętać, że jako język programowania Python nie ma wsparcia dla wielowątkowości – dużym problemem jest kompatybilność pomiędzy wersjami czy sposób ładowania bibliotek. Działania dotychczas podejmowane w tym zakresie trudno uznać za satysfakcjonujące. Wydaje się, że są to rozpaczliwe próby otwierania się na zapotrzebowanie użytkowników, którzy często nie wiedzą, czym jest FORTRAN, a kwestie związane z programowaniem równoległym traktują jako niepotrzebne. Wśród nich są rzesze użytkowników Hadoopa, Sparka i innych narzędzi Big Data. Niestety, coraz bardziej widać, że są to rozwiązania dostosowane do niezbyt dużych systemów obliczeniowych i ich efektywne wykorzystanie na superkomputerach jest problematyczne. Zdecydowanie lepszym rozwiązaniem byłoby wykorzystanie narzędzi uwzględniających specyfikę dużych systemów obliczeniowych, a jednocześnie pozwalających na efektywną analizę dużych danych –  np. takich jak oparta o Javę, rozwijana w ICM, biblioteka PCJ.

Studenci na ISC 2018

W tym roku na ISC 2018 była też obecna silna reprezentacja studentów UW. W konferencji uczestniczyły dwie grupy: studenci I stopnia z UW i innych uczelni (Warsaw Team), którzy brali udział w Student Cluster Competition (SCC), a także 4-osobowa grupa studentów inżynierii obliczeniowej.

Studenci uczestniczący w SCC rywalizowali z innymi zespołami w budowie systemów komputerowych o jak największej wydajności, mierzonej standardowymi testami oraz przy wykorzystaniu kilku aplikacji. Istotnym ograniczeniem była wykorzystywana moc zasilania, która nie mogła przekroczyć 3 kW. Studenci z Warsaw Team dzielnie walczyli, jednak trudno im było wygrać z zespołami chińskimi, które przyjechały z nowiutkimi szafami wypełnionymi sprzętem prosto od producenta. Warto zauważyć, że nawet trzy zespoły z Niemiec, mające wsparcie własnych centrów superkomputerowych, nie były w stanie wywalczyć miejsca na podium. Niestety zmagania studentów na konferencjach superkomputerowych przypominają nieco Formułę 1 – liczy się nie tylko zespół i jego umiejętności, ale także sprzęt i sponsorzy.

Studenci inżynierii obliczeniowej uczestniczyli w ścieżce przygotowanej specjalnie z myślą o osobach studiujących, których w tym roku z różnych części świata przybyło ponad 70. Uczestniczyli w szkoleniach i wykładach,  mieli też okazję zapoznać się z częścią wystawową. Niestety, szkolenia, choć dobrze przygotowane, dotyczyły w sumie starych technologii. Warto tutaj dodać, że tym roku (podobnie jak we wcześniejszych latach) zgłaszaliśmy organizatorom chęć zorganizowania szkolenia PCJ, jednak propozycja nie został przyjęta ze względu na niewystarczającą popularność rozwiązania i ryzyko niskiej frekwencji. Generalnie studenci inżynierii obliczeniowej byli w stanie świadomie i krytycznie uczestniczyć w konferencji ISC. Warto podkreślić, że mieli za sobą dopiero jeden semestr studiów.

Piotr Bała

Prof. dr hab. Piotr Bała – fizyk, programista, specjalizuje się w fizyce molekularnej i komputerowej, obliczeniach równoległych i rozproszonych oraz modelowaniu układów dynamicznych metodami klasyczno-kwantowymi. Twórca biblioteki PCJ pozwalającej na efektywne zrównoleglanie obliczeń w języku Java. Współtwórca oprogramowania UNICORE umożliwiającego obliczenia rozproszone w biologii molekularnej i chemii kwantowej. Autor bądź współautor ponad 120 publikacji naukowych. Od 1993 r. współpracuje z ICM UW. Twórca studiów na kierunku inżynieria obliczeniowa w ICM UW. Pomysłodawca hackathonów Wielkie Wyzwania Programistyczne.