Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego UW to zarówno jednostka naukowo-badawcza, jak i centrum obliczeniowe komputerów dużej mocy oraz ośrodek data science – gromadzenia, udostępniania oraz przetwarzania danych.
ICM specjalizuje się w obliczeniach wielkoskalowych oraz zaawansowanych symulacjach znajdujących zastosowanie w różnych dziedzinach nauki i gospodarki. Zajmuje się analizowaniem i modelowaniem wielkich zbiorów danych (Big Data) z wykorzystaniem nowoczesnych technologii informatycznych, jak również zapewnia wsparcie programistyczne w projektach wymagających dużych mocy obliczeniowych. Zespół ICM dysponuje również kompetencjami w zakresie Data Management Planning – zarządzaniu dostępnością, jakością, trwałością danych, a także doświadczenie w tworzeniu systemów do udostępniania danych i dokumentów.
Działalność ICM obejmuje również działalność edukacyjno-szkoleniową, której częścią jest Akademia ICM. Akademia ICM to szkolenia, warsztaty, szkoły, konferencje i seminaria poświęcone m.in. tematyce:
Oferta szkoleniowa skierowana jest do firm, instytucji sektora publicznego a także indywidualnych uczestników, którzy chcą podnosić swoje kompetencje i rozwijać wiedzę.
Większość szkoleń odbywa się w nowo otwartym Centrum Technologii ICM, wyposażonym w dwa najnowszej generacji superkomputery (Okeanos to superkomputer Cray XC40 o mocy ponad 1 petaflopa i Enigma – wyprodukowany przez Huawei, największy w Polsce superkomputer do analiz Big Data) zaawansowany system przechowywania i udostępniania danych oraz laboratorium wizualizacji. Centrum Technologii ICM mieści się w Warszawie przy ul. Kupieckiej 32.
Zajęcia Akademii ICM prowadzone są przez ekspertów posiadających doświadczenie dydaktyczne, którzy zdobywali swoje kompetencje zarówno w projektach realizowanych na potrzeby nauki, administracji publicznej jak i biznesu.
Od 2001 roku zajmuje się badaniem sieci społecznych oraz procesów zachodzących w sieciach, takich jak dyfuzja innowacji i wpływ społeczny. Wykorzystuje analizę sieciową zarówno w pracy naukowej, jak i biznesowo. Zakładał i rozwijał dział business intelligence w Gadu-Gadu. Jest założycielem firmy SmartNet Research & Solutions i współtwórcą Sotrendera – narzędzia analitycznego do monitoringu i optymalizacji marketingu w mediach społecznościowych. Analizował sieci komunikacyjne (gadu-gadu i sieci telefonii komórkowej), serwisy społecznościowe (grono.net, NK.pl, facebook, Twitter), powiązania między firmami (zarządy i rady nadzorcze spółek), powiazania wewnątrzorganizacyjne (relacje między pracownikami), polityczne i medialne (współczytelnictwo i współoglądalność). Prowadził zajęcia z analizy sieciowej w Instytucie Socjologii UW.
Specjalizuje się w analizie sieci, matematycznym modelowaniu zjawisk społecznych, takich jak konflikt i kooperacja, oraz analizie danych. Zajmował się m.in. dynamiką sieci współpracy pomiędzy firmami, analizą sieci wewnątrzorganizacyjnych, sieciową integracją/segregacją dzieci w szkołach oraz konkurencją i współpracą pomiędzy naukowcami. Posiada wieloletnie doświadczenie w prowadzeniu krajowych i międzynarodowych kursów z analizy sieci społecznych, analizy danych z R oraz statystyki stosowanej. Laureat nagrody naukowej tygodnika „Polityka”. Entuzjasta R od 15 lat.
Programista z blisko pięcioletnim doświadczeniem w pracy z ekosystemem Apache Hadoop, z pasją tworzący rozwiązania analityki danych. Tworzący rozwiązania w językach Java, Apache Pig, Scala, Python wykorzystujące techniki uczenia maszynowego. Prelegent na konferencji Spark Summit Europe 2015. Prelegent na wielu naukowych konferencjach. Wcześniej wykładowca na Polskiej Akademii Nauk (kurs “Web-Scale Data Mining and Processing” 3 edycje, 2014-2015). Współpracował z firmami Spotify i Xerox w projektach analizy danych.
Deweloper najchętniej programujący w Javie i Scali, pasjonat ruchu Software Craftsmanship, programowania funkcyjnego i technologii przetwarzania dużych danych. Uczestniczył w wielu projektach w ICMie używając do tego technologii takich jak Apache Spark i Apache Hadoop. Współpracował z firmą Spotify w projekcie analizy danych. Wcześniej rozwijał w technologii .NET systemy przetwarzające duże dane w ramach zespołu Market Intelligence na Parkiecie Handlu Surowcami w Bank of America Merrill Lynch w Londynie. Programuje także w Haskellu: w ramach pracy magisterskiej napisał type-checker dla języka skryptowego kompilowanego z języka Python.