Zespół specjalizuje się w eksploracji dużych zbiorów danych oraz budowie modeli służących analityce danych. Opracowuje i wykorzystuje metody uczenia maszynowego do wielkoskalowej analizy tekstów oraz przeprowadzania data miningu. Duża część projektów realizowanych jest na zlecenie firm zainteresowanych wydobywaniem informacji z posiadanych zbiorów danych oraz monetyzacją tych zasobów.
W realizacji projektów opartych o dane wykorzystywana jest typowo metodyka CRISP-DM (Cross-Industry Standard Process for Data Mining). Oprócz współpracy z sektorem prywatnym ADA Lab uczestniczył w szeregu krajowych oraz międzynarodowych projektów badawczo-rozwojowych. Dzięki dostępowi do zasobów obliczeniowych ICM oraz najnowszych technologii Big Data, zespół jest w stanie realizować projekty analityczne o skali petabajtów. W połączeniu z kompetencjami programistów i administratorów pracujących w środowisku Apache Spark oraz multidyscyplinarnych zespołów badawczych daje to możliwość rozwiązywania najbardziej wymagających problemów.
Zobacz więcej informacji na temat ADALab.
Główne atuty ADALab
- Doświadczony zespół złożony z inżynierów dużych danych oraz specjalistów z zakresu analityki danych.
- Jeden z największych w Europie klastrów do analityki danych (technologia Apache Spark).
- Doświadczenie w prowadzeniu projektów w oparciu o metodykę CRISP-DM (Cross-Industry Standard Process for Data Mining).
- Współpraca z wiodącymi europejskimi ośrodkami z zakresu analityki danych.
- Oprogramowanie i usługi sieciowe do wielkoskalowej analizy dokumentów CERMINE (http://cermine.ceon.pl/)
Główne obszary kompetencji ADALab
- Przetwarzanie języka naturalnego
- Analiza dokumentów
- Przetwarzanie dużych zbiorów danych
- Przetwarzanie strumieni danych
- Sieci semantyczne
- Bazy danych NoSQL
- Bazy danych typu blockchain
- Uczenie maszynowe
- Wizualizacja informacji
- Paradygmat MapReduce
- Usługi Amazon Web Services
Strategiczne cele i obszary ADALab
- Szersza współpraca z biznesem w obszarze analityki dużych danych.
- Usługi doradcze w zakresie budowy, konfiguracji i utrzymania środowisk obliczeniowych opartych o Apache Spark.
- Komercjalizacja i rozwój usług do automatycznej analizy dokumentów.