Big Data Passion

Big Data Passion

Strona tworzona przez pasjonatów i praktyków Big Data

Pasja rodzi profesjonalizm,
profesjonalizm daje jakość,
a jakość to jest w życiu luksus.

Jacek Walkiewicz

Big Data Passion to strona tworzona przez pasjonatów i praktyków Big Data. Naszą misją jest łączenie świata nauki i biznesu przez stosowanie zaawansowanych metod analizy danych w realnych zastosowaniach. Dlatego właśnie autorami portalu są osoby prowadzące badania naukowe i związene ze światem nauki jak i jednocześnie realizujące komercyjne projekty w Polsce i za granicą.

Treści prezentowane na stronie będą dotyczyć takich tematów jak:

  • Języki programowania (Java, Scala, Python, Kotlin, Groovy, Ruby, SQL, Bash etc.)
  • Przetwarzanie danych (Spark, MapReduce, Tez, Apex, Hive, Pig, Impala etc.)
  • Strumieniowe przetwarzanie i składowanie danych (Kafka, ActiveMQ, Flume, NiFi, MiNiFi, Logstash, Spark Streaming, Flink, Storm etc.)
  • Analizę danych, Data Science, NLP, Machine Learning, Sztuczną Inteligencję (Mahout, Spark MLlib, MXNet, Tensorflow etc.)
  • Data Lake i Hurtownie Danych
  • Składowanie danych (HDFS, AWS S3, Azure Data Lake, Google Cloud Storage)
  • Bazy SQL i NoSQL (HDFS, HBase, Cassandra, Mongo, Redis, Hazelcast, Kudu, Druid etc.)
  • Programowanie asynchroniczne (Vert.x, Netty, NodeJS etc.)
  • Biblioteki i narzędzia (Akka, Spring framework, Spring Data, Spring Integration, Spring XD etc.)
  • Wyszukiwanie danych (Lucene, Solr, Elasticsearch etc.)
  • Business Intelligence (Kylin, Pentaho, Mondrian, Kettle etc.)
  • Wizualizacja i prezentacja danych (Zeppelin, Jupyter, Kibana, Superset, Hue etc.)
  • Dystrybucje Big Data (Hortonworks, Cloudera, MapR, BigTop, Confluent, EMR, HDInsight, Dataproc etc.)
  • Rozwiązania dostępne w chmurze publicznej (Amazon Web Services, Microsoft Azure, Google Cloud Platform, Oracle Cloud, Databricks Cloud, Snowflake, Confluent Cloud, Oktawave etc.)
  • Administrowanie i zarządzanie rozproszonymi klastrami obliczeniowymi, usługami i procesami (DevOps, Docker, Kubernetes, Ansible, Jenkins, Oozie, Airflow etc.)


Radosław Szmit

Architekt rozwiązań Big Data

Swoją przygodę z danymi zaczął już na studiach na Politechnice Warszawskiej gdzie założył koło naukowe zajmujące się między innymi sterowaniem robotami, wizją komputerową oraz systemami sztucznej inteligencji. Po studiach dołączył do zespołu Zakładu Sztucznej Inteligencji w Instytucie Podstaw Informatyki Polskiej Akademii Nauk gdzie pracował nad jednym z pierwszych i największych projektów Big Data w Polsce pod nazwą NEKST (Natively Enhanced Knowledge Sharing Technologies). W ramach projektu powstało kilka rozwiązań naukowych i komercyjnych zaś całość pracowała na jednym z największych klastrów obliczeniowych Apache Hadoop w Polsce. Aktualnie pracuje nad rozprawą doktorską z zakresu Big Data i NLP w ramach której rozwija Otwarty System Antyplagiatowy realizowany przez Międzyuniwersyteckie Centrum Informatyzacji będącym pod względem ilości przetwarzanych danych jednym z największych rozwiązań tego typu na świecie.

Już na studiach zaczął pracować komercyjnie, początkowo jako programista specjalizujący się w rozwiązaniach Java Enterprise Edition a następnie jako konsultant rozwiązań Big Data oraz Hurtowni Danych. Swoją wiedzą uwielbia się dzielić na blogu, konferencjach, wykładach na uczelni oraz komercyjnych szkoleniach.

Prywatnie mąż i ojciec, miłośnik tanga argentyńskiego, adept Israeli Krav Maga, entuzjasta nowoczesnych technologii, zapaleniec gry w koszykówkę, hobbysta savoir-vivre, wielbiciel thrillerów psychologicznych, amator gotowania oraz pasjonat fizyki teoretycznej.

Marcin Wojtczak

Administrator chmur obliczeniowych (AWS, Oracle Cloud + Azure, Alibaba Cloud, GCP), DevOps i DevSecOps. Od kilku lat trener (m. in. NobleProg, Sages) i nauczyciel akademicki (Politechnika Warszawska, UKSW).

Od 2011 roku zawodowo zajmuje się sieciami GEPON, urządzeniami MikroTik i radioliniami. Od 2012 rozpoczął przygodę z Apache Hadoop (od wersji 0.22), która trwa do dzisiaj. W tym czasie pracował w IPI PAN a obecnie w CNBOP PIB, MUCI jak i w mniejszych firmach jako architekt sieci i systemów. Podstawowe narzędzia to Ansible i multitail :). Specjalizuje się w systemach linuksowych (RedHat / Debian ) na których tworzy klastry obliczeniowe oparte o Hadoopa. Ulubiona wirtualizacja oparta jest o libvirt. Od zawsze zainteresowany tematyką sieci. Bezpieczeństwo opiera na długoletniemu doświadczeniu z urządzeniami UTM / firewallami jak i na świadomości użytkowników.

Wolny czas poświęca na to co najważniejsze: Open Source i Rodzinę.

Arkadiusz Cacko

Inżynier oprogramowania, trener IT

Programista z wieloletnim doświadczeniem. Absolwent dwóch kierunków na Politechnice Warszawskiej oraz doktorant w dziedzinie Informatyka. Autor kilkunastu artykułów o zasięgu miedzynarodowym. Uwielbia zdobywać wiedzę i dzielić się nią z innymi. Pasjonat dobrych praktyk programowania, podejść DevOps we współczesnym świecie IT oraz przetwarzania dużych zbiorów danych.

Podobnie jak koledzy powyżej - współautor Otwartego Systemu Antyplagiatowego oraz Wyszukiwarki internetowej NEKST. To przy tych projektach mógł rozwijać swoją pasję do Big Data i programowania. Java to jego specjalność ale jeśli trzeba Python czy Scala też znajdzie zastosowanie w jego pracy. Wieloletni trener IT w dziedzinach Java, TDD, Big Data.

Wolny czas spędza z Rodziną a gdy tylko pójdą spać - wraca do komputera :)

Paweł Walesic

Inżynier IT, Programista, DevOps.

Pogłębiający swoją wiedzę na wielu płaszczyznach świata zer i jedynek. Zawodowo zajmuje się programowaniem w Java i osadzaniem komponentów mikoroserwisowych. Po godzinach podnoszący swoje kwalifikacje w dziedzinie rozwiązań chmurowych.

Prywatnie - tata najlepszej córki na świecie.



  • None
  • None
comments powered by Disqus

Recent Posts

Categories