FishingBooker je najveća online platforma za rezervisanje ribolovačkih putovanja širom sveta koju je prošle godine posetilo preko 10.000.000 korisnika iz 100 različitih zemalja.
Još od 2013. godine u FishingBooker-u razvijamo proizvod za svoje korisnike, potpuno autonomno, bez spoljnih investicija. To omogućava da radimo brz, iterativni razvoj uz čest deploy koda. Verujemo u kvalitetna rešenja, zdrave i otvorene ljudske odnose i mogućnost da se stalno napreduje.
Kroz redovne A/B testove i "data-driven" pristup, ostvarujemo pobede i donosimo odluke koji nisu bazirane na ličnim stavovima pojedinaca, već su potkrepljene činjenicama i brojevima. Svako ima priliku da učestvuje u definisanju pravca u kome će se proizvod razvijati, nezavisno od funkcije, vremena provedenog u firmi i sl.
O praksi
Praksa je plaćena i traje 3 meseca. Namenjena je studentima završnih godina tehničkih fakulteta (prednost imaju ETF, FON, RAF i MATF), koji žele da započnu karijeru u oblasti data engineering u visoko organizovanom i tehnički orijentisanom timu.
Kao Data Engineering Intern, bićeš deo našeg Data Engineering tima koji ima ključnu ulogu u izgradnji i održavanju skalabilne data infrastrukture. Radićeš na konkretnim zadacima u oblasti obrade podataka i data pipeline-a, uz mentorsku podršku i jasne smernice za učenje i napredak.
Šta ćeš raditi:
-
Rad na jednostavnim data pipeline-ima za prikupljanje i obradu podataka koristeći Python i osnove Scala programskog jezika.
-
Upoznavanje sa Apache Spark-om za batch processing velikih količina podataka i osnovnim streaming konceptima.
-
Korišćenje Apache Airflow-a za kreiranje i održavanje osnovnih workflow-a za automatizaciju data procesa.
-
Rad sa Apache Kafka-om za real-time data streaming i razumevanje event-driven arhitekture.
-
Osnovno korišćenje Snowflake-a za data warehousing i pisanje SQL upita za analizu podataka.
-
Upoznavanje sa AWS cloud servisima i Kubernetes infrastrukturom za deployment aplikacija.
-
Saradnja sa članovima Data i Engineering timova, uz uvid u data procese koji prate sve faze - od prikupljanja sirovih podataka do pripreme za analitiku.
-
Rad na data quality proverama i monitoring-u pipeline-a.
-
Upoznavanje sa Iceberg format-om i Lakehouse arhitekturom.
-
Pisanje dokumentacije za data procese i pipeline-e.
Šta očekujemo od tebe:
-
Student si završnih godina tehničkog fakulteta (ETF, FON, RAF, MATF ili slični). U prijavi navedi koju godinu studija trenutno pohađaš.
-
Imaš osnovno znanje iz objektno orijentisanog programiranja (prednost imaju kandidati koji poznaju Python, ali nije uslov - bitno nam je da razumeš osnove programiranja).
-
Razumeš osnovne database koncepte i znaš da napišeš SQL upite različite složenosti.
-
Poznaješ osnove distribuiranih sistema, pozvanje big data koncepata predstavlja prednost.
-
Imaš osnovno poznavanje Git funkcionalnosti i verzioniranja koda.
-
Prethodno radno iskustvo ili praksa (saradnik u nastavi, asistent na fakultetu, lični projekti, startapi itd.) predstavlja prednost.
-
Voliš da učiš, analitičan/na si i fokusiran/a na rešavanje složenih problema.
-
Timski si igrač i znaš da tražiš pomoć kad ti je potrebna.
-
Dobro se izražavaš na engleskom jeziku, u pisanju i govoru.
Šta nudimo:
-
Plaćenu praksu u iznosu od 1000 EUR neto mesečno.
-
Rad sa iskusnim data inženjerima i redovan feedback.
-
Pristup literaturi i online kursevima za dodatno učenje.
-
Mentorstvo i podršku tokom celog trajanja prakse.
-
Fleksibilno radno vreme, uz dolazak u kancelariju radi učenja i integracije u tim.
-
Mogućnost zaposlenja nakon uspešno završene prakse.
Naš Data Engineering tim
Zadužen za izgradnju i održavanje skalabilne data infrastrukture koja omogućava prikupljanje, obradu i dostavljanje podataka iz različitih izvora kroz našu platformu. Kolege rade na dizajnu i implementaciji lambda arhitekture koja kombinuje streaming i batch processing kako bi obezbedili pouzdane i aktuelne podatke u našem Lakehouse-u za potrebe data tima. Tehnologije koje koristimo uključuju Scala i Python programske jezike, servise poput Apache Spark, Kafka i Airflow, Iceberg za Lakehouse format, S3 za storage, Snowflake za DWH, kao i AWS cloud platformu sa Kubernetes infrastrukturom za orkestaciju celokupnog data flow-a.
Ako želiš da napraviš prvi korak ka karijeri data inženjera i učiš na realnim projektima od iskusnih kolega - prijavi se! ✌️
TOK PROCESA SELEKCIJE SE NALAZI OVDE.