Apache Kafka (regular) DBT (regular) AWS (regular) Snowflake (regular) Zadania i obowiązki na tym stanowisku: zarządzanie i rozwój Data Lakehouse,operacyjne prace nad utrzymaniem rozwiązania i wdrożeniami kolejnych usprawnień/rozbudowy,współpraca z Data Ops i BI Developerami,integracja systemów i danych,budowanie przepływów danych oraz orkiestracja zadań,tworzenie strumieniowych potoków danych,projektowanie rozwiązań DWH (np. Star schema, Vault 2),budowanie procesów ETL lub ELT,tworzenie kodu aplikacji masowo przetwarzających dane, techniczne testowanie rozwiązań. Wymagane technologie: DWH / Lakehouse (Snowflake, Redshift, Databricks SQL) Doświadczenie z AWS AWS infrastructure (IAM, EC2) AWS data engineering (S3, Glue, EMR, Athena) Scala, Java and/or Python dbt (ELT) Apache Airflow Apache Kafka Data Integration (Airbyte and Kafka Connect) Kafka Streams Kubernetes (on premise, EKS) Docker Docker Compose Helm 3 Flux CD Git GitLab CI/CD Terraform Co lubimy w naszej pracy: stabilność zatrudnienia,samodzielność i odpowiedzialność za powierzone zadania,możliwość pracy 100% zdalnej,elastyczne godziny pracy,współpracę i udział w unikalnych projektach,nieformalną atmosferę pracy wśród wspierających i lubiących się ludzi. Co dalej: zapoznamy się z Twoją aplikacją,skontaktujemy się z wybranymi kandydatami.
Data Engineer in Constanţa
Contact
Datele de contact vor fi vizibile dupa ce veti aplica!
Anunţ expirat