image
  • Snapboard
  • Activity
  • Reports
  • Campaign
Welcome ,
loadingbar
Loading, Please wait..!!

Platform Engineer

  • ... Posted on: Apr 08, 2026
  • ... HeadHR
  • ... Snowflake, Arizona
  • ... Salary: Not Available
  • ... Full-time

Platform Engineer   

Job Title :

Platform Engineer

Job Type :

Full-time

Job Location :

Snowflake Arizona United States

Remote :

No

Jobcon Logo Job Description :

Charakterystyka oferty: Miejsce pracy: Zdalnie Start: ASAP (max 30 dni OW) Godziny pracy: Standardowe godziny pracy Wynagrodzenie: 130-150 zł netto/h + VAT (bez płatnych urlopów) Proces rekrutacyjny: Krótka rozmowa telefoniczna z ITFS Rozmowa techniczna Decyzja Oferujemy: Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowej Możliwość skorzystania z dodatkowych benefitów (pakiet medyczny, sportowy, darmowa opieka księgowa - do 3 wpisów miesięcznie) Obowiązki na stanowisku: Zapewnienie niezawodności pipeline’ów danych oraz wsparcie obciążeń analitycznych. Utrzymanie natywnych środowisk danych w chmurze (Databricks, Snowflake) z wykorzystaniem praktyk CI/CD oraz Infrastructure as Code. Budowa i utrzymanie infrastruktury w AWS przy użyciu Terraform. Wdrażanie usług danych w kontenerach Docker oraz zarządzanie klastrami Kubernetes (EKS). Monitorowanie systemów i pipeline’ów przy użyciu CloudWatch i Grafana w celu zapewnienia wysokiej dostępności i wydajności. Wsparcie pipeline’ów dbt oraz orkiestracja workflow z wykorzystaniem Airflow lub podobnych narzędzi (np. Prefect, Dagster). Kogo poszukujemy? Wymagania: Min. 4 lata doświadczenia zawodowego na stanowisku związanym z DevOps Doświadczenie DevOps w środowisku AWS, w szczególności w zarządzaniu infrastrukturą przy użyciu Infrastructure as Code (Terraform), wspierającą skalowalne platformy danych (preferowane Databricks, dopuszczalnie Snowflake) Praktyczne doświadczenie w budowaniu i utrzymaniu pipeline’ów CI/CD z wykorzystaniem Jenkins i/lub GitHub Actions Doświadczenie z Kubernetes (EKS) oraz konteneryzacją (Docker) Znajomość narzędzi monitoringu i obserwowalności (m.in. CloudWatch, Grafana Doświadczenie we wspieraniu pipeline’ów dbt oraz orkiestracji workflow przy użyciu Apache Airflow lub podobnych narzędzi (np. Prefect, Dagster) Podstawowe do średniozaawansowanych umiejętności programistyczne w Python, PySpark oraz SQL, Angielski na poziomie min. B2 #J-18808-Ljbffr

View Full Description

Jobcon Logo Position Details

Posted:

Apr 08, 2026

Reference Number:

14660_DD00A3612CBCB060FD35F871103794A1

Employment:

Full-time

Salary:

Not Available

City:

Snowflake

Job Origin:

APPCAST_CPC

Share this job:

  • linkedin

Jobcon Logo
A job sourcing event
In Dallas Fort Worth
Aug 19, 2017 9am-6pm
All job seekers welcome!

Platform Engineer    Apply

Click on the below icons to share this job to Linkedin, Twitter!

Charakterystyka oferty: Miejsce pracy: Zdalnie Start: ASAP (max 30 dni OW) Godziny pracy: Standardowe godziny pracy Wynagrodzenie: 130-150 zł netto/h + VAT (bez płatnych urlopów) Proces rekrutacyjny: Krótka rozmowa telefoniczna z ITFS Rozmowa techniczna Decyzja Oferujemy: Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowej Możliwość skorzystania z dodatkowych benefitów (pakiet medyczny, sportowy, darmowa opieka księgowa - do 3 wpisów miesięcznie) Obowiązki na stanowisku: Zapewnienie niezawodności pipeline’ów danych oraz wsparcie obciążeń analitycznych. Utrzymanie natywnych środowisk danych w chmurze (Databricks, Snowflake) z wykorzystaniem praktyk CI/CD oraz Infrastructure as Code. Budowa i utrzymanie infrastruktury w AWS przy użyciu Terraform. Wdrażanie usług danych w kontenerach Docker oraz zarządzanie klastrami Kubernetes (EKS). Monitorowanie systemów i pipeline’ów przy użyciu CloudWatch i Grafana w celu zapewnienia wysokiej dostępności i wydajności. Wsparcie pipeline’ów dbt oraz orkiestracja workflow z wykorzystaniem Airflow lub podobnych narzędzi (np. Prefect, Dagster). Kogo poszukujemy? Wymagania: Min. 4 lata doświadczenia zawodowego na stanowisku związanym z DevOps Doświadczenie DevOps w środowisku AWS, w szczególności w zarządzaniu infrastrukturą przy użyciu Infrastructure as Code (Terraform), wspierającą skalowalne platformy danych (preferowane Databricks, dopuszczalnie Snowflake) Praktyczne doświadczenie w budowaniu i utrzymaniu pipeline’ów CI/CD z wykorzystaniem Jenkins i/lub GitHub Actions Doświadczenie z Kubernetes (EKS) oraz konteneryzacją (Docker) Znajomość narzędzi monitoringu i obserwowalności (m.in. CloudWatch, Grafana Doświadczenie we wspieraniu pipeline’ów dbt oraz orkiestracji workflow przy użyciu Apache Airflow lub podobnych narzędzi (np. Prefect, Dagster) Podstawowe do średniozaawansowanych umiejętności programistyczne w Python, PySpark oraz SQL, Angielski na poziomie min. B2 #J-18808-Ljbffr

Loading
Please wait..!!