Himalayas logo
FP

Cloud Data Architect (GCP)

Future Processing

Salary: 343k-510k USD

Poland only

Stay safe on Himalayas

Never send money to companies. Jobs on Himalayas will never require payment from applicants.

Szukamy Ciebie, jeśli:

  • posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi) oraz doświadczenie w roli Lead Developera / Architekta lub pokrewnej,
  • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI),
  • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git,
  • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake),
  • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP
  • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow)
  • korzystasz z SQL i Pythona na poziomie zaawansowanym,
  • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming,
  • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów) oraz w implementacji dobrych praktyk monitoringu (Cloud Monitoring, Logging),
  • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność, a planowanie i optymalizacja kosztów (FinOps, GCP Pricing Calculator, BigQuery Reservations) nie stanowią wyzwania,
  • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect),
  • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS),
  • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne,
  • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność,
  • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju,
  • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek,
  • jesteś otwarty(a) na wyjazdy służbowe,
  • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).

Praca na tym stanowisku w naszej firmie oznacza:

  • konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego,
  • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań,
  • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora,
  • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions,
  • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami,
  • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu,
  • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej,
  • tworzenie Proof-of-Concept dla nowych koncepcji danych,
  • utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt,
  • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring).
  • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem,
  • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer),
  • tworzenie i modyfikowanie dokumentacji,
  • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance,
  • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych,
  • analizowanie potencjalnych zagrożeń,
  • monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.

Wynagrodzenie_architekt

  • 165 – 245 zł/h netto + VAT (B2B)

Typ oferty

  • Data Solutions

Technologie

  • GCP
  • BigQuery
  • SQL
  • Dataflow
  • Dataproc

Język

  • angielski C1

About the job

Apply before

Posted on

Job type

Full Time

Experience level

Senior

Salary

Salary: 343k-510k USD

Location requirements

Hiring timezones

Poland +/- 0 hours

About Future Processing

Learn more about Future Processing and their company culture.

View company profile
Claim this profileFP

Future Processing

View company profile

Similar remote jobs

Here are other jobs you might want to apply for.

View all remote jobs

16 remote jobs at Future Processing

Explore the variety of open remote roles at Future Processing, offering flexible work options across multiple disciplines and skill levels.

View all jobs at Future Processing

Remote companies like Future Processing

Find your next opportunity by exploring profiles of companies that are similar to Future Processing. Compare culture, benefits, and job openings on Himalayas.

View all companies

Find your dream job

Sign up now and join over 100,000 remote workers who receive personalized job alerts, curated job matches, and more for free!

Sign up
Himalayas profile for an example user named Frankie Sullivan
Future Processing hiring Cloud Data Architect (GCP) • Remote (Work from Home) | Himalayas