CrawlJobs Logo

Data Engineer

https://www.bosch.pl/ Logo

Robert Bosch Sp. z o.o.

Location Icon

Lokalizacja:
Poland , Warszawa

Category Icon

Job Type Icon

Typ umowy:
Umowa zlecenie

Salary Icon

Wynagrodzenie:

Nie podano
Zapisz ofertę
Save Icon
Aplikuj

Opis stanowiska:

Płatny staż – Data Engineer w dziale Cybersecurity. W Bosch kształtujemy przyszłość, tworząc wysokiej jakości technologie i usługi, które wzbudzają entuzjazm i wzbogacają życie ludzi. Składamy naszym pracownikom obietnicę, której dotrzymujemy: razem rozwijamy się, cieszymy się pracą i wzajemnie się inspirujemy.

Obowiązki:

  • Zadania związane z przetwarzaniem danych w celu przeprowadzania testów bezpieczeństwa oraz raportowania ich wyników
  • Zadania w obszarze analizy i interpretacji danych
  • Wsparcie we wdrażaniu usług przetwarzających duże ilości danych
  • Utrzymanie i optymalizacja istniejących rozwiązań i procesów
  • Tworzenie i aktualizacja dokumentacji technicznej
  • Wsparcie techniczne i administracyjne w obszarze baz danych w projektach bezpieczeństwa realizowanych przez dział

Wymagania:

  • Jesteś studentem/ką min. II roku Informatyki lub kierunków pokrewnych
  • Dobrze znasz SQL i T-SQL
  • Masz doświadczenie w pracy z MS SQL Server
  • Posiadasz umiejętności analitycznego myślenia i rozwiązywania problemów
  • Znasz podstawy sieci komputerowych i bezpieczeństwa IT (dodatkowy atut)
  • Swobodnie komunikujesz się po angielsku
  • Angażujesz się w powierzone Ci zadania
  • Chcesz zdobywać nowe kompetencje
Co oferujemy:
  • Płatny staż w oparciu o umowę zlecenia (minimum 6 miesięcy)
  • Hybrydowy tryb pracy z biurem w Warszawie
  • Elastyczne godziny pracy
  • Zdobywanie praktycznej wiedzy w międzynarodowej firmie
  • Wsparcie merytoryczne ze strony specjalistów
  • Karta LunchPass
  • Preferencyjne warunki Karty MultiSport

Dodatkowe informacje:

Data publikacji:
24 kwietnia 2025

Rodzaj zatrudnienia:
Pełny etat
Typ pracy:
Praca hybrydowa
Udostępnij ofertę pracy:

Szukasz więcej możliwości? Wyszukaj inne oferty pracy, które pasują do Twoich umiejętności i zainteresowań.

Briefcase Icon

Podobne oferty dla Data Engineer

Data Engineer

Miejsce pracy: 100% zdalnie. Start pracy: ASAP (preferowany max 30 dniowy okres ...
Lokalizacja
Lokalizacja
Poland
Wynagrodzenie
Wynagrodzenie:
135.00 - 160.00 PLN / Godzina
itfs.com Logo
ITFS sp. z o. o
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • min 5 lat doświadczenia na stanowisku Data Engineer
  • doświadczenie w realizacji projektów budowy hurtowni danych / data lake / data platform klasy enterprise
  • bardzo dobra znajomość Google Cloud Platform w zakresie: BigQuery, Google Cloud Storage, Dataflow (batch & streaming), Composer / Airflow, podstawowa wiedza w obszarze GKE
  • bardzo dobra znajomość i codzienne praktyczne doświadczenie z DBT
  • umiejętność projektowania i implementacji data pipeline (ETL/ELT)
  • bardzo dobra praktyczna znajomość Python w kontekście przetwarzania danych
  • doświadczenie z przynajmniej jednym z narzędzi orkiestracji strumieniowej (Kafka / Pub/Sub / Dataflow Streaming)
  • umiejętność pracy w IaC (Terraform – bardzo duże plus)
  • doświadczenie z Docker, Kubernetes
  • doświadczenie w testowaniu jakości danych i monitoringu (SLA, alerty, data quality framework)
Obowiązki
Obowiązki
  • codzienna praca z dbt – budowa, utrzymanie i optymalizacja transformacji danych
  • praca z BigQuery - codzienne zapytania, modelowanie, zarządzanie dużymi zbiorami
  • Google Cloud Storage – etapowanie, przechowywanie i transfer danych między systemami
  • orkiestracja, harmonogramy i monitoring w Google Composer / Airflow
  • główny język do tworzenia pipeline, automatyzacji i usług wspierających w Python
  • praca z Kafka, Dataflow, Terraform, GKE
Czytaj więcej
Arrow Right

Cloud Data Engineer (GCP & BigQuery)

Do zespołu Rozwiązań Cyfrowych i E-Commerce (prowadzonego przez Miłosza Sokoła) ...
Lokalizacja
Lokalizacja
Poland , Warszawa
Wynagrodzenie
Wynagrodzenie:
Nie podano
https://www.medicover.pl Logo
Medicover
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • Minimum 2-3 lata doświadczenia na stanowisku Data Engineer, ze szczególnym uwzględnieniem projektów chmurowych i narzędzi GCP oraz BigQuery
  • Ekspercka znajomość Google Cloud Platform: Dogłębna wiedza na temat usług składowania i przetwarzania danych wewnątrz GCP
  • Biegłość w BigQuery: Zaawansowana optymalizacja zapytań SQL, zarządzanie partycjonowaniem, klastrowaniem i kosztami
  • Praktyczna znajomość optymalizacji zapytań SQL
  • Znajomość Power BI
  • Inżynieria danych: Praktyka w budowie procesów ETL/ELT oraz integracji danych z systemów zewnętrznych (np. Google Analytics, API, DataLayer)
  • Wykształcenie: Wyższe techniczne (Informatyka lub pokrewne)
  • Język angielski: Minimum na poziomie B2 (dokumentacja techniczna i komunikacja)
Obowiązki
Obowiązki
  • Projektowanie i rozwój nowoczesnej architektury danych w oparciu o ekosystem Google Cloud Platform (GCP) oraz BigQuery
  • Samodzielne projektowanie rozwiązań bazodanowych oraz raportowych
  • Optymalizacja wydajnościowa i kosztowa zapytań oraz procesów BigQuery
  • Aktywne doradztwo technologiczne – dobieranie narzędzi GCP pod konkretne potrzeby biznesowe i raportowe
  • Wdrażanie i nadzór nad standardami inżynierii danych (od projektu po monitoring)
  • Współpraca z partnerami biznesowymi w celu przekucia wymagań w gotowe rozwiązania analityczne
  • Prowadzenie przeglądów technologicznych (R&D) i rekomendowanie innowacji w obszarze Big Data
  • Integracja danych z wielu źródeł
  • Udział w planowaniu i prowadzeniu projektów wdrażania rozwiązań w obszarze raportowania
Co oferujemy
Co oferujemy
  • Prywatną opiekę medyczną dla Ciebie i Twojej rodziny
  • Dofinansowanie platformy Medicover Benefits (karty sportowe, bilety do kina/teatru)
  • Zniżki na usługi i produkty Medicover oraz grupowe ubezpieczenie NNW
  • Udział w projektach well-beingowych „Zdrowie przez cały rok” i wolontariacie pracowniczym
  • Pełny etat
Czytaj więcej
Arrow Right
Nowa

Data Engineer / Data Platform Lead

Do współpracy przy rozwoju nowoczesnej platformy danych poszukujemy doświadczone...
Lokalizacja
Lokalizacja
Poland , Warsaw
Wynagrodzenie
Wynagrodzenie:
Nie podano
algoteque.com Logo
Algoteque
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • Bardzo solidne doświadczenie w projektowaniu i budowie hurtowni danych / platform analitycznych oraz procesów ETL/ELT
  • Swobodne i praktyczne wykorzystanie SQL oraz Python w codziennej pracy
  • Doświadczenie z narzędziami do orkiestracji i transformacji danych, takimi jak Apache Airflow (Cloud Composer), dbt, Dataform
  • Bardzo dobra znajomość Google BigQuery – zarówno od strony architektury, jak i optymalizacji wydajności oraz kosztów
  • Doświadczenie w roli seniora lub lidera technicznego – praca z zespołem inżynierów danych, mentoring, rozwój kompetencji
  • Umiejętność przekładania potrzeb biznesowych na spójną architekturę danych
  • Praktyczna znajomość zagadnień Data Governance, Data Quality, Data Modeling oraz Data Catalog
  • Bardzo dobre umiejętności komunikacyjne i zdolność pracy z interesariuszami technicznymi oraz biznesowymi
  • Bardzo dobra znajomość języka angielskiego (środowisko międzynarodowe)
Obowiązki
Obowiązki
  • Prowadzenie i rozwój zespołu Data Engineering – mentoring techniczny, wyznaczanie kierunków rozwoju, wsparcie w rekrutacji oraz budowanie zaangażowanego zespołu
  • Projektowanie oraz ewolucja platformy danych opartej o rozwiązania chmurowe (BigQuery), z naciskiem na skalowalność, wydajność i bezpieczeństwo
  • Odpowiedzialność za architekturę przetwarzania danych oraz długofalowy rozwój środowiska analitycznego
  • Nadzór nad procesami ETL/ELT – ich niezawodnością, optymalizacją oraz integracją danych z wielu źródeł
  • Rozwijanie i porządkowanie obszaru Data Governance – standardy jakości danych, katalog danych, procesy zarządzania i odpowiedzialności
  • Uspójnienie oraz dalszy rozwój polityki retencji danych
  • Aktywne zarządzanie kosztami utrzymania platformy (w szczególności optymalizacja kosztów BigQuery) oraz współudział w planowaniu budżetu
  • Ścisła współpraca z biznesem, analitykami i zespołami IT w celu efektywnego wykorzystania danych w organizacji
  • Koordynacja współpracy z partnerami zewnętrznymi przy wdrożeniach i rozbudowie rozwiązań data-platformowych
  • Pełny etat
Czytaj więcej
Arrow Right

Qa Engineer (data & Analytics)

Lokalizacja
Lokalizacja
Poland
Wynagrodzenie
Wynagrodzenie:
21840.00 - 25040.00 PLN / Miesiąc
devire.pl Logo
Devire
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • 4+ lat doświadczenia jako QA Engineer w projektach danych, ze szczególnym uwzględnieniem walidacji danych, pipeline’ów oraz testów analitycznych
  • Bardzo dobra znajomość procesów data engineering, ETL oraz architektur data lake
  • Doświadczenie w testowaniu transformacji danych, API oraz integracji w środowiskach chmurowych (AWS, GCP lub Azure)
  • Znajomość frameworków jakości danych, takich jak Great Expectations lub podobnych
  • Praktyczna znajomość SQL w zakresie walidacji i uzgadniania danych
  • Doświadczenie w pracy z narzędziami BI i analitycznymi (np. ThoughtSpot, Power BI, Looker, Tableau) oraz weryfikacji raportów
  • Bardzo dobre umiejętności komunikacyjne oraz zdolność współpracy i promowania jakości w zespołach
Obowiązki
Obowiązki
  • Definiowanie i wdrażanie strategii walidacji jakości danych w pipeline’ach, data lake’ach oraz hurtowniach danych
  • Weryfikacja spójności, integralności, kompletności danych oraz poprawności transformacji danych od systemów źródłowych do narzędzi analitycznych (np. ThoughtSpot, Databricks)
  • Projektowanie i wykonywanie kompleksowych testów end-to-end w zakresie walidacji i uzgadniania danych w celu zapewnienia rzetelnych raportów i analiz
  • Współpraca z inżynierami przy wdrażaniu kontraktów danych, walidacji schematów oraz mechanizmów wykrywania anomalii (np. z wykorzystaniem Great Expectations)
  • Przeprowadzanie eksploracyjnych testów danych, analiza rozbieżności oraz zapewnianie poprawności danych w wielu środowiskach
  • Walidacja migracji danych, z zapewnieniem ciągłości biznesowej i minimalizacji zakłóceń podczas migracji chmurowych (np. migracja z Databricks do GCP)
Co oferujemy
Co oferujemy
  • opieka medyczna
  • karta multisport
Czytaj więcej
Arrow Right
Nowa

Senior Data Engineer

At Aristocrat, we are committed to bringing happiness to life through the power ...
Lokalizacja
Lokalizacja
India , Noida
Wynagrodzenie
Wynagrodzenie:
Nie podano
aristocrat.com Logo
Aristocrat Interactive
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • 3+ years of hands-on experience in data engineering
  • Strong experience with: Snowflake or similar cloud data warehouses
  • Airflow or other orchestration tools
  • Python, SQL, and shell scripting
  • Hands-on experience with AWS, Azure, or GCP (PubSub, GCS) services
  • Good understanding of data architecture, security, and performance tuning
  • Familiarity with version control (e.g., Git), CI/CD tools, and agile workflows
  • Understanding of how to effectively coordinate and model data for storage, retrieval, and analysis
Obowiązki
Obowiązki
  • Build, develop, and maintain batch and streaming data pipelines
  • Implement scalable data transformations using Python scripts and orchestrate workflows via Airflow or equivalent tools
  • Integrate with data platforms such as Snowflake, ensuring efficient data storage and retrieval
  • Generate and maintain large databases from various sources of structured and unstructured data
  • Write optimized SQL and Python scripts for data manipulation and ETL processes
  • Maintain data quality, observability, and pipeline reliability through monitoring and alerting
  • Collaborate with analytics and business teams to deliver high-impact data solutions
  • Follow guidelines for version control, documentation, and CI/CD in a collaborative environment
Co oferujemy
Co oferujemy
  • Solidny pakiet świadczeń
  • Globalne możliwości kariery
  • Pełny etat
Czytaj więcej
Arrow Right
Nowa

Data Engineer (Databricks)

Poszukujemy osoby z bardzo dobrą znajomością Azure Databricks (ADB) oraz Azure D...
Lokalizacja
Lokalizacja
Poland , Kraków
Wynagrodzenie
Wynagrodzenie:
140.00 - 190.00 PLN / Godzina
astek.pl Logo
Astek
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • Azure Databricks (ADB): PySpark, Spark SQL, Delta Lake, job clusters vs all-purpose clusters, workflows
  • Azure Data Factory (ADF): pipeline’y, data flows, triggery, Integration Runtime, parametryzacja, orkiestracja
  • Programowanie: Python i PySpark (modularność, obsługa błędów, testy jednostkowe)
  • Batch & Streaming: Structured Streaming, checkpointing, watermarking, wzorce orkiestracji
  • Optymalizacja wydajności: tuning Sparka, strategie partycjonowania, Parquet/Delta, cache/persistence, AQE, obsługa skew, optymalizacja joinów i shuffle
  • SQL: zaawansowany SQL do transformacji, tuningu i debugowania
  • Bazy danych / storage: relacyjne bazy danych (SQL Server, PostgreSQL) oraz ADLS Gen2
  • Azure: ADLS, Key Vault, Event Hubs / Service Bus, podstawy sieci i IAM
  • Kontrola wersji i CI/CD: Git (GitHub / Azure DevOps), pipeline’y build & release dla Databricks i ADF
Obowiązki
Obowiązki
  • Projektowanie, budowa i utrzymanie potoków danych w Azure Data Factory (lub Synapse Pipelines) oraz Azure Databricks dla przetwarzania batchowego i strumieniowego
  • Tworzenie skalowalnych rozwiązań przetwarzania danych w PySpark (preferowane Delta Lake)
  • Implementacja pipeline’ów streamingowych (Structured Streaming, Event Hubs, Kafka) oraz niezawodnych workflow batchowych wraz z monitoringiem i alertami
  • Optymalizacja wydajności Spark (partycjonowanie, cache, broadcast joins, AQE, tuning rozmiarów plików) oraz zarządzanie pamięcią i klastrami
  • Modelowanie danych pod analitykę i ML (architektura medallion: bronze / silver / gold)
  • Wdrażanie praktyk CI/CD i DevOps dla rozwiązań data engineeringowych
  • Zapewnienie jakości danych, lineage i governance (np. Great Expectations, Deequ, Azure Purview)
  • Współpraca z architektami danych, analitykami i zespołami produktowymi
  • Tworzenie dokumentacji technicznej i materiałów do przekazywania wiedzy
Co oferujemy
Co oferujemy
  • Długoterminowa współpraca
  • Szkolenia techniczne, certyfikaty i podnoszenie kwalifikacji
  • Mentoring Competence Center – bycie członkiem społeczności CC od pierwszego dnia pracy jest szansą na rozwijanie swoich umiejętności, uczestniczenie w różnych konferencjach oraz dzielenie się wiedzą i doświadczeniem z ludźmi, którzy na co dzień mierzą się z tymi samymi wyzwaniami
  • Jasna ścieżka kariery
  • Pakiet benefitów pracowniczych (Multisport, prywatna opieka mediczna, ubezpieczenie na życie)
  • Przyjazną atmosferę pracy, imprezy integracyjne i spotkania team-buildingowe
  • Pełny etat
Czytaj więcej
Arrow Right
Nowa

Data Engineer

Dołączając do zespołu Delivery, zyskasz realny wpływ na realizowane projekty, tw...
Lokalizacja
Lokalizacja
Poland , Warszawa
Wynagrodzenie
Wynagrodzenie:
10000.00 - 14000.00 PLN / Miesiąc
OChK
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • praktyczna wiedza oraz doświadczenie w pracy z Google Cloud
  • znajomość innych platform chmurowych (Azure, AWS) będzie dodatkowym atutem
  • praktyczna wiedza oraz doświadczenie w budowie rozwiązań klasy DWH, ETL, BI, Data Lake, Data Mesh - w szczególności w roli inżyniera danych lub ETL developera
  • praktyczna znajomość baz danych, dobra znajomość BigQuery lub Snowflake będzie dodatkowym atutem
  • bardzo dobra znajomość SQL
  • praktyczna znajomość teorii hurtowni danych
  • znajomość teorii algorytmów i struktur danych
  • praktyczna znajomość jednego z języków programowania: Python, Go, Java
Obowiązki
Obowiązki
  • aktywne uczestniczenie w realizacji projektów z obszaru inżynierii danych (DWH, ETL, BI, AI / ML), na każdym z etapów realizacji projektu, zarówno dla klientów wewnętrznych oraz zewnętrznych
  • projektowanie, budowanie oraz testowanie procesów oraz pipeline’ów ETL w Google Cloud
  • projektowanie analitycznych repozytoriów danych w technologii BigQuery
  • przygotowywanie dokumentacji projektowej oraz eksploatacyjnej
  • wspieranie procesów sprzedażowych, w tym budowa i prezentacja prototypów rozwiązań (PoC)
Co oferujemy
Co oferujemy
  • prywatne ubezpieczenie medyczne
  • preferencyjne warunki ubezpieczenia grupowego
  • karta Multisport
  • organizujemy i współfinansujemy naukę języka angielskiego
  • udostępniamy program poleceń, dzięki któremu pracownicy zyskują dodatkowe bonusy za skuteczną rekomendację kandydatów do pracy
  • Pełny etat
Czytaj więcej
Arrow Right

Senior Data Engineer

Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży I...
Lokalizacja
Lokalizacja
Poland
Wynagrodzenie
Wynagrodzenie:
130.00 - 160.00 PLN / Godzina
devire.pl Logo
Devire
Wygasa
Do odwołania
Flip Icon
Wymagania
Wymagania
  • Doświadczenie w prowadzeniu zespołów inżynierskich oraz pełnieniu roli Tech Leada w projektach o skali enterprise
  • Ekspercka znajomość agile software delivery oraz DevOps w ramach SDLC
  • Umiejętność mentoringu i coachingu, wdrażania najlepszych praktyk inżynieryjnych, architektonicznych i testowych
  • Doświadczenie w inicjowaniu oraz prowadzeniu działań ciągłego doskonalenia procesów
  • Umiejętność współpracy z Product Ownerami, interesariuszami oraz odbiorcami biznesowymi
  • Znajomość języka angielskiego min. B2+
  • Python
  • Data Engineering
  • AWS
  • Observability tools
Obowiązki
Obowiązki
  • Techniczne prowadzenie zespołu deweloperskiego i dbanie o dostarczenie ustalonych funkcji
  • Projektowanie i rozwój elementów związanych z danymi i analityką na platformie do wsparcia badań inwestycyjnych
  • Współtworzenie architektury rozwiązania oraz standardów technologicznych
  • Dbanie o jakość kodu i pracy zespołu: przeglądy kodu, mentoring, wprowadzanie dobrych praktyk
  • Wsparcie Product Ownera oraz bliska współpraca przy planowaniu i realizacji backlogu
  • Udział w rozwijaniu narzędzi analitycznych
  • Udział w pracach R&D nad rozwojem platformy
Co oferujemy
Co oferujemy
  • Pakiet benefitów (opieka medyczna, karta multisport itp.)
  • Długofalowa współpraca
Czytaj więcej
Arrow Right