CrawlJobs Logo

Cloud Data Engineer

nttdata.com Logo

NTT DATA

Location Icon

Località:
Italy , Milano

Category Icon

Job Type Icon

Tipo di contratto:
Non fornito

Salary Icon

Salario:

Non fornito
Salva lavoro
Save Icon
Candidati

Descrizione del lavoro:

Il ruolo di Cloud Data Engineer offre un'opportunità unica per neolaureati di entrare in un ambiente innovativo e altamente specializzato. I candidati lavoreranno con tecnologie all'avanguardia come Python e Google Cloud Platform, partecipando a progetti di integrazione e gestione dei dati.

Responsabilità:

  • Partecipare alla progettazione e allo sviluppo dei processi di integrazione e gestione dei dati
  • Sviluppare e testare programmi/moduli/modelli
  • Eseguire l'automazione e la configurazione degli strumenti per contribuire all'efficienza del progetto/prodotto/servizio
  • Supportare nella definizione del disegno tecnico del modello dati
  • Collaborare con il team

Requisiti:

  • Laurea Informatica/Ingegneria Informatica
  • Interesse/passione per attività legate allo sviluppo del codice
  • Conoscenza della lingua inglese
Cosa offriamo:
  • formazione continua
  • programmi di apprendimento avanzati
  • piani di crescita personalizzati

Informazioni aggiuntive:

Offerta pubblicata:
24 gennaio 2026

Tipo di impiego:
Tempo pieno
Tipo di lavoro:
Lavoro ibrido
Condividi link dell'offerta:

Cerchi altre opportunità? Cerca altre offerte di lavoro che corrispondano alle tue competenze e ai tuoi interessi.

Briefcase Icon

Lavori simili per Cloud Data Engineer

Data Engineer

Siamo alla ricerca di un/a Data Engineer che contribuirà a uno dei progetti più ...
Località
Località
Italy , Milano
Salario
Salario:
Non fornito
prestitionline.it Logo
PrestitiOnline
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Laurea in Informatica, Ingegneria Informatica o discipline affini
  • Almeno 3 anni di esperienza come Data Engineer
  • Ottima conoscenza di Python, Java o Scala
  • Esperienza con database relazionali e non relazionali (es. MySQL, PostgreSQL, SQLServer, Hadoop)
  • Esperienza con Azure Fabric (Data Factory, Lakehouse, Data Warehouse) e Google Cloud, in particolare BigQuery
  • Conoscenza dei principi di data governance e sicurezza
  • Ottime capacità analitiche e di problem solving
  • Attitudine collaborativa e orientata al team
  • Passione per i dati e per la loro applicazione a problemi reali
  • Buone capacità comunicative, scritte e orali
Responsabilità
Responsabilità
  • Progettare, sviluppare e implementare pipeline ETL
  • Costruire e manutenere data warehouse in cloud, scalabili e performanti
  • Automatizzare processi per incrementare efficienza e ridurre errori
  • Garantire qualità, sicurezza e governance dei dati
  • Collaborare con analisti e data scientist trasformando le esigenze in soluzioni tecniche
  • Documentare codice e processi mantenendo elevati standard ingegneristici
  • Supportare la raccolta e l’elaborazione dei dati per decisioni strategiche
  • Analizzare logiche di business, processi e modelli dati
  • Restare aggiornato/a su tecnologie e trend del data engineering
Cosa offriamo
Cosa offriamo
  • Ambiente ibrido e flessibile
  • Formazione continua
  • Spazio per sperimentare, imparare e migliorare
  • Assicurazione sanitaria (CCNL Commercio)
  • Buoni pasto
  • Welfare
  • Accesso a piattaforme di e-learning
Leggi di più
Arrow Right

Data Engineer

Località
Località
Italy
Salario
Salario:
Non fornito
betacom.it Logo
Betacom Group
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Conoscenza approfondita di un moderno linguaggio di programmazione (Python, Java o C++) e delle relative librerie di data processing, Machine Learning e visualizzazione dati
  • Esperienza consolidata nella gestione di database relazionali (Microsoft SQL Server, Oracle Database) e conoscenza approfondita del linguaggio SQL
  • Esperienza di sviluppo di software distribuito per processamento dati eterogenei (database, file, streaming) su larga scala
Responsabilità
Responsabilità
  • sviluppo di pipeline ETL da differenti sistemi sorgente
  • gestione e ottimizzazione di database, relazionali e non
  • realizzazione di visualizzazioni per l’analisi dati
Cosa offriamo
Cosa offriamo
  • Offriamo una crescita formativa costante (Hard and Soft Skills)
  • Certificazioni nazionali ed internazionali
  • Masterclass esclusive d’impresa
  • Team Working sempre attivo
  • Convenzioni esclusive
  • contratto di sicuro interesse, con possibilità di crescita, corsi di formazione e aggiornamenti
  • Tempo pieno
Leggi di più
Arrow Right

Data Engineer

Attività: Progettazione e sviluppo di soluzioni di data engineering scalabili su...
Località
Località
Italy , Torino
Salario
Salario:
Non fornito
amaris.com Logo
Amaris Consulting
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Almeno 4 anni di esperienza come Data Engineer
  • Ottima conoscenza della lingua italiana (fluente)
  • Esperienza avanzata con tecnologie Azure: Databricks, Synapse, DevOps, Python, Azure SQL, Cosmos DB, Parquet
  • Conoscenza approfondita di database relazionali e NoSQL
  • Esperienza con strumenti ETL e Analytics
  • Capacità di lavorare in autonomia e in team, problem solving, orientamento al risultato, flessibilità e adattabilità
Responsabilità
Responsabilità
  • Progettazione e sviluppo di soluzioni di data engineering scalabili su Azure, con utilizzo di Databricks
  • Integrazione e gestione di dati provenienti da fonti relazionali e NoSQL
  • Implementazione e manutenzione di pipeline ETL/ELT efficienti lungo l’intero ciclo di vita del dato
  • Supporto alla migrazione di database e piattaforme dati verso il cloud Azure e alla modernizzazione di architetture legacy
  • Collaborazione con i team di Analytics e Business Intelligence per soluzioni analitiche avanzate
  • Ottimizzazione delle performance, qualità, sicurezza e affidabilità delle piattaforme dati
  • Supporto tecnico al team, definizione di best practice e documentazione delle soluzioni
Cosa offriamo
Cosa offriamo
  • Una community internazionale che riunisce oltre 110 nazionalità diverse
  • Un ambiente in cui la fiducia è centrale: il 70% dei nostri key leader ha iniziato la carriera dal primo livello di responsabilità
  • Un solido sistema di formazione con la nostra Academy interna e oltre 250 moduli disponibili
  • Possibilità di smart working (residente italiano/a)
  • Tempo pieno
Leggi di più
Arrow Right

MLOps/Generative AI Engineer

La risorsa sarà il punto di riferimento tecnico per la progettazione, sviluppo, ...
Località
Località
Italy , Bari
Salario
Salario:
Non fornito
sideagroup.com Logo
Sidea Group
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Laurea magistrale in Ingegneria Informatica, Informatica, Matematica, Fisica o discipline affini
  • Esperienza consolidata nello sviluppo di soluzioni AI/ML cloud-native, preferibilmente su Google Cloud Platform (GCP)
  • Solide competenze in Cloud Data Engineering: utilizzo avanzato di BigQuery, Dataflow, Pub/Sub, Cloud Storage, Cloud Composer
  • Competenze in MLOps e automazione: CI/CD con GitHub Actions, Terraform per IaC, orchestrazione con Kubernetes e Docker
  • Sviluppo AI & Generative AI: Padronanza di Python (in particolare per data engineering e modelli AI) ed esperienza con framework come LangChain, Vertex AI, ADK, RAG, fine-tuning LLM, prompt engineering
  • Data Modeling e architetture dati scalabili: progettazione di ETL/ELT, data warehouse su GCP
  • Sviluppo API & Integrazione: costruzione di API RESTful scalabili, integrazione A2A/MCP
  • Cloud Security & FinOps: conoscenza di IAM, rete, cost control, ottimizzazione costi e governance
Responsabilità
Responsabilità
  • Architettura e sviluppo della piattaforma AI/ML: progettare ed evolvere infrastrutture dati e AI su GCP, garantendo scalabilità, resilienza e performance per carichi AI/ML complessi
  • Deployment e industrializzazione AI: sviluppare pipeline dati automatizzate per alimentare modelli AI in tempo reale (API) e batch, con monitoraggio e gestione del ciclo di vita del modello
  • MLOps e Automazione: implementare processi CI/CD, provisioning automatizzato delle infrastrutture (IaC), orchestrazione con Kubernetes e monitoraggio continuo delle soluzioni
  • Integrazione di sistemi aziendali: garantire la comunicazione sicura tra modelli AI e sistemi interni tramite protocolli moderni (A2A, MCP)
  • Standard, Sicurezza e FinOps: definire e applicare best practice architetturali, controlli di sicurezza cloud (IAM, rete), governance dei dati e strategie di ottimizzazione costi
  • Supporto e collaborazione: agire da facilitatore tecnico per i team AI, Data Science e Product, fornendo infrastrutture dati e AI affidabili e performanti
  • Testing e qualità AI: validare modelli LLM e AI generativa in ottica di sicurezza, explainability e robustness
Cosa offriamo
Cosa offriamo
  • Piano di welfare e sistema incentivante
  • Percorsi di coaching e attività di team building
  • Possibilità di lavorare da remoto con flessibilità nell'organizzazione delle proprie attività
  • In ufficio: caffè, snack, frutta fresca e frutta secca
  • Tempo pieno
Leggi di più
Arrow Right

Data Engineer

Cerchiamo un/una Data Engineer per potenziare l’area Data & AI, con l’obiettivo ...
Località
Località
Italy , Milano
Salario
Salario:
Non fornito
digital360.it Logo
Digital360
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • 2-5 anni di esperienza in ruoli di Data Engineer, BI Engineer o affini
  • Laurea in Ingegneria, Informatica, Statistica, Matematica, Economia quantitativa o percorsi equivalenti
  • Disponibilità a trasferte presso i clienti
  • Buona conoscenza della lingua inglese
Responsabilità
Responsabilità
  • Progettazione, sviluppo e manutenzione di soluzioni Data Analytics (Data Warehouse, Data Lake, ecc.)
  • Sviluppo e ottimizzazione di pipeline di integrazione e trasformazione dati (ETL/ELT), anche in contesti cloud
  • Contributo alla definizione di architetture dati scalabili e affidabili, integrando sistemi on-premise e cloud
  • Analisi delle sorgenti dati e modellazione dei dati a supporto di reporting, analisi e use case di business
  • Collaborazione con team BI, Analytics e stakeholder di business per la comprensione delle esigenze informative
  • Supporto alla definizione ed implementazione di presidi di Data Governance (es. Metadata Management, Data Quality)
  • Supporto al Project Management delle iniziative e alle attività di rilascio e manutenzione
  • Contributo alle attività di ricerca e sviluppo (R&D) su tecnologie e best practice in ambito Data Engineering ed all’evoluzione della value proposition dell’area
Cosa offriamo
Cosa offriamo
  • Entrare a far parte di una realtà multidisciplinare dove il valore è generato da sperimentazione e continuo scambio di competenze
  • Le nostre sedi offrono spazi di lavoro moderni e funzionali nei quali organizziamo frequentemente eventi, workshop e momenti formativi
  • Integriamo l’AI nei nostri processi a supporto delle attività che svolgiamo quotidianamente
  • Offriamo modalità di lavoro agili e flessibili, con possibilità di smart working
  • Promuoviamo la formazione continua, individuale e di gruppo
  • Valorizziamo la diversità e crediamo in un modello di crescita sostenibile e inclusivo
Leggi di più
Arrow Right

Data Engineer

Sviluppatore Python Developer da inserire in un team di progetto presso i client...
Località
Località
Italy , Torino
Salario
Salario:
Non fornito
swpitalia.com Logo
Software Partner Italia Srl
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Esperienza di 3/4 anni nel ruolo e nell’ambito dei dati su Cloud Azure
  • Competenze in Azure Data Factory, Azure DevOps e DB SQL Server
Responsabilità
Responsabilità
  • Progettazione processi ETL per il caricamento dei dati su piattaforma Cloud Azure
  • Ottimizzazioni su SQL Server per garantire la massima efficienza e affidabilità dei dati
  • Gestione e sviluppo delle evolutive del progetto
  • Tempo pieno
Leggi di più
Arrow Right

Senior Data Engineer

Se anche tu vuoi dare forma al futuro con noi lavorando su importanti progetti p...
Località
Località
Italy , Assago
Salario
Salario:
Non fornito
https://www.soprasteria.com Logo
Sopra Steria
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Padronanza di SQL, Python e framework Big Data (Spark, Hadoop)
  • Esperienza con CI/CD e orchestrazione (Airflow, Luigi)
  • Conoscenza di architetture distribuite e microservizi per il data processing
  • Familiarità con strumenti di monitoraggio e logging (Prometheus, ELK)
  • Buona conoscenza dell’inglese tecnico
  • Leadership tecnica e capacità di coordinamento
  • Orientamento alla qualità e alla scalabilità
  • Almeno 4-6 anni di esperienza nella progettazione e gestione di architetture dati scalabili
Responsabilità
Responsabilità
  • Progettazione e sviluppo di data pipeline complesse per grandi volumi di dati
  • Implementazione di soluzioni cloud-native per data lake e data warehouse (AWS Redshift, Azure Synapse, BigQuery)
  • Ottimizzazione delle performance e gestione di database relazionali e NoSQL
  • Integrazione di strumenti di streaming e messaggistica (Kafka, Kinesis)
  • Definizione di standard di data governance, sicurezza e qualità dei dati
  • Coordinamento tecnico e mentoring di profili junior
  • Tempo pieno
Leggi di più
Arrow Right

MLOps / Data Engineer – AI Infrastructure & Deployment

Cerchiamo un* MLOps / Data Engineer con esperienza nella gestione di infrastrutt...
Località
Località
Italy , Roma
Salario
Salario:
Non fornito
contrader.it Logo
Contrader
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Laurea in Informatica, Ingegneria, Matematica o affini (PhD è un plus)
  • Ottima conoscenza di Python e strumenti per il data engineering (Pandas, NumPy, PySpark)
  • Esperienza nella progettazione e gestione di API RESTful
  • Esperienza con cloud GCP o AWS (Compute Engine, S3, Cloud Functions, Vertex AI, Sagemaker)
  • Familiarità con modelli LLM, pipeline di fine-tuning e modelli open-source (es. LLaMA, Mistral)
  • Uso di vector DB (FAISS, Weaviate, Pinecone)
  • Esperienza con strumenti MLOps (MLflow, DVC, Airflow, Kubeflow, Docker, Kubernetes)
  • Monitoraggio modelli in produzione (Prometheus, Grafana, Evidently AI, etc.)
  • Italiano
Responsabilità
Responsabilità
  • Gestire e ottimizzare infrastrutture per il training, deployment e monitoraggio di modelli AI/LLM
  • Automatizzare pipeline ML attraverso strumenti di orchestrazione e CI/CD
  • Garantire scalabilità, versioning e affidabilità nella gestione dei dati e dei modelli
  • Collaborare con Data Scientist e AI Engineer per portare i modelli in produzione in modo efficace
  • Supportare l’integrazione di modelli AI tramite API efficienti e sicure
  • Lavorare con vector database per applicazioni semantiche e retrieval-augmented generation (RAG)
Cosa offriamo
Cosa offriamo
  • Un ambiente di lavoro stimolante, dinamico e giovane
  • Opportunità di partecipare a corsi di formazione
  • Iniziative di team building per favorire la coesione e il benessere del team
  • Assicurazione sanitaria e welcome kit
  • Tempo pieno
Leggi di più
Arrow Right