L'intelligenza artificiale sostituirà gli ingegneri dei dati?

L'intelligenza artificiale sostituirà gli ingegneri dei dati?

Risposta breve: l'intelligenza artificiale non sostituirà completamente i data engineer; automatizzerà lavori ripetitivi come la stesura di SQL, la creazione di pipeline, i test e la documentazione. Se il tuo ruolo prevede principalmente un basso livello di responsabilità e un lavoro basato sui ticket, sei più esposto; se invece sei responsabile dell'affidabilità, delle definizioni, della governance e della risposta agli incidenti, l'intelligenza artificiale ti renderà principalmente più veloce.

Punti chiave:

Proprietà : dare priorità alla responsabilità dei risultati, non solo alla produzione rapida del codice.

Qualità : creare test, osservabilità e contratti in modo che le pipeline rimangano affidabili.

Governance : mantenere la privacy, il controllo degli accessi, la conservazione e i percorsi di controllo di proprietà umana.

Resistenza all'uso improprio : trattare gli output dell'IA come bozze; rivederli per evitare errori certi.

Cambio di ruolo : dedica meno tempo alla digitazione di testo standard e più tempo alla progettazione di sistemi durevoli.

L'intelligenza artificiale sostituirà gli ingegneri dei dati? Infografica

Se hai trascorso più di cinque minuti con i team di dati, avrai sentito il ritornello, a volte sussurrato, a volte lanciato durante una riunione come un colpo di scena: l'intelligenza artificiale sostituirà gli ingegneri dei dati?

E... capisco. L'intelligenza artificiale può generare codice SQL, creare pipeline, spiegare stack trace, abbozzare modelli dbt e persino suggerire schemi warehouse con una sicurezza inquietante. GitHub Copilot per SQL Informazioni sui modelli dbt GitHub Copilot
Sembra di guardare un carrello elevatore che impara a destreggiarsi. Impressionante, leggermente allarmante, e non sei del tutto sicuro di cosa significhi per il tuo lavoro 😅

Ma la verità è meno chiara del titolo. L'intelligenza artificiale sta cambiando radicalmente l'ingegneria dei dati. Sta automatizzando le parti noiose e ripetibili. Sta accelerando i momenti in cui "so cosa voglio ma non ricordo la sintassi". Sta anche generando nuovi tipi di caos.

Quindi, cerchiamo di esporre le cose in modo chiaro, senza ottimismi superficiali o panico catastrofico.

Articoli che potrebbero interessarti dopo questo:

🔗 L'intelligenza artificiale sostituirà i radiologi?
Come l'intelligenza artificiale nell'imaging cambia il flusso di lavoro, la precisione e i ruoli futuri.

🔗 L'intelligenza artificiale sostituirà i contabili?
Scopri quali attività contabili vengono automatizzate dall'intelligenza artificiale e quali rimangono di competenza umana.

🔗 L'intelligenza artificiale sostituirà i banchieri d'investimento?
Comprendere l'impatto dell'intelligenza artificiale su accordi, ricerche e relazioni con i clienti.

🔗 L'intelligenza artificiale sostituirà gli agenti assicurativi?
Scopri come l'intelligenza artificiale trasforma la sottoscrizione, le vendite e l'assistenza clienti.


Perché la domanda "L'intelligenza artificiale sostituisce gli ingegneri dei dati" continua a riaffiorare 😬

La paura nasce da un fattore ben preciso: l'ingegneria dei dati comporta molto lavoro ripetibile .

  • Scrittura e refactoring di SQL

  • Creazione di script di ingestione

  • Mappatura dei campi da uno schema all'altro

  • Creazione di test e documentazione di base

  • Debug dei guasti della pipeline che sono... in un certo senso prevedibili

L'intelligenza artificiale è insolitamente abile nel creare pattern ripetibili. E gran parte dell'ingegneria dei dati è proprio questo: pattern sovrapposti a pattern. Suggerimenti di codice per GitHub Copilot

Inoltre, l'ecosistema degli strumenti sta già "nascondendo" la complessità:

Quindi, quando l'intelligenza artificiale si presenta, può sembrare l'ultimo tassello. Se lo stack è già astratto e l'intelligenza artificiale può scrivere il codice di collegamento... cosa rimane? 🤷

Ma ecco cosa la gente trascura: l'ingegneria dei dati non è solo digitare . Digitare è la parte facile. La parte difficile è far sì che la realtà aziendale oscura, politica e mutevole si comporti come un sistema affidabile.

E l'intelligenza artificiale si scontra ancora con questa oscurità. Anche le persone hanno difficoltà, solo che improvvisano meglio.


Cosa fanno realmente gli ingegneri dei dati tutto il giorno (la verità poco affascinante) 🧱

Siamo onesti: il titolo di "Data Engineer" suona come se stessi costruendo motori a razzo con la matematica pura. In pratica, stai costruendo fiducia .

Una giornata tipo è meno “inventare nuovi algoritmi” e più:

  • Negoziare con i team upstream sulle definizioni dei dati (doloroso ma necessario)

  • Indagare sul perché una metrica è cambiata (e se è reale)

  • Gestione della deriva dello schema e delle sorprese del tipo "qualcuno ha aggiunto una colonna a mezzanotte"

  • Garantire che le pipeline siano idempotenti, recuperabili e osservabili

  • Creare delle barriere di sicurezza affinché gli analisti a valle non creino accidentalmente dashboard senza senso

  • Gestire i costi per evitare che il tuo magazzino si trasformi in un falò di soldi 🔥

  • Protezione dell'accesso, audit, conformità, politiche di conservazione Principi del GDPR (Commissione Europea) Limitazione dell'archiviazione (ICO)

  • Creare prodotti di dati che le persone possano effettivamente utilizzare senza inviarti messaggi diretti: 20 domande

Gran parte del lavoro è di natura sociale e operativa:

  • "Chi è il proprietario di questo tavolo?"

  • “Questa definizione è ancora valida?”

  • "Perché il CRM esporta duplicati?"

  • "Possiamo inviare questa metrica ai dirigenti senza imbarazzo?" 😭

L'intelligenza artificiale può certamente dare una mano in alcuni aspetti. Ma sostituirla completamente è... un'esagerazione.


Cosa rende un ruolo di data engineering una versione efficace? ✅

Questa sezione è importante perché il discorso sulla sostituzione di solito dà per scontato che gli ingegneri dei dati siano principalmente "costruttori di pipeline". È come dare per scontato che gli chef si occupino principalmente di "tagliare le verdure". Fa parte del lavoro, ma non è il lavoro.

Un ingegnere dei dati esperto solitamente è in grado di svolgere la maggior parte delle seguenti attività:

  • Progettare per il cambiamento
    . I dati cambiano. I team cambiano. Gli strumenti cambiano. Un buon ingegnere costruisce sistemi che non crollano ogni volta che la realtà starnutisce 🤧

  • Definisci contratti e aspettative:
    cosa significa "cliente"? cosa significa "attivo"? cosa succede quando una riga arriva in ritardo? I contratti prevengono il caos più di quanto faccia un codice elaborato. Open Data Contract Standard (ODCS) ODCS (GitHub)

  • Integra l'osservabilità in ogni cosa.
    Non solo "ha funzionato", ma "ha funzionato correttamente". Freschezza, anomalie di volume, esplosioni di valori nulli, spostamenti di distribuzione. Osservabilità dei dati (Dynatrace) Cos'è l'osservabilità dei dati?

  • Fai compromessi come un adulto:
    velocità contro correttezza, costo contro latenza, flessibilità contro semplicità. Non esiste una pipeline perfetta, solo pipeline con cui puoi convivere.

  • Tradurre le esigenze aziendali in sistemi durevoli.
    Le persone chiedono metriche, ma ciò di cui hanno bisogno è un prodotto di dati. L'intelligenza artificiale può redigere il codice, ma non può conoscere magicamente i pericoli aziendali.

  • Mantieni i dati segreti.
    Il complimento più grande per una piattaforma dati è che nessuno ne parli. I dati senza eventi sono buoni dati. Come l'impianto idraulico. Te ne accorgi solo quando non funziona 🚽

Se ti occupi di queste cose, la domanda "L'intelligenza artificiale sostituirà gli ingegneri dei dati?" inizia a suonare... leggermente fuori luogo. L'intelligenza artificiale può sostituire i compiti , non la proprietà .


Dove l'intelligenza artificiale sta già aiutando gli ingegneri dei dati (ed è davvero fantastico) 🤖✨

L'intelligenza artificiale non è solo marketing. Se usata bene, è un legittimo moltiplicatore di forza.

1) SQL più veloce e lavoro di trasformazione

  • Disegno di giunzioni complesse

  • Scrivere funzioni di finestra a cui preferiresti non pensare

  • Trasformare la logica in linguaggio semplice in scheletri di query

  • Rifattorizzazione di query brutte in CTE leggibili GitHub Copilot per SQL

Questo è fondamentale perché riduce l'effetto "pagina bianca". È comunque necessario convalidare, ma si parte dal 70% anziché dallo 0%.

2) Debug e breadcrumb delle cause principali

L'intelligenza artificiale è discreta in:

  • Spiegazione dei messaggi di errore

  • Suggerire dove cercare

  • Consigliamo passaggi di tipo "controlla la mancata corrispondenza dello schema" GitHub Copilot
    È come avere un instancabile ingegnere junior che non dorme mai e a volte mente con sicurezza 😅

3) Arricchimento della documentazione e del catalogo dati

Generato automaticamente:

  • Descrizioni delle colonne

  • Riepiloghi dei modelli

  • Spiegazioni sulla discendenza

  • "A cosa serve questa tabella?" bozze della documentazione dbt

Non è perfetto, ma spezza la maledizione delle pipeline non documentate.

4) Prova ponteggi e controlli

L'intelligenza artificiale può proporre:

Di nuovo, sei ancora tu a decidere cosa è importante, ma questo velocizza le parti di routine.

5) Codice “collante” della pipeline

Modelli di configurazione, scaffold YAML, bozze di DAG di orchestrazione. Queste cose sono ripetitive e l'intelligenza artificiale mangia la ripetitività a colazione 🥣 DAG di Apache Airflow


Dove l'intelligenza artificiale è ancora in difficoltà (e questo è il nocciolo della questione) 🧠🧩

Questa è la parte più importante, perché risponde alla domanda sulla sostituzione con una consistenza reale.

1) Ambiguità e definizioni mutevoli

La logica aziendale raramente è chiara. Le persone cambiano idea a metà frase. "Utente attivo" diventa "utente pagante attivo" diventa "utente pagante attivo esclusi i rimborsi tranne qualche volta"... sapete com'è.

L'intelligenza artificiale non può accettare questa ambiguità. Può solo fare supposizioni.

2) Responsabilità e rischio

Quando una pipeline si interrompe e la dashboard esecutiva mostra informazioni non pertinenti, qualcuno deve:

  • triage

  • comunicare l'impatto

  • aggiustarlo

  • prevenire la recidiva

  • scrivere l'autopsia

  • decidere se l'azienda può ancora fidarsi dei numeri della scorsa settimana

L'intelligenza artificiale può essere d'aiuto, ma non può essere ritenuta responsabile in modo significativo. Le organizzazioni non si basano sulle vibrazioni, ma sulla responsabilità.

3) Pensiero sistemico

Le piattaforme dati sono ecosistemi: acquisizione, archiviazione, trasformazioni, orchestrazione, governance, controllo dei costi, SLA. Un cambiamento in un singolo livello ha ripercussioni. Concetti di Apache Airflow

L'intelligenza artificiale può proporre ottimizzazioni locali che creano problemi globali. È come riparare una porta che cigola rimuovendola 😬

4) Sicurezza, privacy, conformità

È qui che le fantasie sostitutive vanno a morire.

L'intelligenza artificiale può elaborare politiche, ma la loro attuazione in sicurezza è vera ingegneria.

5) Gli “incogniti sconosciuti”

Gli incidenti sui dati sono spesso imprevedibili:

  • Un'API del fornitore modifica silenziosamente la semantica

  • Un presupposto sul fuso orario si ribalta

  • Un riempimento duplica una partizione

  • Un meccanismo di ripetizione causa doppie scritture

  • Una nuova funzionalità del prodotto introduce nuovi modelli di eventi

L'intelligenza artificiale è più debole quando la situazione non segue uno schema noto.


Tabella comparativa: cosa riduce cosa, in pratica 🧾🤔

Di seguito una visione pratica. Non "strumenti che sostituiscono le persone", ma strumenti e approcci che riducono il carico di lavoro di determinati compiti.

Strumento/approccio Pubblico Vibrazione del prezzo Perché funziona
Copiloti del codice AI (helper SQL + Python) GitHub Copilot Ingegneri che scrivono molto codice Da gratuito a a pagamento Ottimo per l'impalcatura, i refactoring, la sintassi... a volte presuntuoso in un modo molto specifico
Connettori ELT gestiti Fivetran I team sono stanchi di dover gestire l'ingestione Abbonamento-y Elimina il fastidio dell'ingestione personalizzata, ma introduce nuovi modi divertenti
Piattaforme di osservabilità dei dati Osservabilità dei dati (Dynatrace) Chiunque possieda SLA Da medie a grandi imprese Rileva le anomalie in anticipo, come gli allarmi antincendio per le condutture 🔔
Framework di trasformazione (modellazione dichiarativa) dbt Ibridi di analisi + DE Di solito strumento + calcolo Rende la logica modulare e testabile, meno spaghetti
Cataloghi dati + livelli semantici dbt Semantic Layer Organizzazioni con confusione metrica Dipende, in pratica Definisce la “verità” una volta sola, riducendo gli infiniti dibattiti metrici
Orchestrazione con modelli Apache Airflow Team orientati alla piattaforma Costo di apertura e chiusura Standardizza i flussi di lavoro; meno DAG a fiocco di neve
Generazione di documenti dbt assistita dall'intelligenza artificiale Team che odiano scrivere documenti Da economico a moderato Crea documenti "abbastanza buoni" in modo che la conoscenza non svanisca
Politiche di governance automatizzate NIST Privacy Framework Ambienti regolamentati Impresa-y Aiuta a far rispettare le regole, ma ha comunque bisogno che siano gli esseri umani a progettarle

Nota cosa manca: una riga che dice "premi il pulsante per rimuovere gli ingegneri dei dati". Sì... quella riga non esiste 🙃


Quindi... l'intelligenza artificiale sostituirà gli ingegneri dei dati o cambierà solo il ruolo? 🛠️

Ecco la risposta non drammatica: l'intelligenza artificiale sostituirà parti del flusso di lavoro, non la professione.

Ma questo riconfigura il ruolo. E se lo ignori, ne sentirai la pressione.

Cosa cambia:

  • Meno tempo per scrivere testo standard

  • Meno tempo nella ricerca dei documenti

  • Più tempo per rivedere, convalidare, progettare

  • Più tempo per definire i contratti e le aspettative di qualità Open Data Contract Standard (ODCS)

  • Più tempo dedicato alla collaborazione con prodotti, sicurezza e finanza

Questo è il sottile cambiamento: l'ingegneria dei dati diventa meno una questione di "costruzione di pipeline" e più una questione di "costruzione di un sistema di prodotti dati affidabile"

E, per una svolta silenziosa, questo è più prezioso, non meno.

Inoltre, e lo dico anche se può sembrare drammatico, l'intelligenza artificiale aumenta il numero di persone in grado di produrre artefatti di dati , il che aumenta la necessità di qualcuno che mantenga il tutto in ordine. Più output significa più potenziale confusione. GitHub Copilot

È come dare a tutti un trapano elettrico. Fantastico! Ora qualcuno deve far rispettare la regola "per favore, non forare le tubature dell'acqua" 🪠


Il nuovo stack di competenze che rimane prezioso (anche con l'IA ovunque) 🧠⚙️

Se vuoi una checklist pratica e "a prova di futuro", ecco come appare:

Mentalità di progettazione del sistema

  • Modellazione dei dati che sopravvive al cambiamento

  • Compromessi tra batch e streaming

  • Pensiero su latenza, costo e affidabilità

Ingegneria della qualità dei dati

Architettura di governance e fiducia

Pensiero di piattaforma

  • Modelli riutilizzabili, percorsi d'oro

  • Modelli standardizzati per l'ingestione, le trasformazioni, i test Fivetran dbt

  • Utensili self-service che non si fondono

Comunicazione (sì, davvero)

  • Scrivere documenti chiari

  • Allineamento delle definizioni

  • Dire "no" educatamente ma con fermezza

  • Spiegare i compromessi senza sembrare un robot 🤖

Se riuscite a fare tutto questo, la domanda "L'intelligenza artificiale sostituirà gli ingegneri dei dati?" diventa meno minacciosa. L'intelligenza artificiale diventa il vostro esoscheletro, non il vostro sostituto.


Scenari realistici in cui alcuni ruoli di data engineering si riducono 📉

Ok, un rapido controllo della realtà, perché non è tutto rose e fiori e coriandoli emoji 🎉

Alcuni ruoli sono più esposti:

  • Ruoli di sola ingestione pura in cui tutto è connettori standard Connettori Fivetran

  • Team che eseguono principalmente pipeline di reporting ripetitive con sfumature di dominio minime

  • Organizzazioni in cui l’ingegneria dei dati è trattata come “scimmie SQL” (duro, ma vero)

  • Ruoli a bassa proprietà in cui il lavoro consiste solo in biglietti e copia-incolla

L'intelligenza artificiale, unitamente agli strumenti gestiti, può ridurre tali esigenze.

Ma anche in questo caso la sostituzione solitamente si presenta così:

  • Meno persone svolgono lo stesso lavoro ripetitivo

  • Maggiore enfasi sulla proprietà e l'affidabilità della piattaforma

  • Un passaggio verso “una persona può supportare più oleodotti”

Quindi sì, i modelli di organico possono cambiare. I ruoli si evolvono. I titoli cambiano. Questa parte è reale.

Tuttavia, la versione del ruolo basata su un elevato grado di proprietà e di fiducia persiste.


Riepilogo finale 🧾✅

L'intelligenza artificiale sostituirà gli ingegneri dei dati? Non nel modo pulito e totale che la gente immagina.

L'intelligenza artificiale:

Ma l'ingegneria dei dati riguarda fondamentalmente:

L'intelligenza artificiale può aiutare in questo... ma non ne è "padrona".

Se sei un data engineer, la mossa è semplice (non facile, ma semplice):
concentrati su proprietà, qualità, approccio basato sulla piattaforma e comunicazione. Lascia che l'intelligenza artificiale gestisca il codice mentre tu ti occupi delle parti che contano.

E sì, a volte questo significa essere l'adulto nella stanza. Non glamour. Ma silenziosamente potente 😄

L'intelligenza artificiale sostituirà i data engineer?
Sostituirà alcune mansioni, riorganizzerà la gerarchia e renderà i migliori data engineer ancora più preziosi. Questa è la vera storia.


Domande frequenti

L'intelligenza artificiale sostituirà completamente gli ingegneri dei dati?

Nella maggior parte delle organizzazioni, l'IA è più propensa a farsi carico di compiti specifici piuttosto che a eliminarli del tutto. Può accelerare la stesura di SQL, la creazione di pipeline, i primi passaggi della documentazione e la creazione di test di base. Ma l'ingegneria dei dati comporta anche responsabilità e senso di responsabilità, oltre al poco affascinante compito di far sì che la caotica realtà aziendale si comporti come un sistema affidabile. Queste parti hanno ancora bisogno degli esseri umani per decidere cosa sia "giusto" e per assumersi la responsabilità quando le cose non funzionano.

Quali parti dell'ingegneria dei dati sono già automatizzate dall'intelligenza artificiale?

L'intelligenza artificiale funziona meglio su lavori ripetibili: stesura e refactoring di SQL, generazione di scheletri di modelli DBT, spiegazione di errori comuni e produzione di schemi di documentazione. Può anche supportare test come controlli null o di unicità e generare codice "collante" per gli strumenti di orchestrazione. Il vantaggio è lo slancio: si inizia più vicini a una soluzione funzionante, ma è comunque necessario convalidarne la correttezza e assicurarsi che si adatti al proprio ambiente.

Se l'intelligenza artificiale può scrivere codice SQL e pipeline, cosa resta agli ingegneri dei dati?

Molte: definire contratti dati, gestire le deviazioni degli schemi e garantire che le pipeline siano idempotenti, osservabili e recuperabili. I data engineer dedicano tempo all'analisi delle modifiche alle metriche, alla creazione di barriere di sicurezza per gli utenti a valle e alla gestione dei compromessi in termini di costi e affidabilità. Il lavoro spesso si riduce a creare fiducia e a mantenere la piattaforma dati "silenziosa", ovvero sufficientemente stabile da non doverci pensare quotidianamente.

In che modo l'intelligenza artificiale cambia il lavoro quotidiano di un data engineer?

In genere, riduce i tempi di boilerplate e di ricerca, in modo da dedicare meno tempo alla digitazione e più tempo alla revisione, alla convalida e alla progettazione. Questo cambiamento orienta il ruolo verso la definizione di aspettative, standard di qualità e modelli riutilizzabili, piuttosto che la codifica manuale di tutto. In pratica, probabilmente si lavorerà di più in partnership con i team di prodotto, sicurezza e finanza, perché l'output tecnico diventa più facile da creare, ma più difficile da gestire.

Perché l'intelligenza artificiale ha difficoltà a gestire definizioni aziendali ambigue come "utente attivo"?

Poiché la logica aziendale non è statica o precisa, cambia a metà progetto e varia a seconda degli stakeholder. L'intelligenza artificiale può elaborare un'interpretazione, ma non può prendere decisioni quando le definizioni evolvono o emergono conflitti. L'ingegneria dei dati richiede spesso negoziazione, documentazione di ipotesi e trasformazione di requisiti vaghi in contratti durevoli. Questo lavoro di "allineamento umano" è una delle ragioni principali per cui il ruolo non scompare, nemmeno con il miglioramento degli strumenti.

L'intelligenza artificiale è in grado di gestire in modo sicuro la governance dei dati, la privacy e la conformità?

L'intelligenza artificiale può aiutare a elaborare policy o suggerire approcci, ma un'implementazione sicura richiede comunque una vera e propria progettazione e un'attenta supervisione. La governance implica controlli di accesso, gestione delle informazioni personali identificabili (PII), regole di conservazione, audit trail e talvolta vincoli di residenza. Si tratta di aree ad alto rischio in cui "quasi giusto" non è accettabile. Gli esseri umani devono progettare le regole, verificarne l'applicazione e rimanere responsabili dei risultati di conformità.

Quali competenze restano preziose per gli ingegneri dei dati man mano che l'intelligenza artificiale migliora?

Competenze che rendono i sistemi resilienti: system design thinking, ingegneria della qualità dei dati e standardizzazione basata sulla piattaforma. Contratti, osservabilità, abitudini di risposta agli incidenti e un'analisi disciplinata delle cause profonde diventano ancora più importanti quando più persone possono generare rapidamente artefatti di dati. Anche la comunicazione diventa un fattore di differenziazione: allineare le definizioni, scrivere documenti chiari e spiegare i compromessi senza drammi è un aspetto fondamentale per mantenere l'affidabilità dei dati.

Quali ruoli di data engineering sono maggiormente a rischio a causa dell'intelligenza artificiale e degli strumenti gestiti?

I ruoli focalizzati esclusivamente sull'ingestione ripetitiva o sulle pipeline di reporting standard sono più esposti, soprattutto quando i connettori ELT gestiti coprono la maggior parte delle fonti. Il lavoro a bassa proprietà e basato sui ticket può ridursi perché l'intelligenza artificiale e l'astrazione riducono lo sforzo per pipeline. Ma questo di solito si traduce in un minor numero di persone che svolgono attività ripetitive, non in "nessun data engineer". I ruoli ad alta proprietà incentrati su affidabilità, qualità e fiducia rimangono duraturi.

Come dovrei utilizzare strumenti come GitHub Copilot o dbt con l'intelligenza artificiale senza creare caos?

Considera l'output dell'IA come una bozza, non come una decisione. Utilizzalo per generare scheletri di query, migliorare la leggibilità o creare un'impalcatura per test e documenti DBT, quindi convalidalo rispetto a dati reali e casi limite. Abbinalo a convenzioni rigorose: contratti, standard di denominazione, controlli di osservabilità e pratiche di revisione. L'obiettivo è una consegna più rapida senza sacrificare affidabilità, controllo dei costi o governance.

Riferimenti

  1. Commissione Europea - Spiegazione della protezione dei dati: principi del GDPR - commission.europa.eu

  2. Information Commissioner's Office (ICO) - Limitazione della conservazione - ico.org.uk

  3. Commissione europea - Per quanto tempo possono essere conservati i dati ed è necessario aggiornarli? - commission.europa.eu

  4. National Institute of Standards and Technology (NIST) - Quadro normativo sulla privacy - nist.gov

  5. NIST Computer Security Resource Center (CSRC) - SP 800-92: Guida alla gestione dei registri di sicurezza informatica - csrc.nist.gov

  6. Center for Internet Security (CIS) - Gestione del registro di controllo (controlli CIS) - cisecurity.org

  7. Documentazione Snowflake - Criteri di accesso alle righe - docs.snowflake.com

  8. Documentazione di Google Cloud - Sicurezza a livello di riga di BigQuery - docs.cloud.google.com

  9. BITOL - Standard contrattuale per i dati aperti (ODCS) v3.1.0 - bitol-io.github.io

  10. BITOL (GitHub) - Standard contrattuale per dati aperti - github.com

  11. Apache Airflow - Documentazione (stabile) - airflow.apache.org

  12. Apache Airflow - DAG (concetti fondamentali) - airflow.apache.org

  13. Documentazione dbt Labs - Che cos'è dbt? - docs.getdbt.com

  14. Documentazione dbt Labs - Informazioni sui modelli dbt - docs.getdbt.com

  15. Documentazione dbt Labs - Documentazione - docs.getdbt.com

  16. Documentazione dbt Labs - Test dei dati - docs.getdbt.com

  17. Documentazione dbt Labs - Livello semantico dbt - docs.getdbt.com

  18. Documentazione Fivetran - Per iniziare - fivetran.com

  19. Fivetran - Connettori - fivetran.com

  20. Documentazione AWS - Guida per gli sviluppatori AWS Lambda - docs.aws.amazon.com

  21. GitHub - GitHub Copilot - github.com

  22. GitHub Docs - Ottenere suggerimenti di codice nel tuo IDE con GitHub Copilot - docs.github.com

  23. Microsoft Learn - GitHub Copilot per SQL (estensione VS Code) - learn.microsoft.com

  24. Documentazione Dynatrace - Osservabilità dei dati - docs.dynatrace.com

  25. DataGalaxy - Che cosa è l'osservabilità dei dati? - datagalaxy.com

  26. Documentazione di Great Expectations - Panoramica delle aspettative - docs.greatexpectations.io

Trova l'ultima intelligenza artificiale nello store ufficiale di AI Assistant

Chi siamo

Torna al blog