Cresce la necessità per le agenzie del governo federale di poter utilizzare i dati ottenuti in tempo reale, in aree quali l’assistenza sanitaria, l’elaborazione delle richieste di benefici, la gestione di flotte di veicoli e il supporto di missioni militari.

Per la NASA, i dati in tempo reale si estendono anche alle frontiere più lontane tramite il Deep Space Network (DSN): un altro esempio di come le agenzie utilizzino Apache Kafka per mettere in moto i propri dati.

Il DSN è radicato nell’array della NASA di tre enormi antenne radio individuate in modo equidistante in tutto il mondo. Una di queste antenne si trova a Gladstone, in California. Le altre due si trovano a Madrid, in Spagna e Canberra, in Australia. Ma la loro portata si estende lontano nello spazio a sostegno delle missioni interplanetarie dell’agenzia spaziale (così come alcune missioni in orbita attorno alla Terra). Gestito dal Jet Propulsion Laboratory (JPL) a Pasadena, in California, il DSN raccoglie i feed da missioni come quelle che lavorano all’esplorazione di Marte.

Sebbene alcuni comandi e dati possano essere trasmessi direttamente tra la Terra e i rover della NASA, la massa di informazioni generate deve prima passare attraverso la Mars Relay Network. 

Questa rete è composta da una costellazione di orbitanti che raccolgono dati scientifici dal rover Perseverance, atterrato a febbraio su Marte, così come dal Curiosity, che esplora il pianeta rosso dal 2012, e dal lander InSight, che opera lì dal 2018.

Per la maggior parte della storia dell’esplorazione spaziale dell’agenzia, i flussi di dati della NASA provenienti dallo spazio, sono stati lenti anche tenendo conto dei tempi di trasmissione richiesti per decine di milioni di miglia. Il processo di costruzione e lancio di satelliti e sonde avviene durante un lungo ciclo di vita ed è per questo motivo che spesso le missioni sono andate nello spazio con una tecnologia che era già obsoleta. Il DSN è sempre stato affidabile, ma non è stato in grado di accogliere la massiccia crescita dei dati o il loro utilizzo in tempo reale.

Ora le cose stanno cambiando grazie all’utilizzo di Apache Kafka da parte di JPL, che consente la condivisione e l’utilizzo dei dati così come vengono creati.

Mentre la missione spaziale della NASA continua ad espandersi, la quantità di dati che raccoglie cresce esponenzialmente.

“Otterremo velocità di trasmissione dati più elevate dai veicoli spaziali, più informazioni nella rete che devono essere monitorate e avremo bisogno di un modo per gestire queste informazioni e distribuirle”, ha affermato recentemente Rishi Verma, un architetto di dati NASA-JPL.

Oltre a importanti missioni come l’esplorazione di Marte, della luna e del sistema solare esterno, la NASA sta anche raccogliendo informazioni da un numero crescente di altri sforzi minori, tra cui CubeSats.

Immagini in tempo reale dall’aldilà

Apache Kafka gestisce i dati in un formato portatile, consentendogli di interagire con qualsiasi sistema che genera o riceve dati, inclusi log, app di terze parti, app personalizzate e microservizi, nonché database legacy in cui le informazioni sarebbero sennò bloccate. Un tessuto globale di cluster Kafka consente la condivisione, lo streaming di eventi e altre combinazioni di dati storici in tempo reale.

Confluent, la società open source dietro Apache Kafka, ha collaborato con le agenzie per lavorare i dati in modi che in precedenza non erano possibili, tra cui il coinvolgimento attivo dei cittadini, la consapevolezza della situazione in tempo reale, il rilevamento delle anomalie, le missioni basate sugli eventi e le operazioni di sicurezza.

Per la NASA, JPL sta utilizzando Kafka per raccogliere informazioni in tempo reale dalle sue missioni, aiutando a monitorare i loro progressi e identificare gli elementi che influenzano le missioni più complesse. Con il Mars Reconnaissance Orbiter, ad esempio, il DSN riceverà prove dirette al passaggio dell’orbiter dietro il pianeta, permettendo non solo di capire in tempo reale in che stato si trova l’attrezzatura ma anche se ci sono differenze tra il modello previsto dalla NASA e ciò che è effettivamente accaduto. In questo modo, sarà anche possibile verificare l’eventuale degrado delle apparecchiature utilizzate.

La NASA sta anche utilizzando le informazioni di Kafka per combinare i suoi flussi di dati in un sistema di visualizzazione che presenti un quadro chiaro di ciò che sta accadendo in tutte le missioni in corso

Data in motion unites agency efforts

Apache Kafka consente il ciclo costante di creazione, consumo e condivisione dei dati, che è diventata sempre più una priorità per le agenzie federali che lavorano nell’ambito della Federal Data Strategy

Può essere applicato non soltanto negli angoli più remoti del sistema solare ma anche sulla Terra.

Infatti, recentemente, Kafka ha aiutato l’agenzia Confluent a raccogliere feed di dati sul COVID-19 provenienti da tutto il paese, in collaborazione con Centers for Disease Control and Prevention.

In conclusione, possiamo dire che, indipendentemente dal modo in cui venga utilizzato, Kafka può aiutare le agenzie a raggiungere l’obiettivo di portare informazioni giuste al momento giusto.

 

Non perderti, ogni mese, gli approfondimenti sulle ultime novità in campo digital! Se vuoi sapere di più, visita la sezione “Blog“ sulla nostra pagina!