Questa testata è partner di La Repubblica e contribuisce alla sua audience
Hot topics:
2 minuti

L'Agenzia delle Entrate cerca Data Scientist

L'Agenzia delle Entrate è alla ricerca di due Data Scientist con background tecnologico e statistico. Il bando scade il 20 gennaio.

L'Agenzia delle Entrate cerca Data Scientist

L'Agenzia delle Entrate è alla ricerca di due Data Scientist. Si tratta di "una figura professionale con background tecnologico e di una figura professionale con background statistico con esperienza nell'analisi di grandi volumi di dati". Il bando - in scadenza il 20 gennaio - è stato pubblicato nei giorni scorsi e tutti i particolari sono sul sito ufficiale dell'Agenzia. È previsto l'inquadramento dirigenziale presso la Direzione Centrale Tecnologie e Innovazione.

Il candidato ideale per il profilo informatico richiesto dall'Agenzia delle Entrate "deve possedere una solida e specifica competenza primaria di natura tecnologica applicata alla modellazione, elaborazione e analisi applicata alla raccolta e al trattamento di vaste basi di dati, attraverso strumenti e tecniche innovative, aventi prevalentemente natura economica, finanziaria e fiscale, o in ambiti ad essa affini". È richiesto il Diploma di laurea specialistica (LS) o magistrale (LM) in facoltà scientifiche quali ingegneria, matematica, fisica, scienza dell'informazione.

Le competenze richieste:

  • Conoscenza di SQL e NoSQL sui principali DB Engine (es. Oracle, PosgreSQL, MongoDB)
  • Esperienza di utilizzo, configurazione e sviluppo con uno o più dei principali tool di analisi dei dati di mercato (in particolare SAS Visual Analytics, Qlik, IBM Cognos, Oracle, IBM SPSS, ecc. e anche open source) e di processi di ETL
  • Esperienze rilevanti in progetti di Analytics/Business Intelligence/Big Data, seguendone tutto il ciclo di vita dalla definizione degli obiettivi, raccolta dei requisiti, modellizzazione del dato, definizione dell'architettura dati logico-fisica, alla progettazione e realizzazione del software di elaborazione e di presentazione e analisi visuale
  • Competenze sulle tecnologie Big Data: Hadoop, Hive, parallel processing di query, data manipulation, Apache Spark, scripting (Java, Python, PHP) per l'utilizzo di API, tool di data visualization
  • Conoscenze di tecniche di statistica e di strumenti di elaborazione statistica anche open source (come R, Weka,...)
  • Conoscenze di tecniche di analisi predittiva, what-if analysis, tecniche e algoritmi di machine learning
  • Comprensione di tematiche di scalabilità, sicurezza, alta affidabilità, latenza, replica e sincronizzazione dei dati, e di tematiche di performance di interrogazione, gestione del carico e ottimizzazione database
  • Conoscenza della lingua inglese.  
Vuoi ricevere aggiornamenti su #E-Gov?
Iscriviti alla newsletter!