Salta al contenuto principale

Executive Summary

Questa ricerca integra ed aggiorna il rapporto presentato a maggio 2021, con dati relativi al primo semestre 2021, comparando il primo semestre 2021 con il medesimo periodo
del 2020 (piena pandemia) e del 2019 (pre-pandemia), per verificare l’andamento della domanda dei manager del terziario (e del manifaturiero) attraverso gli annunci che le aziende
pubblicano sul web. Successivamente, si propone il dettaglio per professione per cogliere gli elementi distintivi di ciascuna professione, sia a livello nazionale sia a livello internazionale
(Francia, Germania, Spagna e Regno Unito). Infine, una nuvola di skill offre una visione di sintesi delle competenze richieste principalmente per i manager del terziario, in termini di
skill digitali, trasversali e professionali.

Base dati utilizzata per l’analisi


La base dati utilizzata proviene da un progetto europeo1 promosso dal Centro Europeo CEDEFOP2. Lo studio e la realizzazione del progetto sono stati affidati ad un partenariato
internazionale guidato dal CRISP3. L’obiettivo principale è di creare un sistema di real-time monitoring delle professioni e delle skill derivanti dagli annunci di lavoro pubblicati sul web in
tutti i 27+1 paesi europei. Le professioni e le skill vengono classificate sullo standard europeo ESCO, una lingua franca che permette di comparare la domanda di lavoro utilizzando tutte le
28 lingue comunitarie. La metodologia che i ricercatori del CRISP hanno sviluppato fa uso di tecniche avanzate di Big Data analytics e di Artificial Intelligence per estrarre dal contenuto
dagli annunci di lavoro del web “nuova informazione” a supporto dello studio delle caratteristiche della domanda di lavoro espressa dalle aziende.
La base di conoscenza utilizzata nel presente capitolo è composta da circa 850 mila annunci di lavoro scaricati dal web e classificati sullo standard europeo delle occupazioni e skill ESCO4.
All’interno del rapporto. il settore terziario è composto dai seguenti macro-settori e settori di maggior presenza degli annunci di lavoro.

 

Metodologia: 

 

  1. Selezione delle fonti

Le fonti Web vengono individuate da esperti di dominio e selezionate sulla base di diversi criteri qualitativi: presenza di data pubblicazione annuncio e aggiornamento, presenza di campi semi-strutturati, completezza della valorizzazione dei campi, etc. L’obiettivo di questa fase è garantire la selezione di sorgenti dati affidabili per evitare il ben noto fenomeno del gargabe-in, garbage-out, che lega funzionalmente la qualità dei dati e delle analisi prodotte alla qualità dei dati in ingresso, problematica ben nota a chiunque si occupi di data quality e cleaning.

 

  1. Scraping, transformation and cleaning

In questa fase si collezionano i dati testuali dalle diverse fonti (scraping); i dati vengono accordati secondo un modello interno (transformation) e messi in qualità (cleaning), riconoscendo gli annunci duplicati rispetto alla riproposizione di annunci similari o vacanti.

 

  1. Classificazione dei dati

Si procede alla classificazione dei dati, in particolare è necessario riconoscere l’occupazione offerta da ogni singola Web Job Vacancy in accordo con una tassonomia specifica. Questo compito è svolto mediante l’uso di modelli di machine-learning opportunamente addestrati (classification e mining).

 

  1. Individuazione delle Skill

In questa fase è necessario individuare e quindi estrarre le informazioni contenute nella vacancy, come le skill richieste, l’indicazione geografica, e ricondurle al rispettivo standard classificatorio.

 

  1. Data visualization

In ultimo, si procede alla visualizzazione della conoscenza derivata dal processo gestito in accordo con le competenze dello stakeholder coinvolto (data visualization).

 

 

 

v