Ricerca e formazione: No alla valutazione centralizzata

Ricerca e formazione: No alla valutazione centralizzata

Da Economia e Politica Di Davide Borrelli, Angela Pelliccia

Discutere oggi di valutazione nel nostro Paese richiede una radicale operazione di ecologia semantica e di manutenzione delle parole. Lo stesso termine “valutazione”, infatti, si adopera oggi impropriamente per designare uno specifico dispositivo di New Public Management utilizzato a fini di governo piuttosto che nella sua tradizionale accezione di strumento di riflessività formativa e scientifica. Basta scorrere alcune pagine che Aldo Visalberghi scrisse oltre sessanta anni fa nell’introdurre in Italia lo studio della valutazione. Mai – ammoniva Visalberghi -la valutazione avrebbe dovuto essere impiegata sulla base di un’impostazione gerarchica tesa a “istituire [per mezzo di essa] una sorta di classismo o castalismo aggiornato” (1955, p. 12). Del resto – chiosava l’illustre pedagogista non potendo evidentemente immaginare l’uso distorto che se ne sarebbe fatto oggi – si tratta di una “disciplina talmente complessa e consapevole della selva di interrogativi in cui si muove, che difficilmente verrebbe in mente a qualcuno che ne sia minimamente informato, di farne un uso così sciocco come quello di dividere per suo mezzo le persone in intelligenti e stupide e di determinare così la loro destinazione sociale” (ibidem).

Ebbene, un’analoga istanza di rettifica semantica si dovrebbe far valere anche a proposito di alcuni miti d’oggi che sono sbandierati non meno scioccamente nei discorsi sulla valutazione scolastica, sulla valutazione dell’università e della ricerca (Borrelli 2016): “premialità“, “meritocrazia“, “eccellenza“, ad esempio, sono tutte espressioni utilizzate in modo tendenzioso e mistificante. Un premio finanziario è qualcosa che si dovrebbe dare in aggiunta ai fondi ordinari, e non una minore riduzione degli stessi. La meritocrazia (Young 1958) prefigura una distopia sociale piuttosto che un ideale di equità cui aspirare. L’eccellenza è un concetto relazionale tale per cui, se si riuscisse a fare in modo che tutti i ricercatori davvero la raggiungessero, essa neanche esisterebbe come idea: la ricerca, come la conoscenza del resto, è per definizione qualcosa di costantemente incompiuto e perfettibile, alla quale sarebbe quanto meno velleitario attribuire la qualifica di eccellente.

In tempi di offuscamento semantico è importante ribadire con forza alcuni principi inderogabili. Uno di essi riguarda il fatto che la valutazione non può che essere parte della stessa attività di ricerca, nonché patrimonio delle comunità scientifiche che la esercitano secondo le proprie specifiche consuetudini epistemiche. In quanto tale, la funzione valutativa non dovrebbe essere sequestrata da un’agenzia paragovernativa né surrogata artificiosamente attraverso un insieme di criteri eteronomi e di misurazioni di “produttività” fondamentalmente estranee alle singoli tradizioni disciplinari e ai relativi sistemi di apprezzamento scientifico. Si pensi, ad esempio, ai docenti delle scuole che allenano gli studenti per la soluzione delle prove INVALSI, oppure alla classificazione delle riviste nei cosiddetti settori non bibliometrici, per cui di un articolo scientifico ormai si rinuncia a giudicare l’eventuale contributo all’avanzamento delle conoscenze per limitarsi a verificare se la rivista che lo ospita è di fascia A o meno. L’esercizio di Valutazione della Qualità della Ricerca (VQR), ad esempio, viene svolto allo scopo di dirottare maggiori risorse finanziarie verso quelle strutture accademiche dove si farebbe migliore ricerca. Ma questa non è mai stata la motivazione di chi fa ricerca, e non per caso. Né tanto meno dovrebbe essere la finalità di un legislatore che voglia disegnare l’università del futuro (De Martin 2017) con l’obiettivo di “fornire una educazione di qualità, equa ed inclusiva”, secondo quanto previsto dall’Agenda 2030 per lo Sviluppo Sostenibile sottoscritta nel 2015 in sede ONU.

Ma quali sono allora i reali fondamenti e quali le vere funzioni che la valutazione di stato assicura dal momento che i suoi asseriti effetti in termini di miglioramento della qualità della ricerca nel suo complesso sono tutt’altro che chiari e unanimemente riconosciuti?

Le funzioni inconfessabili della valutazione

I fautori di questo sistema centralizzato di valutazione sostengono che la valutazione non porta i frutti sperati quando non viene assunta come un reale abito culturale ma ci si limita a viverla come un mero adempimento burocratico. Il presupposto implicito di questo discorso è che basterebbe buttare via l’acqua sporca della logica dell’adempimento per far emergere il bambino della cultura della valutazione. In realtà, sembra che il vero fondamento di questo dispositivo sia proprio la produzione di acqua sporca, ovvero l’imposizione alla scuola e all’università di un oneroso sistema di adempimenti burocratici allo scopo di soddisfare un bisogno di legittimazione simbolica a beneficio dell’opinione pubblica (anzi dei taxpayers, come oggi si dice).

Di conseguenza, l’applicazione solo estrinseca ed adempimentale della valutazione non può essere trattata come un indesiderabile effetto perverso rispetto alla sua pretesa funzione manifesta. Al contrario – è questa l’ipotesi che qui si sostiene- essa svolge efficacemente proprio le funzioni per le quali il dispositivo valutativo è stato messo a punto. È in questa prospettiva, peraltro, che si comprende il mantra, altrimenti ingiustificato e inspiegabile, per cui sarebbe meglio una cattiva valutazione che nessuna valutazione.

Per questa ragione non è produttivo limitarsi a fare un tagliando della valutazione centralizzata rivedendo qua e là singoli aspetti dell’impianto complessivo. La valutazione ANVUR assomiglia in questo senso a un articolo di fede, a una teologia in cui, come ha spiegato il filosofo Gilles Deleuze, tutto si presenta come razionale”se si danno per assunti il peccato, l’immacolata concezione, l’incarnazione. La ragione è sempre una zona ritagliata nell’irrazionale…” (1973, p. 44). Si tratta allora di adottare una prospettiva critica radicale, che metta cioè in questione la “radice” di questa teologia della valutazione al fine di spiegare su che cosa essa fonda e legittima socialmente le sue irrazionali pretese di razionalità.

C’è una ragione tutta interna al mondo universitario e al suo sistema di potere, ad esempio, per cui la cultura della valutazione dà necessariamente luogo a una logica dell’adempimento e si risolve poi in un disegno di normalizzazione autoritaria. La valutazione introduce un insieme di condizionamenti e, appunto, di obblighi da adempiere all’interno di un’istituzione che per vocazione storica e dettato costituzionale dovrebbe operare, per dirla con Jacques Derrida, in relativa autonomia e “senza condizione” (2001).

I procedimenti con cui l’ANVUR e l’INVALSI hanno organizzato il Sistema Nazionale di Valutazione seguono la logica del trasferimento di pratiche e conoscenze dall’alto: come può la scuola autonoma assoggettarsi alle logiche cristallizzanti di una valutazione centralizzata e standardizzata? Di fatto, allestire una tecnostruttura centralizzata per la valutazione della ricerca significa generare forti pressioni al potenziamento di funzioni di “sovranità” sulle e nelle istituzioni universitarie e nelle scuole. In virtù di questo processo di verticalizzazione organizzativa, si possono così soddisfare gruppi di potere che non potevano essere più adeguatamente garantiti o lo erano solo in modalità informali e con sempre minore legittimazione sociale.

Il fatto che l’insieme dei “prodotti di ricerca” delle università sia sotto controllo da parte di un’agenzia esterna e che dalle sue valutazioni dipenda in parte il loro finanziamento giustifica la formazione all’interno di ogni istituzione di un sistema di comando verticale che si assuma direttamente la responsabilità di governarne il processo di produzione. L’imputazione di responsabilità manageriale produce un modello di leadership che determina nuove fonti e chance di gerarchizzazione contraendo gli spazi di democrazia interna. La produttività di ciascuno concorre alla premialità di tutti, cosicché tutti si sentono in linea di principio investiti del diritto-dovere di ingerirsi nel lavoro di ciascuno. Ecco come lo “stato valutativo”(Neave 2012; Pinto 2012) tende a fare di ciascuna istituzione un’entità quasi-sovrana che esercita potere al suo interno su ciascuno dei suoi membri e compete all’esterno con altre istituzioni (con altre entità quasi-sovrane) per contendere ad esse studenti e fondi di finanziamento.

In definitiva, la valutazione così come viene concepita e praticata oggi nelle scuole e nelle università italiane assomiglia più a uno strumento di comando che a un’occasione di riflessività formativa e scientifica. Per restituirla alle sue funzioni c’è bisogno di una nuova sensibilità capace prima di tutto di rimettere in discussione l’egemonia culturale per effetto della cui influenza negli ultimi anni si sono caricate scuola e università di principi di ingegneria gestionale e di valori aziendalistici che nulla dovrebbero avere a che fare con le loro finalità e con la loro specifica condizione di essere luoghi di trasmissione e produzione di sapere “senza condizioni”. Si tratta di un presupposto fondamentale per resettare e riavviare le istituzioni formative italiane e per ripristinarvi condizioni di agibilità scientifica e democratica, dal momento che – come diceva Confucio – “quando le parole perdono il loro significato, le persone perdono la propria libertà”.

Facebooktwitterlinkedininstagramflickrfoursquaremailby feather

Crisi della Riproducibilità: i ricercatori non sanno più riprodurre e confermare molti degli esperimenti moderni

Crisi della Riproducibilità:

i ricercatori non sanno più riprodurre e confermare molti degli esperimenti moderni

Per la scienza un esperimento deve dare lo stesso risultato anche se condotto da persone diverse in luoghi differenti. Ma cosa succederebbe se di colpo ci rendessimo conto che la maggior parte degli esperimenti su cui ci si basa per sviluppare nuove ricerche e nuovi farmaci non fossero riproducibili?

Recentemente Nature, una delle più prestigiose riviste scientifiche al mondo, ha pubblicato un articolo nel quale si è dimostrato come più del 70% delle ricerche scientifiche prese in esame avesse fallito i test di riproducibilità1; nonostante ciò sono state pubblicate, diffuse e citate da altri ricercatori come base dei loro stessi esperimenti.

Prima di giudicare però bisognerebbe considerare che «con l’evoluzione della scienza diventa sempre più difficile replicare un esperimento perchè le tecniche e i reagenti sono sempre più sofisticati, dispendiosi in tempo per la loro preparazione e difficili da insegnare», spiega Mina Bissel, una delle ricercatrici americane più premiate per le sue innovative ricerche in oncologia. La cosa migliore, continua la Bissel, «sarebbe quella di contattare direttamente il collega, se necessario incontrarsi e cercare assieme di capire come mai non si riesca a riprodurre l’esperimento.

Ecco uno degli articoli su Nature:

https://www.thesolver.it/pdf/CrisisReprod.pdf

 

Tra le cause di questa “crisi di riproducibilità” sicuramente ci sono le tematiche tecniche descritte dalla Bissel, ci sono però anche aspetti più umani quali il bisogno degli scienziati di pubblicare per far carriera e ricevere finanziamenti, a volte i loro stessi contratti di lavoro sono vincolati al numero di pubblicazioni che riescono a fare, come racconta Ferric Fang, dell’Università di Washington «il biglietto più sicuro per prendere un finanziamento o un lavoro è quello di venir pubblicato su una rivista scientifica di alto profilo. Questo è qualcosa di poco sano che può condurre gli scienziati a cercare notizie sensazionalistiche o in alcune volte ad assumere comportamenti disonesti».

In maniera ancora più diretta interviene la professor Ken Kaitin, direttore del Tufts Center for the Study of the Drug Develompment che afferma «Se puoi scrivere un articolo che possa essere pubblicato non ci pensi nemmeno al tema della riproducibilità, fai un’osservazione e vai avanti. Non c’è nessun incentivo per capire se l’osservazione originale fosse per caso sbagliata.»

Un Sistema, quello della ricerca accademica, che sta evidentemente trascinando la Scienza verso una crisi di identità e di credibilità. Nel 2009 il prof. Daniele Fanelli, dell’Università di Edimburgo, ha realizzato e pubblicato uno studio dal titolo emblematico: «Quanti scienziati falsificano i dati e fabbricano ad hoc le ricerche?”

Facebooktwitterlinkedininstagramflickrfoursquaremailby feather

Il monopolio della Salute

Il monopolio della Salute

pill

Le industrie farmaceutiche dedicano anni di lavoro e investono ingenti somme di denaro nello studio delle malattie, nella ricerca di principi terapeutici efficaci, nell’indagine tossicologica di farmaci candidati, in studi clinici e nell’immissione sul mercato dei prodotti in accordo con le autorità sanitarie. Sulla base di queste attività, le imprese che operano nel campo della ricerca farmacologica rivendicano il diritto di fissare autonomamente il prezzo dei farmaci e di detenerne il brevetto per vent’anni assicurandosi, così, il monopolio sulla commercializzazione. L’innovazione farmacologica, altrimenti, non potrebbe essere finanziata e lo sviluppo di nuovi medicinali non sarebbe possibile. Ma è veramente così?

Progresso nella lotta contro le malattie o invenzione delle patologie?

Il fatto che ci siano uomini che muoiono solo perché non possono accedere alle cure necessarie è un problema ampiamente dibattuto.

Il fatto che l’industria farmaceutica prediliga lo sviluppo di farmaci per la cura delle malattie tipiche dei paesi sviluppati che hanno un sistema sanitario funzionante, e trascuri, invece, i paesi a basso reddito costituisce un’ulteriore questione. L’abbondanza di medicinali per la cura di tutte le malattie reali e immaginarie delle popolazioni più ricche, pone sfide sempre maggiori sul piano economico per i nostri sistemi sanitari. Da un lato, a volte, si mettono in discussione i farmaci contro i sintomi del cambio di stagione, gli psicofarmaci per bambini iperattivi e lavoratori sotto stress o i tranquillanti per le popolazioni mentalmente instabili dei paesi sviluppati. Dall’altro, invece, la ricerca per una nuova cura per la tubercolosi è ferma al 1965 sebbene la vecchia terapia combinata spesso non sia efficace contro i germi multiresistenti e sia scarsamente tollerata. Ogni anno si ammalano di tubercolosi nove milioni di persone e ne muore un milione e mezzo. Si stima che i germi multiresistenti siano responsabili di 480.000 casi di infezione che non si risolvono con la terapia tradizionale. Ma questa è una malattia dei poveri. In Germania, si registrano ogni anno solo poco più di 4.000 casi.

L’industria non investe nemmeno nella ricerca su patologie che hanno una bassa incidenza, come le malattie orfane o rare. È uno sforzo troppo grande per un mercato troppo piccolo.

Da trent’anni, l’organizzazione indipendente Prescrire classifica i farmaci in sette gruppi in base dell’efficacia, su una scala che va da “effettivamente innovativo” a “non accettabile”. Dal 2000 al 2013, la percentuale di nuovi farmaci assegnata alla categoria “Ottimo” è stata pari a 0. In questa rientrerebbero anche quelli per il trattamento di malattie non curabili. Oltre la metà dei nuovi medicinali rientra nel gruppo “niente di nuovo” che include i cosiddetti farmaci equivalenti presentati come innovativi, ma che, invece, hanno subito modifiche minime rispetto a quelli esistenti già impiegati con successo, oppure comprende la combinazione di due preparati che viene presentata come nuova: vitamina C e Aspirina in un’unica compressa anziché due. Il 14% dei farmaci è stato definito “non accettabile” poiché hanno un’efficacia scarsa o nulla e sono potenzialmente dannosi per la salute.

Il prezzo della salute

La definizione del prezzo da parte della aziende non è affatto trasparente. Nel 2014, uno studio del Tufts, il Centro per lo studio dello sviluppo del farmaco, ha stabilito che servono 2,56 miliardi di dollari americani affinché un farmaco raggiunga il livello di maturità sul mercato. Le argomentazioni dei rappresentanti dell’industria farmaceutica e i principali attori politici fanno leva su questa cifra per giustificare i prezzi spesso proibitivi dei nuovi prodotti. Associazioni come Medici Senza Frontiere criticano la mancanza di trasparenza nei metodi alla base di questo studio sostenendo che non è chiaro come questo valore venga calcolato e nutrono seri dubbi sulla sua correttezza. L’esperienza dimostra che se i farmaci vengono sviluppati con finanziamenti pubblici, i costi sono inferiori di circa dieci volte. Tuttavia, gli sforzi affinché i prezzi siano determinati in maniera trasparente finora si sono rivelati vani.

Al momento, è particolarmente acceso il dibattito sulla “pillola da mille dollari”, il nuovo farmaco contro l’epatite C. Il suo costo è così elevato che paesi come la Svizzera hanno deciso che potrà essere somministrato solo a pazienti in cui l’infezione è in fase avanzata; oltre a non essere etica, si tratta di una scelta insensata. Ciò dimostra che anche le nazioni con un sistema sanitario funzionante si trovano tra due fuochi: da un lato, le richieste dell’industria farmaceutica e, dall’altro, la responsabilità morale verso i propri malati.

I brevetti farmaceutici

L’Accordo sugli aspetti commerciali dei diritti di proprietà intellettuale (TRIPS), in vigore dal 1995, ha fissato a vent’anni la durata di un brevetto per i nuovi prodotti, sia che si tratti di beni di consumo sia di prodotti farmaceutici. Il TRIPS, promosso dall’Organizzazione mondiale del commercio, impone anche ai paesi in via di sviluppo il recepimento delle leggi per la protezione dei brevetti ignorando, però, la diversità della loro struttura sociale ed economica.

Quando l’epidemia di HIV scoppiò in Africa e Asia colpendo milioni di persone che non avevano accesso al nuovo e costoso farmaco, l’indignazione della collettività portò a riconsiderare la questione della protezione dei brevetti farmaceutici. Nel 2001, venne firmata la Dichiarazione di Doha che introdusse delle deroghe per i paesi più poveri ai quali, ad esempio, venne concesso di posticipare l’adesione al TRIPS (fino al 2016). L’India, quindi, iniziò a produrre autonomamente farmaci generici, ma l’industria farmaceutica e i rappresentanti politici internazionali reagirono con disapprovazione sebbene fosse un suo diritto.

Come denunciato da Medici Senza Frontiere, se nessun’altra nazione ha poi seguito l’esempio dell’India è a causa della pressione dei finanziatori internazionali e dei paesi più sviluppati. L’industria farmaceutica, infatti, ha cercato in vari modi di cancellare le deroghe previste dalla Dichiarazione di Doha, ad esempio, attraverso la stipula di accordi commerciali bilaterali. Conosciuti come TRIPS Plus, questi accordi fissano la durata di un brevetto a vent’anni e, in certi casi, addirittura la prolungano. Europa e Stati Uniti hanno stipulato convenzioni ancora più restrittive con Brasile, Cina o alcune nazioni dell’America centrale impedendo, così, a molti cittadini l’accesso alle cure. Uno dei punti del TRIPS Plus stabilisce che i dati sulla sicurezza e sull’efficacia dei farmaci non vengano divulgati. In questo modo, un produttore di farmaci generici, una volta scaduto il brevetto, sarà costretto a condurre nuovamente costose ricerche cliniche prima di poter immettere sul mercato il proprio prodotto. Ciò non solo comporta costi elevati e un ulteriore aumento del prezzo, ma non è nemmeno etico per via dei rischi legati a un’inutile sperimentazione clinica sull’uomo e sugli animali.

Il futuro dell’innovazione farmaceutica

È fuori dubbio che l’industria farmaceutica abbia fornito un notevole contributo nel trattamento delle malattie cardiovascolari o dei tumori. Tuttavia, dovrebbe considerare che ai paesi in via di sviluppo è negata la necessaria assistenza e che una politica così aggressiva in materia di protezione dei brevetti porta addirittura a un peggioramento delle condizioni sanitarie. La domanda quindi non è «Quanto vale la nostra la salute?», ma «Può esistere un’industria orientata al profitto che garantisca a tutti il diritto alle migliori cure possibili?»

Si pensa ancora che se al mercato si dà carta bianca, farà in modo che tutti stiano bene. Si tratta, però, di una concezione neoliberale ormai confutata poiché un mercato senza restrizioni crea unicamente disuguaglianza e porta a un sistema di classi in cui solo le fasce di più ricche possono accedere alle cure migliori. Tuttavia, le convinzioni e le aspettative non muoiono e si crede ancora che solo l’industria sia in grado di creare innovazione. La massimizzazione del profitto è davvero l’unica o la principale forza motrice dello sviluppo delle cure sanitarie? Non sarebbe logico puntare meno sull’industria a favore di una ricerca indipendente e finanziata con fondi pubblici per produrre farmaci accessibili a tutti?

Esistono già progetti promettenti che promuovono soprattutto la ricerca nel campo delle malattie trascurate o rare. Medici Senza Frontiere, premiata con Nobel per la pace nel 1999, ha avviato la Campagna per l’accesso ai farmaci essenziali e, nell’ambito di questa, ha fondato la Drugs for Neglected Diseases initiative (DNDi) che dal 2007 ha già introdotto sul mercato diversi medicinali, innovativi ed economici, per la cura della malaria, della leishmaniosi e della malattia del sonno. Alla base di questa iniziativa c’è la collaborazione tra l’industria e la ricerca pubblica che, nei loro statuti, hanno sancito il divieto di brevettare i farmaci sviluppati. Il risultato è che non esiste concorrenza e si possono sfruttare vantaggi sconosciuti all’industria come la creazione di una fitta rete mondiale di ricercatori. Questa consente, ad esempio, ai pochi studiosi che si occupano di malattie rare di confrontarsi, scambiarsi idee e discutere delle difficoltà. Così si evitano ricerche parallele inutili e si promuove il processo creativo. I costi sostenuti per la produzione del farmaco finito diminuiscono e le tempistiche si accorciano. Queste iniziative ci indirizzano verso un futuro in cui lo sviluppo dei medicinali per la cura di malattie gravi, che causano ancora numerose morti, sarà indipendente dall’industria farmaceutica.

Facebooktwitterlinkedininstagramflickrfoursquaremailby feather

LAVORATORI INTROVABILI: ANALISTI, PROGETTISTI E PROGRAMMATORI I PIU’ DIFFICILI DA REPERIRE

LAVORATORI INTROVABILI: ANALISTI, PROGETTISTI E PROGRAMMATORI I PIU’ DIFFICILI DA REPERIRE

Nella top ten delle professioni che nel 2014 presentano le maggiori difficoltà di reclutamento sono previste oltre 29 mila assunzioni: 8.500 rischiano di non essere coperte. Rispetto al 2009 i “lavoratori introvabili” sono dimezzati

 

lavoro

Analisti e progettisti di software, tecnici programmatori, ingegneri energetici/meccanici, tecnici della sicurezza sul lavoro ed esperti in applicazioni informatiche sono le professioni dove la difficoltà di trovare personale è molto elevata.

 

Secondo i risultati emersi dall’elaborazione realizzata dall’Ufficio studi della CGIA, che ha analizzato i dati emersi dalla periodica indagine effettuata dall’Unioncamere-Ministero del Lavoro su un campione qualificato di imprenditori italiani, le previsioni di assunzione per l’anno in corso delle 10 figure professionali più difficili da reperire sul mercato del lavoro dagli imprenditori italiani daranno luogo a oltre 29.000 nuovi posti di lavoro. Di questi, stando alle risposte rilasciate dagli intervistati, quasi 8.500 rischiano di non essere coperti perché non reperibili sul mercato del lavoro. Un dato, quest’ultimo, molto inferiore a quello riferito al 2009 che, in termini assoluti, era pari a quasi 17.600. In buona sostanza, negli ultimi sei anni i “lavoratori introvabili” sono pressoché dimezzati.

 

Dalla CGIA fanno sapere che in questa elaborazione sono state considerate le professioni per cui le aziende prevedono l’assunzione di almeno 1.000 figure (è stato esaminato l’83% di tutte le assunzioni previste nel 2014 e l’86% di quelle del 2009). Si tratta delle previsioni di assunzione non stagionali.

 

 

“Le cause del disallineamento tra domanda e offerta di lavoro – segnala Giuseppe Bortolussi segretario della CGIA – sono molteplici. Nonostante il perdurare della crisi, molte aziende continuano a denunciare che nei settori tecnologici ad alta specializzazione le competenze dei candidati sono insufficienti. Sicuramente ciò è vero: spesso la preparazione di molti giovani è ben al di sotto delle richieste avanzate dalle imprese. Tuttavia molte aziende scontano ancora adesso metodi di ricerca del personale del tutto inadeguati, basati sui cosiddetti canali informali, come il passaparola o le conoscenze personali che non consentono di effettuare una selezione efficace. Inoltre, non va trascurato nemmeno il fenomeno della disoccupazione d’attesa: nei settori dove è richiesta una elevata specializzazione, le condizioni offerte dagli imprenditori, come la stabilità del posto di lavoro, la retribuzione e le prospettive di carriera non sempre corrispondono alle aspettative dei candidati. Se questi sono di valore, preferiscono rinunciare, in attesa di proposte più interessanti”.

 

L’analisi dell’Ufficio studi della CGIA si è soffermata anche sul confronto tra i risultati emersi nell’indagine condotta quest’anno e quelli riferiti all’inizio della crisi.

 

Ebbene, in questi ultimi sei anni c’è stata una profonda trasformazione del mercato del lavoro, sia per quanto riguarda la domanda che l’offerta. La geografia delle professioni e con essa anche la graduatoria dei lavoratori più difficili da reperire è mutata profondamente.

 

Se all’inizio della crisi non si trovava oltre la metà degli infermieri /ostetriche, dei falegnami e degli acconciatori, nel 2014 le professionalità più difficili da trovare (per numero o per caratteristiche personali o di competenza) risultano, come dicevamo più sopra, gli analisti e i progettisti di software (37,7%), i programmatori (31,2%), gli ingegneri energetici e meccanici (28,1%), i tecnici della sicurezza sul lavoro (27,7%) ed i tecnici esperti in applicazioni informatiche (27,4%), tutte figure con una elevata specializzazione e competenza.

 

In definitiva, dopo sei anni di crisi solo tre figure professionali sono rimaste nella medesima top-ten: infermieri ed ostetriche, acconciatori e attrezzisti di macchine utensili, profili che evidentemente continuano ad avere un futuro, seppure ridimensionato in termini assoluti dalla crisi. Inoltre, se nel 2009 la platea dei “lavoratori introvabili” era costituita prevalentemente da attività artigianali ad elevata abilità manuale , oggi, invece, gli “introvabili” sono legati a settori ad alta specializzazione tecnica, in particolare nell’ informatica.

Facebooktwitterlinkedininstagramflickrfoursquaremailby feather