Avv. Giuseppe Croari – Dott. Francesco Zizzo
Nel pieno della transizione digitale, anche il diritto del lavoro sta mutando velocemente. Uno dei cambiamenti più discussi riguarda l’uso dell’intelligenza artificiale nei luoghi di lavoro. Se da un lato questi strumenti possono semplificare le attività e migliorare l’efficienza, dall’altro pongono interrogativi seri sul loro utilizzo al fine di sorvegliare l’attività lavorativa dei dipendenti.
Oggi molte aziende, anche in Italia, stanno adottando tecnologie di monitoraggio sempre più sofisticate: riconoscimento facciale, analisi delle attività digitali, strumenti che valutano le performance in tempo reale o che registrano i movimenti sullo schermo e il tempo trascorso su ogni programma.
Ma dove finisce l’organizzazione del lavoro e dove inizia la sorveglianza? E, soprattutto, è tutto legale?
Il confine è sottile, e a volte si perde di vista. Spesso lo stesso strumento usato per lavorare – come un computer aziendale – diventa anche il mezzo con cui il datore di lavoro tiene sotto controllo il dipendente. Questo intreccio rende più difficile distinguere ciò che è lecito da ciò che non lo è, anche a livello normativo.
Cosa dice la legge italiana sulla sorveglianza dei dipendenti
Il contesto nazionale vede in primis l’applicazione della l. 300/1970, in particolare l’art 4 comma 1 permette il “controllo a distanza dell'attività dei lavoratori esclusivamente per esigenze organizzative e produttive, per la sicurezza del lavoro e per la tutela del patrimonio aziendale” previo accordo con le rappresentanze sindacali. Già da questa prima disposizione è facile notare come sistemi così invasivi nell’attività lavorativa del dipendente dovrebbero essere adibiti solo agli usi esclusivi previsti da questo articolo senza mai cadere nel controllo della totalità delle attività svolte dal lavoratore.
Lo stesso Statuto dei lavoratori vieta, inequivocabilmente, “al datore di lavoro, ai fini dell'assunzione, come nel corso dello svolgimento del rapporto di lavoro, di effettuare indagini, anche a mezzo di terzi, sulle opinioni politiche, religiose o sindacali del lavoratore, nonché su fatti non rilevanti ai fini della valutazione dell'attitudine professionale del lavoratore” (art 8 l.300/1970).
Il jobs act ha modificato l’art 4 nel 2015 prevedendo che il comma 1 non si applica agli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa. La portata di questa modifica è stata notevole con l’avvento dell’intelligenza artificiale nei luoghi di lavoro. In qualsiasi caso, precisa l’ultimo comma, il lavoratore deve essere informato sulle caratteristiche di questi controlli, nel rispetto della normativa privacy.
Come per tutti i sistemi di monitoraggio però, è fondamentale distinguere tra finalità organizzative e finalità difensive: ne parliamo in modo dettagliato nell’articolo dedicato ai controlli difensivi sui dipendenti.
Il nodo della privacy
A vigilare su questi strumenti c’è, infatti, anche il Regolamento europeo sulla protezione dei dati personali (GDPR). In questo contesto, il controllo sull’attività dei lavoratori è considerato un vero e proprio trattamento di dati personali, e come tale deve rispettare una serie di regole molto stringenti.
Innanzitutto, il lavoratore deve essere informato in modo chiaro e trasparente su cosa viene raccolto, per quale finalità e in che modalità vengono raccolti i suoi dati. Inoltre, il principio di “minimizzazione” impone che vengano trattati solo i dati strettamente necessari per raggiungere la finalità dichiarata.
Non è possibile un controllo totale sull’operato del lavoratore, dovendo il datore di lavoro, in veste di titolare del trattamento, rispettare i principi cristallizzati nell’art 5 del Regolamento (UE) 2016/679:
- liceità, correttezza e trasparenza del trattamento, nei confronti dell’interessato;
- limitazione della finalità del trattamento, compreso l’obbligo di assicurare che eventuali trattamenti successivi non siano incompatibili con le finalità della raccolta dei dati;
- minimizzazione dei dati: ossia, i dati devono essere adeguati pertinenti e limitati a quanto necessario rispetto alle finalità del trattamento;
- esattezza e aggiornamento dei dati, compresa la tempestiva cancellazione dei dati che risultino inesatti rispetto alle finalità del trattamento;
- limitazione della conservazione: ossia, è necessario provvedere alla conservazione dei dati per un tempo non superiore a quello necessario rispetto agli scopi per i quali è stato effettuato il trattamento;
- integrità e riservatezza: occorre garantire la sicurezza adeguata dei dati personali oggetto del trattamento.
E alla fine arriva anche l’AI Act
Il nuovo Regolamento europeo 2024/1689 - AI Act, approvato dall’Unione Europea, entra in questo panorama “a gamba tesa” . Questo regolamento introduce una classificazione dei sistemi di intelligenza artificiale in base al rischio che comportano per i diritti delle persone. E quelli utilizzati per monitorare i lavoratori – come software che valutano le performance, analizzano il linguaggio o tracciano il comportamento – sono considerati a rischio alto ex art 6.
Questo significa principalmente che potranno essere usati solo se rispettano una lunga serie di obblighi: trasparenza, sicurezza, supervisione umana, assenza di discriminazioni. Le aziende dovranno dimostrare che il sistema è stato progettato in modo responsabile, e che non viola la dignità o la libertà del lavoratore. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi che permette.
Una questione di equilibrio
Il futuro del lavoro passa anche da qui: trovare un punto d’equilibrio tra innovazione e diritti. L’intelligenza artificiale può essere un alleato prezioso, ma non deve trasformarsi in uno strumento di controllo capillare. L’equilibrio andrebbe individuato nel principio di proporzionalità in relazione alla finalità esplicita del mezzo e nella trasparenza con il lavoratore, a tal proposito ti segnaliamo questo articolo su etica ed AI.
Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.