L’intelligenza artificiale può essere un ottimo assistente, ma secondo il Parlamento europeo non è ancora pronta per fare il capo ufficio. O almeno non da sola. Con una maggioranza che definire ampia è quasi riduttivo, 451 voti favorevoli contro 45 contrari e 153 astensioni, Strasburgo ha mandato un messaggio chiaro alla Commissione europea: nel mondo del lavoro l’algoritmo può suggerire, ma a decidere deve restare una persona in carne, ossa e responsabilità legale.
La risoluzione approvata mercoledì chiede una proposta legislativa specifica sul cosiddetto management algoritmico, una pratica sempre più diffusa che affida a sistemi automatizzati l’organizzazione del lavoro, la valutazione delle performance e, in alcuni casi, persino decisioni che incidono direttamente sulla carriera dei lavoratori. Tradotto in termini meno istituzionali, l’UE vuole evitare che l’intelligenza artificiale si trasformi in un capo invisibile, silenzioso e impossibile da contraddire.
Il Parlamento riconosce senza giri di parole che l’AI può migliorare l’efficienza e ottimizzare i processi produttivi. Ma mette un paletto fondamentale: nessuna decisione cruciale può essere delegata interamente a un software. Assunzioni, licenziamenti, rinnovi contrattuali e sanzioni disciplinari devono restare sotto il controllo umano. L’algoritmo può fare da supporto, non da giudice supremo. Una distinzione che, nell’epoca delle decisioni automatizzate, vale quanto una clausola di salvaguardia democratica.
Al centro della risoluzione c’è anche il diritto dei lavoratori a capire e, se necessario, a contestare. Se una decisione è presa o anche solo suggerita da un sistema algoritmico, il dipendente deve poter chiedere una revisione umana. E se il sistema si dimostra discriminatorio o dannoso, deve essere modificato o spento. Sì, spento. Un concetto che nel linguaggio tecnologico equivale a un atto di ribellione.
Particolarmente netto è il capitolo dedicato ai dati personali, dove il Parlamento mostra di non avere alcuna nostalgia per il Grande Fratello digitale. La risoluzione propone il divieto assoluto di monitorare lo stato emotivo, psicologico o neurologico dei lavoratori, di analizzare comunicazioni private o attività legate alla libertà sindacale e di tracciare la geolocalizzazione al di fuori dell’orario di lavoro. In altre parole, l’algoritmo può sapere quanto produci, non come ti senti mentre lo fai né dove vai dopo aver timbrato il cartellino.
Trasparenza è l’altra parola chiave. I lavoratori dovranno essere informati in anticipo su quali dati vengono raccolti, su come funzionano gli algoritmi che incidono sulla loro valutazione e su quali meccanismi di supervisione umana sono previsti. Un principio che sembra ovvio, ma che nell’economia delle piattaforme e del lavoro data-driven è tutt’altro che scontato.
Gli eurodeputati mettono anche in guardia da un rischio spesso sottovalutato: l’uso dell’AI non deve tradursi in una pressione costante che comprometta la salute fisica o mentale. Quando un algoritmo assegna compiti, turni e tempi di lavoro, il confine tra efficienza e stress sistemico può diventare molto sottile. E l’Europa, almeno nelle intenzioni, vuole evitarlo.
Il tutto avviene nonostante l’Unione abbia già un arsenale normativo di tutto rispetto, dall’AI Act al GDPR, passando per la direttiva sui lavoratori delle piattaforme digitali. Secondo il Parlamento, però, non basta. Il management algoritmico è ormai pervasivo anche nei contesti lavorativi tradizionali e richiede regole dedicate, pensate specificamente per il rapporto tra tecnologia, potere decisionale e diritti dei lavoratori.
Ora la palla passa alla Commissione europea, che ha tre mesi di tempo per rispondere. Dovrà dire se intende presentare una proposta legislativa o spiegare perché non lo farà. Nel frattempo, il segnale politico è arrivato forte e chiaro: nell’Europa dell’intelligenza artificiale, il badge da manager resta umano. Almeno per ora.