Meta accelera ancora una volta sul fronte dell’intelligenza artificiale e, come spesso accade in questi casi, lo fa con una strategia che non mancherà di far discutere: l’azienda guidata da Mark Zuckerberg avrebbe infatti avviato l’installazione di un nuovo sistema interno in grado di registrare le interazioni dei dipendenti con il computer dai movimenti del mouse fino alla digitazione sulla tastiera, con l’obbiettivo dichiarato di migliorare i propri modelli IA.

Secondo quanto riportato da Reuters, si tratta di un’iniziativa che si inserisce in un contesto ben più ampio, fatto di riorganizzazione interna, automazione crescente e una visione futura in cui gli agenti IA saranno sempre più centrali nei flussi di lavoro quotidiani.

Meta vuole imparare dai dipendenti per addestrare l’IA

Entrando più nel dettaglio, il sistema, chiamato Model Capability Initiative (MCI), verrà eseguito su app e siti web aziendali e sarà in grado non solo di tracciare clic, movimenti e sequenze di tasti, ma anche (almeno occasionalmente) di catturare schermate delle attività svolte dai dipendenti.

L’obbiettivo, almeno sulla carta, è quello di fornire ai modelli di intelligenza artificiale esempi concreti di come gli esseri umani interagiscono con i computer nella vita reale. Parliamo quindi di operazioni apparentemente banali, selezionare opzioni nei menù, usare scorciatoie da tastiera, navigare tra interfacce complesse, che tuttavia rappresentano ancora oggi un ostacolo non indifferente per molti sistemi IA.

Come sottolineato internamente dall’azienda, ogni dipendente contribuirebbe così al miglioramento dei modelli semplicemente svolgendo il proprio lavoro quotidiano (un concetto che, inevitabilmente, apre a diverse riflessioni sul rapporto tra produttività e raccolta dati).

La mossa di Meta non arriva certo in modo isolato, ma si inserisce in una trasformazione più ampia ribattezzata Agent Transformation Accelerator, che punta a integrare sempre più gli agenti IA nei processi aziendali.

A chiarire la direzione è stato anche il CTO Andrew Bosworth, secondo cui la visione futura prevede agenti in grado di svolgere gran parte del lavoro, mentre agli esseri umani spetterà principalmente il compito di supervisionare, guidare e migliorare questi sistemi.

Un cambio di paradigma importante, che si riflette anche nelle scelte organizzative. Meta starebbe infatti incoraggiando l’uso di agenti IA per attività quotidiane come la programmazione, ha introdotto nuove figure interne come i cosiddetti costruttori di IA e ha creato team dedicati all’IA applicata.

Il tutto mentre si prepara a una riduzione significativa della forza lavoro globale (circa il 10% a partire da maggio), in linea con una tendenza che, nel corso del 2026, sta coinvolgendo molte aziende tecnologiche.

Ovviamente, un’iniziativa di questo tipo non poteva non sollevare preoccupazioni, soprattutto sul fronte della privacy e della sorveglianza dei lavoratori. Meta ha precisato che i dati raccolti tramite MCI non verranno utilizzati per valutazioni delle prestazioni e che sono previste misure di sicurezza per proteggere i contenuti sensibili (anche se al momento non è del tutto chiaro quali informazioni verranno effettivamente escluse dalla raccolta).

Resta però il nodo normativo, come sottolineato da diversi esperti, negli Stati Uniti non esistono limiti federali stringenti sulla sorveglianza dei lavoratori, mentre in Europa la situazione è decisamente più restrittiva. In particolare, secondo il professore Valerio De Stefano (professore di diritto alla York University di Toronto, specializzato in tecnologia e diritto del lavoro comparato) pratiche di questo tipo potrebbero entrare in conflitto con il GDPR e, in alcuni Paesi come l’Italia, risultare addirittura illegali se utilizzate per monitorare la produttività dei dipendenti.

Ancora una volta, quello che emerge è un equilibrio sempre più delicato tra innovazione tecnologica e diritti dei lavoratori: da un lato la necessità (per aziende come Meta) di raccogliere enormi quantità di dati per rendere gli agenti IA realmente utili ed efficaci, dall’altro il rischio concreto di spingersi verso forme di sorveglianza sempre più invasive.

Non è dunque chiaro, almeno per il momento, quale sarà la reazione dei dipendenti, e soprattutto delle autorità regolatorie, ma una cosa appare evidente: la corsa all’intelligenza artificiale sta entrando in una fase in cui le implicazioni etiche e legali diventano centrali tanto quanto quelle tecnologiche.

I nostri contenuti da non perdere: