Anthropic ha ufficializzato una novità importante che riguarda il suo chatbot Claude e, più nello specifico, le modalità con cui i dati degli utenti verranno gestiti nei prossimi mesi; a partire dal 28 settembre 2025 infatti, entreranno in vigore nuove condizioni di utilizzo e una policy aggiornata sulla privacy che prevedono l’impiego delle chat e delle sessioni di coding come materiale di addestramento per i futuri modelli di intelligenza artificiale dell’azienda.

Una scelta che avvicina Anthropic a quanto già fatto in passato da altri concorrenti come OpenAI con ChatGPT, ma che allo stesso tempo solleva dubbi e domande legittime da parte di chi utilizza quotidianamente questi strumenti, tanto nella versione gratuita quanto in quelle a pagamento.

Offerta

Google Pixel Watch 4 (45 mm)

379€ invece di 449€
-16%

Come opporsi all’uso dei nostri dati per l’addestramento di Claude

La novità riguarda tutti coloro che hanno sottoscritto i piani Claude Free, Claude Pro e Claude Max, mentre restano esclusi i piani business (Claude for Work), governativi o dedicati all’istruzione, così come l’accesso tramite API o attraverso servizi esterni come Amazon Bedrock o Google Cloud Vertex AI.

Accedendo al servizio, sia da app che da browser, gli utenti vedranno comparire un pop-up che richiede esplicitamente di scegliere se acconsentire o meno alla raccolta dei dati; nello specifico sarà possibile:

  • acconsentire alla raccolta, lasciando attiva l’opzione Aiuta a migliorare Claude e premendo su Accetta
  • opporsi alla raccolta, disattivando manualmente l’opzione (la barra passa da nera a bianca) e poi confermando con Accetta

In entrambi i casi la scelta diventa immediatamente operativa e costituisce un passaggio necessario per continuare a utilizzare Claude senza interruzioni.

Secondo Anthropic, i dati raccolti serviranno principalmente a due obbiettivi, ovvero migliorare la sicurezza del modello (rendendo più accurati i sistemi di rilevamento di contenuti dannosi senza compromettere le conversazioni innocue), e potenziare le capacità future di Claude in ambiti come la codifica, l’analisi e il ragionamento, con benefici diretti per tutti gli utenti.

Per rassicurare sul fronte della privacy, la società precisa che i dati verranno filtrati e offuscati per rimuovere eventuali informazioni sensibili e che non saranno in alcun modo venduti a terze parti; tuttavia, chi accetta la raccolta dei dati deve tenere conto di un aspetto non secondario, i contenuti resteranno archiviati per cinque anni, un periodo decisamente più lungo rispetto ai 30 giorni previsti per chi invece nega il proprio consenso. Va inoltre ricordato che, eliminando manualmente una conversazione, questa non verrà inclusa nell’addestramento del modello.

La decisione non è definitiva, in qualsiasi momento gli utenti possono entrare nella sezione Impostazioni  di Claude e modificare la propria preferenza dalla sezione Privacy; in questo caso, la variazione avrà effetto solo sulle chat successive, non su quelle già avvenute o conservate in precedenza.

Vale la pensa sottolineare che Anthropic non è certo la prima realtà a intraprendere questa strada, ChatGPT offre da maggio 2023 la possibilità di disattivare l’utilizzo dei dati personali per l’addestramento, mentre altre soluzioni come DeepSeek non hanno mai chiarito fino in fondo le proprie politiche e non prevedono opzioni di opt-out.

Anthropic in questo senso sceglie una via intermedia, da un lato offre trasparenza e controllo agli utenti, dall’altro prolunga sensibilmente i tempi di conservazione dei dati di chi chiede di contribuire al miglioramento del modello.

Gli utenti Claude dovranno quindi prendere una decisione entro il 28 settembre prossimo venturo, pena l’impossibilità di continuare a utilizzare il servizio; chi desidera contribuire allo sviluppo dei futuri modelli potrà farlo accettando la raccolta dei dati, mentre chi preferisce tutelare la propria riservatezza potrà disattivare l’opzione e limitarsi ai 30 giorni standard di conservazione.

Come sempre in questi casi, il consiglio è di leggere attentamente i nuovi termini e scegliere in base al proprio livello di fiducia e alle proprie esigenze di privacy.

I nostri contenuti da non perdere: