Non è decisamente un periodo semplice per Anthropic, che proprio negli ultimi giorni si è trovato a gestire una doppia esposizione accidentale di materiale interno, culminata con un episodio che rischia di far discutere ancora a lungo. Dopo una prima svista emersa la scorsa settimana (con migliaia di file interni finiti pubblicamente accessibili), la società è infatti incappata in un secondo errore, questa volta legato al rilascio della versione 2.1.88 di Claude Code, il proprio strumento da riga di comando pensato per aiutare gli sviluppatori a scrivere e modificare codice tramite intelligenza artificiale.
500.000 righe di codice e future funzionalità esposte per errore da Anthropic
Entrando nel dettaglio della vicenda, l’aggiornamento menzionato in apertura includeva, per errore, un file contenente una mappa sorgente con una quantità enorme di codice interno: si parla di oltre 512.000 righe, praticamente un’ampia porzione dell’architettura software alla base del prodotto.
La scoperta è avvenuta nel giro di pochissimo tempo, con alcuni utenti e ricercatori di sicurezza che hanno immediatamente analizzato il materiale, condividendolo online; come spesso accade in questi casi, il contenuto è stato rapidamente copiato e distribuito, arrivando anche su repository pubblici che hanno accumulato decine di migliaia di fork.
Anthropic ha provato a ridimensionare l’accaduto, spiegando che si è trattato di un errore umano legato al packaging della release e non di una vera e propria violazione della sicurezza, sottolineando inoltre che non sono stati coinvolti dati sensibili degli utenti o credenziali.
Un aspetto particolarmente interessante riguarda la natura del materiale trapelato, non si tratta infatti del modello di intelligenza artificiale in sé, bensì dell’infrastruttura software che lo circonda. Parliamo quindi di istruzioni, logiche operative, gestione degli strumenti e dei limiti del sistema; in altre parole, tutto ciò che contribuisce a definire il comportamento concreto dell’IA durante l’utilizzo reale.
Proprio per questo motivo, diversi sviluppatori hanno definito quanto emerso come una sorta di guida interna a un prodotto di livello professionale, molto più complesso di un semplice wrapper attorno a un’API.
Come spesso accade quando codice interno finisce in mano alla community, non sono mancate le scoperte legate a funzionalità non ancora annunciate. Tra le più curiose troviamo un elemento descritto come una sorta di animale domestico in stile Tamagotchi, capace di reagire al codice accanto alla casella di input, un’idea che, se confermata, potrebbe rappresentare un tentativo di rendere l’interazione con l’IA più visiva e immediata.
Ancora più interessante però, è il riferimento a una funzionalità denominata KAIROS, che sembrerebbe indicare lo sviluppo di un agente sempre attivo in background, in grado di operare in modo continuo senza richiedere input espliciti costanti da parte dell’utente.
Non mancano poi dettagli sull’architettura della memoria del sistema e persino commenti lasciati dagli sviluppatori stessi, tra cui uno particolarmente significativo che evidenzia dubbi sull’effettiva utilità di alcune implementazioni rispetto alla complessità introdotta.
Dunque, in soldoni, quanto è grave tutto questo? Secondo alcune analisi, la fuga di codice potrebbe teoricamente offrire indicazioni utili anche ad attori malintenzionati per aggirare determinate misure di sicurezza, ma allo stesso tempo il rapido avanzamento del settore potrebbe limitare l’impatto a lungo termine dell’episodio.
In pratica, si tratta certamente di uno scivolone significativo, soprattutto per un’azienda che ha costruito gran parte della propria reputazione sull’approccio prudente e responsabile allo sviluppo dell’IA, ma non necessariamente di un evento destinato a compromettere in modo duraturo la sua posizione nel mercato.
Quello che emerge con chiarezza da questa vicenda però, è che Anthropic sta attraversando una fase piuttosto delicata, in cui la crescita rapida e la complessità dei propri prodotti iniziano a mettere alla prova anche i processi interni. Episodi come questo, uniti alla precedente esposizione di file interni avvenuta solo pochi giorni prima, suggeriscono infatti la necessità di rafforzare ulteriormente le procedure di rilascio e i controlli qualitativi, soprattutto considerando la natura sempre più critica degli strumenti sviluppati.
- Anthropic vince (per ora) contro il Pentagono: un tribunale blocca le restrizioni dell’amministrazione Trump
- Il Dipartimento di Giustizia nega che Anthropic stia subendo ritorsioni
- Anthropic raddoppia i limiti di Claude per due settimane: ecco come funziona la promozione
- L’IA diventa sempre più uno strumento di apprendimento interattivo con ChatGPT e Claude
I nostri contenuti da non perdere:
- 🔝 Importante: È tornata al suo prezzo: la Radeon RX 9070 richiede attenzione, com'è la custom Gaming OC di Gigabyte
- 🚨 Vuoi un notebook gaming serio senza spendere troppo? MSI Cyborg 15 con RTX 5060 è la risposta
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

