Dopo aver promesso una versione completamente rinnovata di Siri già nel corso del 2024, Apple starebbe seriamente valutando un approccio inedito (e per certi versi sorprendente) per riuscire a mantenere le promesse, o quantomeno avvicinarsi alle aspettative; secondo le più recenti informazioni la casa di Cupertino avrebbe infatti avviato trattative con OpenAI e Anthropic, al fine di integrare modelli linguistici esterni nella prossima generazione del suo assistente vocale.

Un cambiamento di strategia che non si limiterebbe a un semplice supporto di alcune funzionalità, ma che potrebbe sfociare in una dipendenza più estesa da fornitori terzi di intelligenza artificiale, un po’ come accaduto in passato con Google Maps per l’app Mappe.

Apple valuta i modelli di OpenAI o Anthropic per potenziare Siri

Apple aveva presentato alla WWDC 2024 una versione rinnovata di Siri, capace sulla carta di comprendere il contesto personale degli utenti, di rispondere in modo naturale e soprattutto di intervenire direttamente nelle app per svolgere attività complesse.

Un progetto ambizioso, che tuttavia ha incontrato più ostacoli del previsto, l’aggiornamento è già stato ufficialmente posticipato al 2025 (anche se in realtà la release definitiva sarebbe slittata addirittura al 2026) e i cosiddetti Apple Foundation Models, tecnologia proprietaria sviluppata internamente, non si sarebbero rivelati abbastanza maturi per supportare tutte le nuove funzionalità.

Da qui la necessità di individuare partner terzi, in grado di garantire prestazioni e affidabilità all’altezza delle aspettative.

Apple avrebbe chiesto sia a OpenAI (l’azienda dietro a ChatGPT, già parzialmente integrata in Apple Intelligence) sia ad Anthropic (sviluppatrice di Claude) di addestrare versioni personalizzate dei loro modelli da far girare sul Private Cloud Compute di Apple, ovvero l’infrastruttura cloud proprietaria basata su chip Apple che garantisce sicurezza e gestione interna dei dati.

Questo passaggio segnerebbe una rottura netta con la tradizionale strategia di Apple, sempre orientata a soluzioni tradizionalmente sviluppate in casa, e rappresenterebbe di fatto un avvicinamento all’approccio seguito da Samsung con Galaxy AI, basato su una combinazione di software proprietari e Gemini di Google.

In altre parole, l’azienda di Cupertino potrebbe decidere di utilizzare modelli OpenAI o Anthropic per le funzionalità più evolute di Siri, mantenere Apple Foundation Models per attività meno complesse o interamente locali, oltre che riservarsi la possibilità di tornare a una soluzione 100% interna in futuro, quando la tecnologia sarà più matura.

Questo potenziale cambio di rotta arriva in un momento di ristrutturazione interna del team IA di Apple, la leadership dell’area è passata da John Giannandrea (storico responsabile dell’apprendimento automatico) a Craig Federighi, attuale VP senior dell’ingegneria del software; la divisione Siri inoltre è stata affidata a Mike Rockwell, già protagonista dello sviluppo di Apple Vision Pro.

Segnali che lasciano intuire come l’azienda stia cercando di accelerare lo sviluppo di Siri, magari sacrificando, almeno temporaneamente, l’indipendenza totale a favore di una maggiore competitività.

Nonostante il fermento e le trattative in corso, l’attesa non sarà breve, le informazioni più recenti suggeriscono che la versione aggiornata di Siri non arriverà prima del 2026; nel frattempo, con iOS 26, iPadOS 26 e macOS 26 Apple introdurrà soltanto un set più limitato di funzioni IA, probabilmente basate su una combinazione di modelli interni ed esterni.

Una strategia prudente dunque, che punta a rafforzare gradualmente le capacità di Siri, evitando i rischi di un rilascio affrettato che potrebbe compromettere la qualità dell’esperienza utente.