Il lavoro di Apple nel campo dell’intelligenza artificiale continua a evolversi in maniera piuttosto evidente e, come spesso accade quando si parla dei laboratori di Cupertino, emergono soluzioni che non si limitano a inseguire i trend del momento, ma provano a ridefinire alcuni passaggi chiave dell’esperienza utente e dello sviluppo software. Gli ultimi studi pubblicati dall’azienda infatti, ci offrono uno sguardo interessante su due ambiti ben distinti ma sempre più centrali: la prototipazione delle interfacce utente e la valutazione della sicurezza delle immagini.

Offerta

4 x Xiaomi Smart Tag

Smart Tracker, compatibile con Apple Find My e Google Android Find Hub

49.99€ invece di 59.99€
-17%

SQUIRE è un sistema per avere più controllo nella creazione di interfacce con l’IA

Partiamo da SQUIRE, un sistema sperimentale sviluppato da Apple che affronta uno dei limiti più evidenti degli attuali strumenti basati su modelli linguistici, ovvero l’imprevedibilità.

Come alcuni di voi potrebbero aver notato utilizzando soluzioni di vibe coding (cioè la generazione di codice tramite prompt in linguaggio naturale), il problema principale è spesso duplice: da una parte l’ambiguità del linguaggio umano, dall’altra la tendenza dei modelli a produrre risultati non sempre coerenti con l’intento iniziale, ed è proprio qui che SQUIRE prova a fare la differenza.

Il sistema introduce un approccio decisamente più strutturato, invece di generare il codice finale, costruisce una rappresentazione intermedia dell’interfaccia, chiamata SquireIR, organizzata come un albero di componenti. In altre parole, l’interfaccia viene scomposta in elementi modulari, ciascuno dei quali può essere modificato, sostituito o completato in modo indipendente.

Gli sviluppatori iniziano fornendo un prompt (come avviene già oggi con gli LLM), ma a quel punto il processo cambia radicalmente: ogni richiesta viene collegata a una specifica porzione dell’interfaccia, evitando modifiche indesiderate sul progetto. Il sistema, basato su GPT-4o, suggerisce quindi diverse alternative per colmare lacune individuate, permettendo di confrontare rapidamente più soluzioni grazie a un’anteprima aggiornata in tempo reale.

Il risultato, almeno secondo lo studio condotto da Apple su 11 sviluppatori frontend, è un’esperienza molto più controllabile e prevedibile; gli utenti si sono detti più inclini a sperimentare, proprio perché ogni modifica può essere facilmente visualizzata, corretta o annullata senza compromettere il resto del lavoro. Un cambio di paradigma non da poco, soprattutto se pensiamo a quanto oggi il ciclo di tentativi ed errori sia ancora centrale nello sviluppo assistito dall’IA.

Non manca poi l’integrazione con le tecnologie web più comuni (HTML, CSS, JavaScript e Web Components), a conferma di un approccio che punta sì all’innovazione, ma senza rompere la compatibilità con gli strumenti già utilizzati quotidianamente.

SQUIRE, almeno per il momento, resta un progetto sperimentale e non è disponibile al pubblico. Tuttavia, non è difficile immaginare una sua futura integrazione in Xcode, che già oggi, soprattutto nelle versioni più recenti come la 26.3, sta iniziando ad aprirsi sempre di più agli strumenti di programmazione agentica e ai modelli linguistici avanzati, inclusi quelli di OpenAI e Anthropic.

In questo senso, SQUIRE potrebbe rappresentare un tassello fondamentale per rendere la generazione di interfacce non solo più veloce, ma anche più affidabile e controllabile, riducendo uno dei principali ostacoli all’adozione su larga scala di queste tecnologie.

Segui APPLE Italia su Telegram, ricevi news e offerte per primo

Apple lavora anche sulla sicurezza delle immagini con SafetyPairs

Parallelamente, Apple sta esplorando un secondo filone altrettanto interessante: la valutazione della sicurezza dei contenuti visivi generati o analizzati tramite IA.

Con lo studio SafetyPairs, i ricercatori introducono un framework basato su coppie di immagini controfattuali, ovvero quasi identiche ma con una differenza chiave che ne cambia la classificazione (sicura o non sicura); per esempio, due immagini simili, dove una include elementi problematici come violenza, gesti offensivi o contenuti sensibili, e l’altra no.

L’obbiettivo è duplice, da un lato individuare con maggiore precisione i punti deboli dei modelli di visione artificiale, dall’altro migliorare i dataset utilizzati per addestrarli. Il progetto ha già prodotto oltre 1.500 coppie di immagini, utilizzate per testare e affinare le capacità di valutazione dei sistemi IA.

Si tratta, evidentemente, di un ambito cruciale, soprattutto considerando funzionalità già disponibili come Image Playground, che permettono agli utenti di generare immagini direttamente sui dispositivi; migliorare i sistemi di controllo significa quindi rendere queste tecnologie più sicure e affidabili anche in contesti reali.

Come spesso accade con questo tipo di ricerche, non è ancora chiaro quali di queste tecnologie arriveranno effettivamente nei prodotti finali; tuttavia, il fatto che Apple stia investendo contemporaneamente su produttività e sicurezza suggerisce una direzione ben precisa.

Con la WWDC 2026 ormai all’orizzonte (l’appuntamento è fissato per l’8 giugno), non è da escludere che almeno parte di questi concetti possa iniziare a concretizzarsi già nei prossimi aggiornamenti di iOS, macOS o degli strumenti di sviluppo.

I nostri contenuti da non perdere: