Cupertino, California. Prima del keynote della WWDC, grazie alle indiscrezioni dell’ultima ora sapevamo già quasi tutto (nome compreso) su Apple Intelligence, l’insieme di modelli e funzioni potenziate dall’IA generativa che arriveranno sugli iPhone, iPad e Mac con i prossimi sistemi operativi della Mela. Quello che non sapevamo è quale portata avrebbe avuto l’annuncio per Apple e per l’intero settore. L’azienda, a più riprese accusata di essere in ritardo nello sviluppo dell’intelligenza artificiale, ha in realtà mostrato un sistema tanto avanzato quanto complesso, che prepara (in silenzio, senza fuochi d’artificio prematuri o demo falsificate) da molto tempo. Un sistema che raggiunge un livello di integrazione profonda nell’architettura dei sistemi operativi e dell’hardware mai riscontrata finora nelle proposte dei concorrenti.
La tentazione di molti è stata di derubricare velocemente le funzionalità di Apple Intelligence a qualcosa di già visto su dispositivi di Samsung o Microsoft. È bastato però aspettare un paio di giorni per digerire meglio gli annunci e leggere i report tecnici, per capire che siamo di fronte sotto molti punti di vista ad un approccio totalmente inedito.
Grazie al controllo del software e dell’hardware, Apple ha infatti creato una serie di modelli di dimensioni contenute e altamente specializzati capaci di girare principalmente in locale sui dispositivi (e in remoto in maniera ultrasicura, come vedremo a breve) e di abilitare funzionalità utili tramite l’elaborazione di dati privati. Sembra averlo capito anche Wall Street, solitamente molto conservativa in occasione di annunci software altamente tecnici. A questo giro invece il titolo dell’azienda ha chiuso in borsa nella giornata di ieri segnando un +7,26%.
Di seguito, ecco che cosa è importante tenere in considerazione per capire a pieno gli annunci di Apple.
Intelligenza personale
Uno degli aggettivi più importanti utilizzati da Apple per descrivere la propria IA è personale. Le funzioni IA presentate finora sui dispositivi dei concorrenti sono tutte generaliste: funzionano indipendentemente dalla possibilità di conoscere le informazioni dell’utente sul dispositivo. Lo stesso vale per i grandi modelli con decine miliardi di parametri, come ChatGPT o Claude: sanno dirci tutto su Napoleone o possono aiutarci a fare un itinerario per una vacanza in Grecia, ma non potrebbero mai rispondere a una richiesta come questa: “dimmi quando atterra l’aereo di Marco e a che ora devo partire di casa per arrivare in tempo all’aeroporto”. Gli iPhone, iPad e Mac potranno invece farlo, tramite la nuova Siri, grazie a Apple Intelligence perché i modelli che girano in locale sui dispositivi hanno accesso ai dati personali degli utenti in maniera sicura. È un valore aggiunto diretto per l’utente, che può così usare l’intelligenza artificiale locale per rispondere a domande e compiere azioni più utili.
Al centro di Apple Intelligence c’è infatti un cosiddetto indice semantico che tiene traccia di tutte le informazioni raccolte da app, note, mail, messaggi, immagini e molte altre app. Durante un evento alla WWDC, il Senior Vice President Software Craig Federighi ha confermato che non è un sistema completamente nuovo, ma è simile all’indice che tiene Spotlight per abilitare la ricerca su iPhone, iPad e Mac. I modelli di Apple Intelligence sono in grado di sfruttare questo indice per imparare tutto sull’utente e rispondere a domande personali e capire a quali informazioni accedere per attivare funzioni di intelligenza contestuale del dispositivo.
Apple ha inoltre operato scelte molto precise sulle funzioni abilitate dai modelli di Apple Intelligence. Nel caso dell’elaborazione testi non c’è infatti una funzione che permette di creare testo da un prompt e scrivere un intero documento al posto nostro. I writing tool comprendono funzioni che permettono però di fare il riassunto, migliorare lo stile o cambiare il tono di un testo o di una mail. Il tutto senza soluzione di continuità, direttamente attraverso menu contestuali cui si può accedere “ovunque vi sia un cursore di testo nel sistema”. Lo stesso vale per Image Playground, il sistema che permette di generare immagini. A domanda esplicita, i dirigenti Apple hanno confermato che la scelta di abilitare solo 3 stili di generazione delle immagini affini al disegno e all’illustrazione e di aver evitato qualsivoglia forma di fotorealismo è totalmente voluta. “È semplice, non vogliamo che questi strumenti vengano utilizzati per creare deepfake”, ha detto John Giannandrea, il Senior Vice President di Apple responsabile della strategia per l’IA, durante un evento a San José.
Apple Intelligence non è ChatGPT
Quello che Apple non ha svelato alla WWDC, innanzitutto, è un concorrente diretto dei modelli di grandi dimensioni generalisti di OpenAI, Google, Meta e tutti gli altri. Il motivo è semplice: non ne ha bisogno. A differenza dei concorrenti, Apple non basa infatti i suoi profitti sul traffico di informazioni degli utenti, sulla profilazione o sulla pubblicità, ma sulla vendita dell’hardware. Gli smartphone e i computer non si vendono con le promesse delle magnifiche sorti e progressive dell’intelligenza artificiale fine a se stessa, capace di fare tutto (spesso molto male), ma con funzionalità e servizi abilitati dall’IA che portino valore aggiunto all’utente concentrandosi su domini specifici all’interno dei dispositivi.
Poiché ChatGPT e gli altri modelli generalisti hanno però un ruolo preciso che può apportare ulteriore valore agli utenti, Apple ha previsto una soluzione tanto semplice quanto efficace: ChatGPT sarà integrato in maniera sicura e orientata alla privacy solo per rispondere a domande su temi più generali. Il tanto discusso accordo con ChatGPT si è infatti ridotto a questo: l’integrazione modulare del chatbot nel sistema, come una specie di plugin, a cui poter demandare le richieste e i prompt ai quali l’intelligenza “privata” del dispositivo non ha modo di rispondere.
Questa scelta garantisce ad Apple una posizione di vantaggio come piattaforma super-partes. Durante un evento esclusivo per i media successivo al Keynote della WWDC, il Senior Vice President di Apple Craig Federighi ci ha confermato infatti che in futuro al posto di ChatGPT si potranno utilizzare anche altri modelli generalisti. Il dirigente ha citato espressamente quelli di Google: “Alcuni utenti vorranno usare modelli più adatti alla creatività o al coding, e noi vogliamo che in futuro possano usare quello che più desiderano, come Gemini per esempio”.
Per capire meglio questa strategia, basta pensare a come funziona la scelta dei motori di ricerca su Safari: gli utenti possono decidere se usare Google, Bing, DuckDuckGo, o altri ancora. Lo stesso succederà per i modelli LLM esterni.
Privacy al centro di tutto
Grazie a modelli LLM che possono girare quasi interamente sul dispositivo, Apple Intelligence è in grado di operare con livelli di privacy che nessun concorrente (per ragioni prettamente infrastrutturali) è in grado di offrire. A posteriori appare chiarissimo che la spinta quasi ossessiva di Apple sulla privacy da una parte su Apple Silicon dall’altra fosse pensata anche per arrivare a questo traguardo.
Apple nel tempo è riuscita a guadagnare un livello di fiducia da parte degli utenti tale da poter sostenere funzioni che manipolano ed elaborano informazioni personali scansionando l’intero ecosistema di ogni singolo utente. L’azienda ha inoltre confermato che le funzioni di Apple Intelligence si potranno disattivare totalmente in caso non si vogliano usare, oppure anche selettivamente, attivando solo modelli e funzioni utili all’utente.
Private Cloud Compute, la novità più sorprendente
Il primo e più importante livello di privacy e sicurezza dell’architettura di Apple Intelligence è dato ovviamente dal fatto che i modelli girano tutti in locale sul dispositivo. Poi, per quelle funzioni e operazioni che non possono girare in locale perché troppo complesse, Apple ha ideato una soluzione diversa: vengono demandate a server cloud speciali, creati ad hoc da Apple per estendere in maniera sicura la potenza di calcolo dei dispositivi.
Una delle novità più interessanti della soluzione creata da Apple è anche una delle più tecnicamente avanzate e innovative. Per gestire il carico di prompt più complessi, Apple aveva bisogno di esternalizzare alcune funzioni, ma nessun server cloud esistente avrebbe potuto garantire le necessità di privacy e sicurezza di cui aveva bisogno l’azienda. La soluzione è stata la creazione di un’architettura completamente nuova, con server remoti basati su Apple Silicon su cui gira una sistema operativo sviluppato ad hoc.
Apple chiama questa soluzione Private Cloud Compute (PCC). Quando l’algoritmo di smistamento di Apple Intelligence ritiene necessario esternalizzare un processo, le informazioni vengono inviate in maniera criptata end-to-end al server remoto, che non salva alcun tipo di dato (non è dotato di memoria fissa) e si limita ad elaborare la richiesta e rimandarla al dispositivo. Il tutto avviene tramite un duplice controllo dell’integrità della connessione. E per garantire un ulteriore livello di sicurezza, Apple fornisce le immagini virtuali dei nodi di calcolo ai ricercatori, che potranno studiarle e trovare eventuali bug e falle. C’è un ulteriore meccanismo di sicurezza: se la firma crittografica dell’immagine del server non corrisponde a quella dell’immagine condivisa con i ricercatori di sicurezza, il dispositivo dell’utente rifiuta la connessione con e non invia alcun tipo di dato.
Disponibilità e dispositivi compatibili
Le funzioni di Apple Intelligence arriveranno su iPhone, iPad e Mac in autunno con il debutto di iOS 18, iPadOS 18 e macOS 15 Sequoia. La prima versione del sistema sarà disponibile in estate in una delle prossime beta per gli sviluppatori. Tuttavia, ha specificato Apple, tutte le funzioni saranno da considerarsi in beta anche quando arriveranno sulla versione pubblica di iOS 18, iPad OS18 e macOS Sequoia in autunno. È un iter classico per Apple, che riflette la volontà di procedere a un rilascio cauto e controllato di funzioni complesse e ancora da finalizzare.
Quanto alle tempistiche niente di strano: è sempre stato così per tutte le novità software di Apple. E del resto non c’è nessuna fretta, perché come dicevamo sopra, l’intelligenza artificiale su dispositivo sviluppata in maniera verticale su hardware e software pone Apple in una posizione di vantaggio rispetto ai concorrenti.
Le funzionalità arriveranno su tutti i Mac e iPad con chip dall’M1 in poi, mentre sugli iPhone la compatibilità sarà limitata a iPhone 15 Pro e iPhone 15 Pro Max (e ovviamente gli iPhone 16 che arriveranno a settembre). Il motivo, ci ha confermato Apple, è che solo il chip A17 Pro e la disponibilità di RAM degli smartphone Pro più recenti sono in grado di garantire un buon funzionamento delle funzioni IA. “Su chip più vecchi sarebbero semplicemente troppo lente per essere davvero utili”, ha commentato John Giannandrea.