Arriva Apple Intelligence - una Panoramica Completa
Tutto quello che c'è da sapere su questa particolare AI
Ciao!
La prima parte della WWDC di Apple, la conferenza dedicata al Software e gli Sviluppatori, è stata abbastanza piatta; è iniziata a diventare decisamente interessante quando è stata citata la nuova Apple Intelligence, ovvero l’intelligenza artificiale nei prodotti Apple.
Sarà ovviamente integrata in tutto l’ecosistema: iPhone, iPad e Mac (anche se con qualche limite che vedremo).
In questo post analizziamo l’idea che c’è dietro, le funzionalità, le caratteristiche tecniche ma anche i problemi.
Iniziamo!
Apple, non Artificial
Partiamo ad analizzare il nome con cui è stata presentata, che già ci da molte informazioni sulla mission di questa tecnologia: Apple Intelligence.
Non è Artificial Intelligence come abbiamo sempre sentito (ma l’acronimo AI è lo stesso, ottima mossa), quindi un normale computer che genera dei risultati oggettivi e distaccati dalla persona bensì Apple stessa che attraverso l’intelligenza dei suoi dispositivi fornisce dei contenuti personalizzati all’utilizzatore; si tratta di un vero e proprio assistente personale.
Insomma, dimostra ancora una volta l’attenzione che Apple ha nei confronti dei suoi clienti.
Poi diciamocelo chiaramente: a livello tecnico non cambia esattamente nulla, è pur sempre un LLM; le uniche differenze sono sul nome e sull’interpretazione di esso.
Funzionalità
Dobbiamo distinguere due macro-utilizzi di questa AI: il primo è l’integrazione in varie app/funzioni del sistema operativo, il secondo è l’integrazione con Siri che la rende un vero e proprio assistente personale.
Partiamo dai Writing Tools, una serie di strumenti che potranno essere richiamati in un campo di testo (le note ma anche Gmail ecc…) e che permettono di correggere errori, fare riassunti o riscrivere un testo con un determinato stile.
Insomma, tutto ciò a cui siamo abituati con il vantaggio di averlo disponibile in qualsiasi app o sito.
A proposito di riassunti, potranno essere fatti anche di pagine web su Safari, email, registrazioni audio o chiamate (di cui verrà abilitata la registrazione).
Viene anche migliorato il pannello delle notifiche, da molti criticato, che grazie all’AI integra un riassunto in primo piano di tutte le informazioni più importanti.
Ovviamente anche con questa AI è pssibile generare delle immagini, sia all’interno di iMessage (in base al contesto della chat) che in un’app dedicata.
La scelta di Apple è stata focalizzarsi su illustrazioni/disegni e non immagini realistiche proprio per evitare che il sistema venga utilizzato per scopi illeciti.
Scelta comprensibile che permette anche di dare una certa coerenza grafica a tutti i prodotti generati con AppleIntelligence.
Si potranno anche creare immagini a partire da un proprio schizzo nelle note, proprio come è stato recentemente mostrato su Paint con Copilot+.
In generale poi l’AI permette di migliorare la ricerca di email o foto rendendola più naturale.
Veniamo invece all’integrazione con Siri, che subisce una rivoluzione sia grafica che funzionale.
La vera potenza è la possibilità di ricavare informazioni da varie app e integrarle tra di loro senza che gli sviluppatori debbano fare nulla.
Ad esempio, è possibile chiedergli di “avviare la navigazione verso la festa di Mario” e automaticamente troverà il messaggio in cui Mario invitava alla sua festa e ne ricaverà l’indirizzo.
O ancora, “elimina tutte le schede di Safari riguardanti la vacanza al mare”.
Ovviamente poi può essere utilizzata per tutti i classici scopi come impostare una sveglia o fare una ricerca (ma anche qui con un tocco di AI).
Qui però si potrebbe aprire una grande riflessione circa l’uso di questi assistenti vocali: siamo sicuri che ci siano molte persone disposte a “parlare ad alta voce con il telefono”, magari dicendo pure delle informazioni personali?
Certo, è sempre possibile chattare con Siri ma rimane meno immediato…
È lo stesso discorso che facevamo con l’AI Pin o il Rabbit R1, che tra l’altro aveva come obiettivo ciò che Apple ha egregiamente fatto direttamente in iPhone (integrare le varie app e diventare un assistente personale)
La Rivoluzione che è stata un Fallimento
Ciao! In un mercato tecnologico sempre più piatto si stanno vedendo alcuni tentativi di rinfrescamento da parte di startup. Una di queste è sicuramente Humane con il suo AI PIN, un dispositivo che sembra essere rivoluzionario e futuristico ma che nasconde molte incognite
L’Ibrido Cloud-Locale
Siamo abituati ad utilizzare queste intelligenze artificiali in cloud: scriviamo la richiesta nel nostro pc, viene processata nei server e poi ci ritorna il risultato.
Solo recentemente si è visto, nel mondo consumer, qualche applicazione a livello locale con le funzioni AI integrate nei nuovi laptop Windows.
Tuttavia sono estremamente limitate.
La processazione in locale garantisce più sicurezza delle informazioni ma la potenza di calcolo a disposizione è decisamente poca nella maggioranza dei casi.
Apple ancora una volta crea qualcosa di innovativo andando a risolvere questo problema.
Di base questo modello LLM funziona totalmente in locale ma viene affiancato da un processore remoto, che Apple ha chiamato Private Cloud Computer (PCC). Attenzione, non un vero e proprio server ma una semplice CPU con RAM nel quale vengono temporaneamente immagazzinate le informazioni per essere processate che poi scompaiono.
Essendo costruito tutto da Apple stessa tra l’altro il protocollo di comunicazione tra questi è lo stesso che si utilizza all’interno dell’iPhone, quindi gli standard di sicurezza e privacy sono altissimi; è come se le informazioni non uscissero mai dal telefono.
Sembra non esserci una vera e propria regola su quando venga interpellato questo processore remoto, potremmo generalizzare dicendo “in base alla complessità dell’operazione”. E per complessità possiamo intendere sia una richiesta particolarmente lunga che con un vocabolario settoriale.
In ogni caso, tutte le cose personali (es ricavare dati da mail, messaggi…) saranno verosimilmente svolte in locale.
Per garantire delle risposte altrettando rapide anche attraverso il cloud, la richiesta verrà inoltrata a più nodi di questa rete di PCC e poi scelta la risposta del più veloce.
Cloud però significa internet, quindi alcune funzioni (o parte di esse) non saranno disponibili quando si è offline.
ChatGPT
Il focus sull’essere un assistente personale rende la Apple Intelligence meno potente per i compiti per cui si utilizzano i “normali” modelli di AI (ChatGPT, Gemini).
Per questo, il modello A(pple)I è aperto e permette di utilizzare anche altri modelli. Il primo ad essere già integrato è ChatGPT ma in futuro potranno esserne aggiunti altri come quello di Google o Claude.
Ora, andiamo con calma perchè ci sono un bel po’ di cose da dire.
Ovviamente ChatGPT è totalmente distaccato da Apple, quindi non si potrà più garantire la stessa tutela delle informazioni. Per questo in primis bisognerà attivare manualmente l’utilizzo di questo plug-in e comunque ogni volta che l’iPhone vuole inviare la richiesta al modello esterno verrà chiesta una conferma all’utente.
Ah, c’è anche un bel disclaimer che ricorda sempre che ChatGPT può fornire informazioni errate.
Insomma, se si vuole lo si utilizza altrimenti amici come prima.
Anche in questo caso non c’è una vera e propria regola sul quando inoltrare la richiesta ma probabilmente verrà fatto per delle simil-ricerche online o comunque compiti oggettivi e totalmente distaccati dalla personalità dell’utente.
È molto interessante anche la scelta di lasciare l’utente libero di usare il modello linguistico che più preferisce, cosa che va abbastanza controcorrente con la chiusura dell’ecosistema Apple.
C’è un duplice motivo: in primis non affidarsi troppo ad un’unica entità: Apple non ha il minimo controllo su ChatGPT e un suo eventuale problema (vedi ad esempio il “lungo” down di qualche settimana fa) non deve compromettere l’esperienza d’uso dei suoi clienti.
Inoltre potrebbe essere considerata come un’anticipazione di un’eventuale richiesta dell’Antitrust. Recentemente Apple è stata obbligata a far decidere agli utenti quale motore di ricerca utilizzare, senza più imporre Google come ha sempre fatto.
Alla fine queste AI possono essere considerati i motori di ricerca del futuro (già ora le utilizziamo in loro sostituzione per alcuni compiti) e quindi una legislazione dedicata potrebbe garantire agli utenti di scegliere quella che più preferiscono.
Limiti
Non è tutto oro quello che luccica; anche questa Apple Intelligence ha svariati punti deboli, soprattutto nei suoi primi mesi/anni di vita.
Innanzitutto sarà compatibile solamente con iPhone 15 Pro e Pro Max, insomma, vengono esclusi praticamente tutti i modelli passati (ma anche i base dello scorso anno).
C’è un motivo alla base di questa limitazione e sta proprio nella differenza che questi due modelli hanno con tutti gli altri iPhone: 8GB di RAM.
Nei restanti modelli, a partire dal 13 Pro, ci sono 6GB.
Alcune analisi su questo LLM che sono trapelate stimano che a pieno carico occupi intorno ai 4GB di RAM. Insomma, renderlo risponibile anche sugli iPhone con 6GB sarebbe una mossa un po’ azzardata, sia per le prestazioni dell’AI ma soprattutto per quelle del telefono.
Non si tratta in alcun modo di una limitazione del processore poichè l’AI è disponibile anche su tutti i Macbook e iPad con processore Apple Silicon, compreso l’M1 che è sotto certi aspetti è meno performante rispetto all’A17.
Inoltre tutte le fantastiche funzioni che hanno mostrato saranno disponibili gradualmente nei prossimi mesi e anche quando IOS 18 verrà rilasciato ufficialmente a settembre le caratteristiche AI saranno ancora in Beta.
Una fase di “incertezza” e graduale implementazione che potrebbe prolungarsi anche fino ai primi mesi del 2025.
Fortunatamente non ci sono limitazioni geografiche: sarà disponibile fin da subito in tutto il mondo MA solo in lingua inglese.
Per poterla utilizzare tutto il dispositivo deve essere impostato in inglese perchè non riesce proprio a gestire informazioni (es testi da riassumere) in altre lingue.
Ci sono due problemi.
Il primo è il training del modello; si sono concentrati sull’addestramento in inglese e probabilmente per ora nelle altre lingue fornirebbe risultati di minore qualità.
Il secondo sta nel fatto che un LLM multilingua (e con svariate lingue) potrebbe essere più complesso da gestire per il dispositivo e arrivando ad occupare più RAM.
Insomma, sicuramente a settembre vedremo in tutti i nuovi iPhone 8GB di RAM e chissà, magari si spingeranno fino a 12GB per la serie Pro.
🗂️ Cose Interessanti
Grazie per essere arrivati fino a qui, spero che abbiate apprezzato questo post.
A presto 👋🏻