L’alleanza di Apple con ChatGPT solleva interrogativi sulla sicurezza dei dati di iPhone e iPad

L’alleanza di Apple con ChatGPT solleva interrogativi sulla sicurezza dei dati di iPhone e iPad
L’alleanza di Apple con ChatGPT solleva interrogativi sulla sicurezza dei dati di iPhone e iPad

OpenAI è la prima azienda a cui Apple chiede aiuto. Consapevole di essere rimasta indietro nella corsa all’intelligenza artificiale, la multinazionale si è rivolta ai creatori di ChatGPT per integrare questa tecnologia nei suoi dispositivi. Un accordo che ha subito sollevato interrogativi sulla sicurezza dei dati archiviati su iPhone, iPad e Mac e sull’accesso che OpenAI avrà ad essi.

In meno di due anni dalla sua ascesa alla fama con ChatGPT, l’azienda di Sam Altman ha accumulato numerose polemiche per le sue pratiche di ottenimento di dati con cui addestrare la propria intelligenza artificiale. Tra questi, OpenAI ha riconosciuto di aver violato il diritto d’autore includendo materiale protetto nei dati di addestramento (ed è stata denunciata per questo dal New York Times e dai sindacati degli scrittori e degli autori) e di aver ignorato le regole di YouTube che vietano la trascrizione dei video. video degli utenti per aggiungere quel materiale a ChatGPT.

Un gran numero di aziende tecnologiche, società di consulenza o studi legali hanno proibito ai propri dipendenti di inserire dati personali o sensibili in ChatGPT a causa dei dubbi su cosa OpenAI potrebbe fare con tali dati. Nell’UE, un’indagine delle autorità europee di regolamentazione della privacy a cui partecipa l’Agenzia spagnola per la protezione dei dati sta indagando su cosa fa la sua intelligenza artificiale con le informazioni personali che ottiene dagli utenti e se le utilizza per la formazione senza il loro permesso.

In questa situazione Apple ha annunciato che ChatGPT avrà accesso ai suoi dispositivi per potenziare Siri e gli strumenti di scrittura del suo intero sistema operativo. Come spiegato da Tim Cook questo lunedì, Siri sarà in grado di rispondere automaticamente ai messaggi, scrivere note, compilare catene di e-mail o consultare altre applicazioni e riassumere per l’utente ciò che accade al loro interno.


L’intelligenza artificiale di Apple sarà anche in grado di registrare una chiamata e trascrivere la conversazione. Un’altra delle sue capacità sarà quella di eseguire azioni in diverse app su comando dell’utente, come riprodurre il podcast che un amico ci ha inviato su WhatsApp in un’applicazione audio.

Tutte queste funzioni richiedono un’enorme elaborazione dei dati personali dell’utente. Forse consapevole della cattiva reputazione che si è guadagnata OpenAI, Apple ha posto uno dei focus della presentazione sulla “sicurezza” di tutto questo nuovo sistema, che “stabilisce un nuovo standard nella privacy dell’intelligenza artificiale”. Nonostante ciò, i dubbi sull’accordo sono sorti pochi minuti dopo la sua presentazione.

Il più veemente è stato Elon Musk, che considera il contratto tra Apple e OpenAI “una violazione della sicurezza inaccettabile”. Il magnate ha minacciato di bandire i dispositivi del produttore dalle sue aziende (Tesla, SpaceX o di impedire al dispositivo di connettersi all’esterno.

“È chiaramente assurdo che Apple non sia abbastanza intelligente da creare la propria intelligenza artificiale, ma sia in qualche modo in grado di garantire che OpenAI protegga la tua sicurezza e privacy. Apple non ha idea di cosa succede una volta consegnati i tuoi dati a OpenAI. “Ti stanno tradendo”, ha scritto Musk in X.

La posizione del magnate è segnata dalla diffidenza che nutre nei confronti dell’attuale OpenAI. Musk faceva parte del team fondatore dell’organizzazione, nata come laboratorio di ricerca sull’intelligenza artificiale dedicato a impedire che diventasse una minaccia per l’umanità e a condividere apertamente le sue scoperte con il resto del mondo. Dopo il suo abbandono del management a causa di un conflitto di interessi con la sua posizione in Tesla (che sviluppa anche l’intelligenza artificiale), OpenAI è stata guidata da Altman e trasformata in un’azienda tradizionale. Musk ha denunciato l’organizzazione e Altman per questa ragione.

Musk non è però l’unico ad aver sollevato dubbi sul trattamento dei dati dei nuovi dispositivi Apple.

Il “cloud privato”

La nuova intelligenza artificiale di Apple basata su OpenAI sarà disponibile solo sugli ultimi modelli di iPhone e iPad a causa dei suoi importanti requisiti tecnici. Tuttavia, gran parte dell’elaborazione necessaria verrà eseguita al di fuori dei dispositivi. Questo fatto ha sollevato dubbi tra gli esperti di privacy e rappresenta un cambiamento rispetto alle pratiche tradizionali di Apple, che danno priorità ai dati rimasti sui propri dispositivi come misura di sicurezza.

L’azienda ha chiamato questo computing esterno “Private Cloud Compute”. “Invierà solo i dati necessari per elaborare l’attività sui chip server Apple. Quando tali richieste vengono inviate tramite Private Cloud Compute, i dati non vengono archiviati e non sono accessibili da Apple. Vengono utilizzati solo per rispondere alle richieste degli utenti”, ha affermato.

“Il cloud computing privato di Apple solleva molte domande su come Apple definisce la privacy e la riservatezza. Non sono la stessa cosa”, ha affermato Pat Walshe, uno dei più rinomati avvocati europei in materia di privacy e consigliere del Consiglio d’Europa.

“È chiaro che è stata prestata molta attenzione al design. Non vedo l’ora che i ricercatori testino le loro varie affermazioni e promesse. Per me c’è molto da considerare. In passato Apple ha ceduto alle pressioni dei governi, come quello cinese. “Quali misure di salvaguardia sono in atto per evitare che i diritti umani fondamentali delle persone vengano compromessi di fronte alla pressione del governo che potrebbe essere esercitata su Apple?”, ha aggiunto Walshe.

“Ci sono troppi bordi”

Matthew Green, professore di crittografia alla Johns Hopkins University, ha evidenziato che “ci sono troppi spigoli vivi che potrebbero esistere in un sistema come questo”. “Guasti hardware. Problemi con il framework di mitigazione crittografica. Exploit software ingegnosi [programas que aprovechan una brecha en el sistema]. Molti di questi saranno difficili da rilevare per i ricercatori sulla sicurezza”, ha riassunto.

“Per quanto ne so, Apple non ha piani espliciti di annunciare quando i vostri dati passeranno dal dispositivo al Private Cloud Compute”, ha aggiunto l’esperto di X, sottolineando che i piani dell’azienda prevedono che la sua nuova IA venga abilitata per impostazione predefinita: “Tu non verrà nemmeno necessariamente detto che sta accadendo. Succederà e basta. Magicamente”.

Un’altra preoccupazione espressa da Green riguarda il fatto che la privacy dei possessori dei dispositivi Apple verrà controllata dall’azienda. “Per la maggior parte delle persone, il nemico più grande non sono le superspie, ma l’azienda che ha venduto loro il loro dispositivo/software. Questo sistema rappresenta un vero e proprio impegno da parte di Apple a non ‘spiare’ i vostri dati. È un grande impegno”, sottolinea.

Apple ha annunciato che questi strumenti saranno disponibili in autunno per i possessori di iPhone 15 Pro, iPhone 15 Pro Max e iPad e Mac con M1 e versioni successive, che hanno Siri e la lingua del dispositivo impostata sull’inglese americano. L’azienda non ha chiarito se la nuova AI sarà disponibile in Europa sin dal suo lancio.

 
For Latest Updates Follow us on Google News
 

-