Apple potrebbe presto affrontare nuove critiche da parte degli azionisti a causa della sua gestione della privacy e dell’acquisizione di dati per l’intelligenza artificiale. Un recente documento depositato presso la Securities and Exchange Commission (SEC) degli Stati Uniti solleva preoccupazioni su come Apple ottiene e utilizza dati di terze parti per addestrare i propri modelli AI.
A fare pressione su Apple è il National Legal and Policy Center (NLPC), che ha presentato una proposta per il prossimo meeting degli azionisti del 25 febbraio 2025, chiedendo maggiore trasparenza sulle pratiche AI dell’azienda.
Nel dettaglio, la proposta – identificata come “Proposal No. 4” tra i documenti ufficiali di Apple per il 2025 – invita l’azienda a pubblicare un rapporto che chiarisca:
- L’origine dei dati usati per addestrare l’AI: Apple deve garantire che non vengano utilizzati dati ottenuti in modo improprio.
- Le misure di protezione della privacy adottate nello sviluppo AI: la politica di privacy dell’azienda è davvero rispettata nel contesto dell’AI?
- Il rispetto di standard legali ed etici nei contenuti generati dall’AI: Apple deve dimostrare che le sue AI non violino diritti di proprietà intellettuale o normative sulla privacy.
Secondo il NLPC, Apple – che ha sempre enfatizzato la sua attenzione alla privacy degli utenti – dovrebbe stabilire uno standard più elevato in termini di etica nell’AI.
L’organizzazione sottolinea come altre big tech, tra cui Google, OpenAI e Meta, siano già finite nel mirino per presunte violazioni legate al data scraping per l’addestramento dei modelli AI.
Nel documento, il NLPC non usa mezzi termini: Apple, pur mantenendo un’immagine di azienda privacy-friendly, trarrebbe profitto dalla monetizzazione dei dati attraverso accordi con aziende terze.
Un esempio citato è l’accordo con Alphabet/Google per il motore di ricerca di default su iPhone, iPad e Mac. Questo accordo vale circa 25 miliardi di dollari all’anno per Apple, pari al 20% dei suoi profitti ante imposte. In cambio, Google raccoglie una quantità enorme di dati sugli utenti Apple, alimentando preoccupazioni sulla privacy.
Secondo il NLPC, questo schema si starebbe ripetendo con l’AI, visto che Apple ha già una partnership con OpenAI (ChatGPT) e sta valutando l’integrazione di Gemini di Google.
Di fatto, Apple garantisce integrazione AI con aziende esterne, scaricando su di loro eventuali controversie legate alla privacy. Rispetto ai concorrenti, Apple ha adottato un approccio più cauto e riservato nello sviluppo dell’AI. Invece di puntare su grandi modelli cloud-based, si è concentrata su Apple Intelligence, un sistema che elabora i dati direttamente sui dispositivi, sfruttando il Private Cloud Compute per garantire la sicurezza degli utenti.
Tuttavia, secondo le accuse, la protezione della privacy finisce quando entra in gioco un partner esterno. Attualmente, Apple ha integrato solo ChatGPT come opzione AI, ma in futuro potrebbero arrivare Google Gemini e altri servizi.
Per attivare questi strumenti, Apple richiede un consenso esplicito da parte dell’utente, ma il NLPC sostiene che questo non sia sufficiente per garantire una vera tutela della privacy. Molto probabilmente, la proposta del NLPC verrà respinta dagli azionisti, come accade spesso per questo tipo di richieste.
Apple generalmente consiglia ai suoi investitori di votare contro le proposte che potrebbero minare la sua strategia aziendale, e quasi sempre riesce a farle bocciare. Tuttavia, il fatto che si parli apertamente di queste accuse potrebbe aumentare la pressione mediatica su Apple, spingendola a essere più trasparente sulle sue politiche AI e indurre l’azienda a rivedere le proprie collaborazioni, per evitare controversie future.
News