Apple potrebbe presto essere sottoposta a nuove pressioni da parte degli azionisti riguardo alle sue pratiche in materia di intelligenza artificiale, dopo la presentazione di un recente dossier alla U.S. Securities and Exchange Commission (SEC).
Il documento, depositato in vista dell’Assemblea Annuale degli Azionisti del 25 febbraio, solleva dubbi sulla trasparenza della società riguardo all’acquisizione e all’uso dei dati per l’addestramento dell’AI.
A presentare la proposta è stato il National Legal and Policy Center (NLPC), che ha chiesto ad Apple di pubblicare un report dettagliato sulle sue politiche di raccolta dati per l’intelligenza artificiale. Secondo l’NLPC, l’azienda dovrebbe chiarire:
- I rischi legali legati all’uso di dati potenzialmente ottenuti in modo improprio;
- Le misure adottate per proteggere la privacy degli utenti nei processi di sviluppo dell’AI;
Le garanzie per evitare che i contenuti generati dall’AI violino standard legali ed etici.
L’NLPC non risparmia critiche alla strategia di Apple, accusandola di esternalizzare le pratiche non etiche a terze parti per mantenere intatta la propria immagine di azienda attenta alla privacy. A titolo di esempio, il gruppo cita il contratto da 25 miliardi di dollari con Google, che rende il motore di ricerca di Alphabet quello predefinito sui dispositivi Apple, permettendo al colosso di Mountain View di raccogliere dati sugli utenti iOS.
“Apple si presenta come un’azienda attenta alla privacy, ma il potenziale di monetizzazione della sua vasta base utenti è troppo alto per poterlo ignorare. La società esternalizza quindi le pratiche non etiche ad altri soggetti, incassando ingenti somme nel processo”.
Secondo il dossier, Apple starebbe applicando lo stesso “modello di outsourcing” all’intelligenza artificiale, stringendo collaborazioni con OpenAI e trattando con Google per integrare Gemini in Apple Intelligence.
A differenza dei suoi rivali, Apple ha finora mantenuto un approccio più prudente allo sviluppo dell’AI, puntando su elaborazione on-device e machine learning focalizzato sulla privacy, anziché su modelli IA massivi basati su cloud.
L’azienda ha presentato la sua infrastruttura Private Cloud Compute, garantendo che nessun dato degli utenti venga trasmesso o archiviato durante l’elaborazione dell’AI. Tuttavia, quando Apple Intelligence si affida a partner esterni come OpenAI, questa garanzia non è più applicabile.
Al momento, Apple ha chiarito che l’integrazione di AI di terze parti richiede il consenso esplicito dell’utente, ma la proposta dell’NLPC suggerisce che questa precauzione non sia sufficiente a dissipare i dubbi sulla trasparenza del processo.
Nonostante la richiesta dell’NLPC, è improbabile che la proposta venga approvata dagli azionisti. Apple ha una lunga storia di bocciature di proposte simili e difficilmente cambierà rotta su un tema così delicato.
Leggi o Aggiungi Commenti