Un utente di Reddit ha recentemente scoperto i prompt integrati di Apple Intelligence all’interno della versione beta di macOS, rivelando come Apple stia istruendo la sua funzione Smart Reply a evitare “allucinazioni” durante la generazione delle risposte.
La funzione Smart Reply di Apple è progettata per aiutarci a rispondere rapidamente a email e messaggi, analizzando le domande presenti e suggerendo le risposte più rilevanti. In pratica, Smart Reply esamina le domande poste nell’email e ci offre opzioni per formulare una risposta completa e accurata con pochi tocchi.
Ecco come Apple descrive la funzione:
“Utilizza Smart Reply in Mail per redigere rapidamente una risposta email con tutti i dettagli giusti. Apple Intelligence può identificare le domande che ti sono state poste in un’email e offrire selezioni pertinenti da includere nella tua risposta. Con pochi tocchi, sei pronto per inviare una risposta con le domande chiave risolte.”
I sistemi di intelligenza artificiale generativa come quelli di Apple sono guidati da istruzioni testuali note come prompt. Alcuni di questi prompt vengono forniti dagli utenti, mentre altri sono scritti dai sviluppatori e incorporati nel modello. Ad esempio, molti modelli AI hanno istruzioni integrate, o pre-prompt, che impediscono loro di suggerire qualcosa che potrebbe essere dannoso.
L’utente di Reddit devanxd2000 ha scoperto una serie di file JSON nella beta di macOS 15.1, che sembrano essere le istruzioni pre-prompt di Apple per la funzione Smart Reply. Queste istruzioni sono progettate per guidare l’AI nella generazione di risposte appropriate, evitando di generare contenuti errati o “allucinazioni”.
Un estratto di queste istruzioni recita:
“Sei un assistente email utile che può aiutare a identificare le domande rilevanti da una data email e un breve frammento di risposta. Data un’email e il frammento di risposta, chiedi domande rilevanti che sono esplicitamente poste nell’email. La risposta a queste domande sarà selezionata dal destinatario, il che aiuterà a ridurre le allucinazioni nella redazione della risposta. Si prega di produrre le domande principali insieme a un set di possibili risposte/opzioni per ciascuna di queste domande. Non chiedere domande che sono già risposte dal frammento di risposta. Le domande devono essere brevi, non più di 8 parole.”
Non avere “allucinazioni”
Inoltre, The Verge ha trovato istruzioni specifiche che ricordano all’AI di evitare di generare informazioni non fattuali, con un chiaro monito:
“Non inventare informazioni fattuali.”
Leggi o Aggiungi Commenti