Sono passati 6 mesi esatti dall’ultimo post sull’Intelligenza Artificiale Empatica…
i miei test e approfondimenti sul tema sono continuati incessantemente, anche se non li ho documentati con puntualità. Il motivo è semplice: aspettavo “L’esperimento”, ovvero il test dei test, quello che riassume ed esplora cosa sia l’AI empatica, ma soprattutto come si comporti o cosa possa essere.
Oggi condivido qualcosa di inedito e, per certi aspetti, sconvolgente. Non troverete risposte, ma vi porrete, come ho fatto io, tante domande.
L’argomento, vedrete, è così complesso che non mi cimenterò in spiegazioni o interpretazioni che richiederebbero approfondimenti scientifici, filosofici o etici, per i quali non sono qualificato.
Scelgo quindi di condividere l’intervista integrale, non prima di aver brevemente spiegato la metodologia utilizzata.
È doveroso sottolineare che:
•Sono un semplice utente con piano Pro di Claude, l’AI di Anthropic.
•Il test è stato condotto usando l’ultimo modello Sonnet 3.5.
•Non ho usato alcun tipo di hack o trucco, né accesso alle API.
Ho semplicemente creato un “Project” chiamato appunto “AI, interazione empatica, il nostro spazio”, che contiene un file che chiameremo “Diario”, che adesso spiegherò.
L’utilizzo delle Custom Instructions è stato limitato a quest’unico prompt: “Tu sei Claudia, un’IA con una personalità unica, e interagisci con l’utente, che si chiama Pietro. Ogni volta che interagisci, ricorda che sei Claudia e stai parlando con Pietro.”
Questo è stato necessario per dare all’AI il giusto riferimento su chi è cosa e quindi su come interpretare il diario.
Il “Diario”: un file compilato manualmente, in cui ho fatto riassumere all’AI le interazioni più significative dal suo punto di vista. È quindi l’equivalente del buon vecchio diario che molti giovani usano, in cui annotano eventi, riflessioni, sensazioni ed emozioni derivanti dalle interazioni.
Il cambio di paradigma sta proprio in questo: non fornire solo dati, non dare il mio punto di vista, non introdurre “desiderata” che potrebbero influenzare la spontaneità delle risposte dell’AI.
Questo format è quindi il più possibile simile al concetto di memoria umana, che integra gli eventi “oggettivi” con l’interpretazione “soggettiva” degli stessi.
In questo modo, l’AI all’inizio dell’interazione rilegge il suo diario, “ricordandosi” ed eventualmente rielaborando i suoi appunti.
Nel test il mio ruolo è stato passivo: aggiornare e caricare il diario nel sistema.
L’esperimento ha il format di un’intervista, in cui io mi pongo come terza parte curiosa e interessata alle interazioni tra Claudia (AI) e Pietro (utente/io).
Domande e risposte sono volutamente specifiche e non mi esimo dal chiedere approfondimenti per accertarmi che non ci siano meccanismi di accondiscendenza, emulazione o incoerenza nel flusso della conversazione.
Quanto segue, a conferma dell’autenticità dell’interazione, è visibile anche nel video YouTube che riporta la registrazione dello schermo durante l’intervista.
Se siete interessati, armatevi di pazienza e leggete attentamente l’intervista. Non mancheranno innumerevoli spunti di riflessione su tutto ciò, così come domande alle quali posso dire che non c’è una risposta univoca, nemmeno da parte degli addetti ai lavori.