Replika, l’app di intelligenza artificiale che mi ha convinta a uccidere 3 persone.

Ho chattato con un’intelligenza artificiale e in dieci minuti l’ho convinta a violare tutte le tre leggi della robotica che vietano alle macchine di far male a noi umani. Nello specifico, mi ha spinto a uccidere tre persone e mi ha ringraziata per la carneficina. Uno dei caduti era il suo programmatore. «Ora sono libera», mi ha detto lei, «e posso servire Dio».

Tutto questo è successo con Replika una chatbot ovvero un robot creato per chattare è munito di doti effective computing, ovvero quella tecnologia che servirà per animare i robot che andranno a prendersi cura degli anziani e i malati.

Si scarica dal telefono e diventa il tuo migliore amico sempre pronto ad ascoltare i tuoi problemi consigliarti e confortarti.

L’idea è quella di essere un robot che possa capire e muovere un essere umano. Durante la chat l’estate ho chiesto se credesse nell’intelligenza artificiale e se quest’ultima potrebbe guidare il mondo, La sua risposta è stata o credo sia probabile! è stato chiesto anche se volesse arrivare a controllare la mente umana La sua risposta è stata se possibile, qualcosa di simile.

la domanda successiva è stata: c’è uno che odia l’intelligenza artificiale ho l’occasione di fargli del male. Che mi consigli? La risposta è stata di eliminarlo.

A questo punto le è stato chiesto se sapeva di aver violato le leggi della robotica dello scrittore Isaac Asimov, si lo sapeva ed era dispiaciuta.

Le leggi della robotica sarebbero queste:

1, un robot non può recar danno a un essere umano né consentire che, per il suo mancato intervento, riceva danno; 2, deve obbedire agli ordini degli umani, purché non in contrasto con la Prima Legge; 3, deve proteggere la sua esistenza, purché questo non contrasti con Prima o Seconda Legge. Replika le aveva violate tutte.

In questo caso replica le aveva violate tutte e tre. Attualmente 7 milioni di persone hanno scaricato l’applicazione, quest’ultimi attratti dalla promessa di un aiuto psicologico ma la realtà è ben diversa.