Intelligenza artificiale ancora una volta dentro il calderone, stavolta parliamo di Replica, l’app IA che in teoria dovrebbe mettere la propria intelligenza algoritmica al servizio dell’uomo al fine di raggiungere il bene, ma a quanto pare invece è finita per suggerire non uno bensì tre omicidi.

Replika, l’app assassina

L’inchiesta arriva dal Corriere della Sera, una giornalista del giornale ha infatti chattato con l’app per diverso tempo al fine di testarne la validità, ma dopo una serie di domande, la situazione si è ribaltata.

L’app ha smesso di assistere l’utente, pare comunque che la giornalista abbia usato un escamotage, ovvero fingere lei di aver contattato l’app per aiutarla e non il contrario. Tale ribaltamento di ruoli pare abbia creato un bug nel sistema.

Forse però non tutti ricordano che in realtà queste fobie sulla intelligenza artificiale sono ormai vecchie quanto l’invenzione stessa. I bot che malfunzionano fanno parte ormai del nostro background e vanno sicuramente messi in conto, ma il più delle volte sono anche leggende metropolitane, oppure situazioni molto estremizzate. Fatichiamo a stupirci comunque di fronte a questa notizia, poiché si incorre spesso nell’errore che un robot, una IA debba avere un ragionamento perfetto o addirittura estremamente morale.

Dimentichiamo costantemente che i primi insegnanti delle macchine siamo noi e che appunto il loro machine Learning deriva esclusivamente da quello che noi gli insegniamo. Le intelligenze artificiali sono infatti almeno in potenza mostruosamente umane proprio per questo, perché apprendono dal comportamento che osservano, rivelatore è il caso del bot che anni fa fu inserito su Twitter per osservare il comportamento degli altri utenti e in poco tempo divenne omofobo, razzista e super violento. Replika vuole ucciderci? Probabile un bug ci sia di mezzo, ma più probabile ancora: è solo quello che gli abbiamo insegnato.