Da una parte ci sono coloro che non vorrebbero porre alcun limite, dall’altra quelli che vogliono darle un freno. L’intelligenza artificiale sta scatenando un dibattito sempre più acceso intorno alle sue applicazioni, e soprattutto in merito a fin dove possa spingersi. È innegabile che fin da subito tale tecnologia ha dato un forte scossone a tutto il mondo, ma può migliorarlo o lo porterà alla rovina? Gli stessi addetti ai lavori, oggi leader mondiali del settore, mostrano pesanti perplessità in merito.

Facciamo il punto della situazione.

A favore o contro?

Un recap veloce della questione, per renderci partecipi del dibattito intorno all’intelligenza artificiale, non è certo cosa facile da fare. Sappiamo però che già all’interno di OpenAI ci sono due schieramenti opposti che hanno provocato non pochi scossoni nell’azienda (vedi il licenziamento poi cancellato di Altman). Sam Altlam è uno di coloro che sostiene che l’intelligenza artificiale ci porterà grandi vantaggi e farà fare un ulteriore salto di qualità all’uomo. Per questo motivo, non possono essere imposti dei limiti alla sua programmazione. Di visione completamente opposta Ilya Sutskever, direttore scientifico di OpenAI, che invece considera l’AI una tecnologia intrinsecamente pericolosa. Ciò non vuol dire che vada fermata, altrimenti il lavoro di Sutskever non avrebbe nemmeno senso, ma più che altro controllata, ossia regolamentata al fine di non farle superare certi limiti.

Il dibattito si sta trasformando velocemente in una sorta di confronto fantascientifico. Per certi versi sembra di assistere ai dialoghi di Asimov nel suo meraviglioso ciclo della Fondazione. I partecipanti si schierano e sostengono le proprie teorie a colpi di logica, partendo però da assiomi diversi e in alcuni casi completamente opposti. Tra i leader del settore ci sono coloro che vengono definiti i doomer, ossia ricercatori e imprenditori tech che sostengono che l’AI porterà a una superintelligenza che a sua volta sfuggirà al controllo dell’uomo.

In questo schieramento possiamo annoverare anche Elon Musk. Naturalmente, la politica non può guardare con indifferenza a tale dibattito e per questo motivo alcuni paesi (compreso l’Italia) hanno istituito dei comitati per approfondire la questione.

Intelligenza artificiale, le posizioni a riguardo

Sono essenzialmente quattro le posizioni che alcuni leader mondiali del settore hanno assunto in merito allo sviluppo di questa speciale tecnologia. Oltre ai doomer ci sono i cosiddetti Safety AI, ossia coloro che assumono una posizione “agnostica” a riguardo, preferendo invece un approccio sicuro. L’obiettivo è quello di creare una tecnologia che dipenda sempre dal volere umano, e quindi costantemente sotto il controllo dell’uomo. Il rischio, infatti, è che le macchine prendano alla lettera un comando, travalicando poi quelle che erano le intenzioni. A tal proposito viene spesso citato l’esempio delle graffette citato dal filosofo svedese Bostrom. Se chiediamo a una AI di creare più graffette possibili, il rischio è che essa, pur di portare a termine il suo compito, possa esaurire tutte le risorse del pianeta, portando quindi l’uomo all’estinzione.

L’intelligenza artificiale dovrebbe quindi riuscire a capire che ci sono limiti che essa stessa deve imporsi, ma a quanto pare trasmettere valori che vadano oltre il comando letterale impartitogli non è ancora stato possibile. Di visione completamente opposta è invece Marc Andreessen, il quale sostiene che l’AI salverà il mondo e per questo motivo non deve avere alcun freno. Nel gruppo ci rientra anche il già citato Altman. Questi utopisti dell’AI credono che un giorno tale tecnologia porterà a un benessere economico e sociale senza precedenti, ma ammettono che gli scienziati devono costruire un macchina perfetta per ottenere ciò. Tale ricerca però non deve essere regolamentata e “frenata” dalla politica.

C’è infine l’ultimo gruppo, quello che tralascia questioni future per concentrarsi direttamente sul presente e notare come sin da ora l’intelligenza artificiale stia dando non pochi problemi. Tra i cosiddetti “etici” si annovera la ricercatrice Timnit Gebru. Questo gruppo si pone domande decisamente più pratiche, come ad esempio “perché avere una tecnologia che non ci fa più distinguere la realtà dall’illusione? A cosa gioverebbe? (chiaro riferimento al deep face). Per non parlare oi dei traumi che sta portando nel mondo del lavoro, come ad esempio la scoperta che Amazon faceva assunzioni tramite algoritmo, cosa che ha mostrato grossi problemi di reclutamento verso le donne di etnie diverse da quella caucasica. C’è da chiedersi se questi errori però non siano appunto bug dovuto a un’imperfezione della tecnologia, e non a un problema intrinseco della tecnologia stessa, come i cosiddetti etici sembrano voler sostenere.

I punti chiave…

  • il dibattito sull’intelligenza artificiale si sta concentrando attraverso 4 distinte scuole di pensiero;
  • i doomer, coloro che temono ci porterà all’estinzione;
  • gli utopisti, i quali credono che cambierà il mondo in positivo;
  • i safety, i quali pensano che vada seguita e controllata imponendo dei paletti;
  • gli etici, i quali ritengono che già da ora stia dando grandi problemi.