È tempo di riflettere attentamente su ciò che è diventato un argomento cardine del nostro tempo. L’intelligenza artificiale continua a far discutere, soprattutto dopo lo sdoganamento arrivato grazie a ChatGPT, ma ora ci sono anche esperti del settore che sembrano voler prenderne le distanze. Spunta un documento firmato da professionisti dell’IA i quali addirittura affermano che tale tecnologia può portare all’estinzione dell’uomo.

Il documento firmato

Una firma congiunta da parte di alcuni tra i più importanti esperti nel campo dell’intelligenza artificiale.

Colpo di scena, tra i firmatari c’è anche Sam Altman, il co-fondatore di OpenIA, l’azienda che ha lanciato ChatGPT. Altman aveva già parlato qualche settimana fa al senato americano confermando la sua disponibilità a collaborare con le autorità al fine di regolamentare la sua intelligenza artificiale. C’era chi aveva visto in questa decisione una mussa furba, al fine di accattivarsi le autorità e trarre giovamento per la sua creatura. Ora però si potrebbe dare un’interpretazione diversa a tale scelta, visto che i passi indietro di Altman proseguono e lo fanno addirittura affermando che questa tecnologia può rivoltarsi contro l’uomo.

Oltre al CEO di OpenAI ci sono Demis Hassabis, ceo di Google DeepMind, e Dario Amodei, ceo di Anthropic. Sono tanti altri però i nomi di coloro che hanno firmato il documento intitolato: We’ve released a statement on the risk of extinction from AI, lanciato su Twitter attraverso l’account Center for AI Safety. Michael Osborne, professore di machine learning all’Università di Oxford, è un altro dei firmatari. Il professore afferma:

“È davvero notevole il fatto che così tante persone abbiano firmato questa lettera. Questo dimostra che c’è una diffusa presa di coscienza, tra chi di noi lavora nel campo dell’AI, che i rischi esistenziali sono una preoccupazione concreta”.

Cosa sta succedendo? Siamo finiti in un romanzo di Arthur C.

Clarke, l’autore del romanzo 2001, odissea nello spazio? Davvero l’intelligenza artificiale può portarci all’estinzione?

Peggio di una pandemia?

Non è che stiamo un po’ esagerando? Il documento paragona le possibili conseguenze dell’intelligenza artificiale ai livelli di una pandemia o addirittura di una guerra nucleare. Si fa chiaro riferimento al fatto che tale tecnologia possa portare all’estinzione. Ma com’è possibile tutto ciò? Il testo recita:

“Mitigare il rischio di estinzione per mano dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.

Tra i firmatari c’è anche Geoffrey Hinton, il cosiddetto padrino dell’IA, colui che aveva abbandonato Google proprio perché, lavorando allo specifico ramo dell’intelligenza artificiale, aveva deciso di essere in disaccordo con alcuni progetti del colosso di Mountain View. La domanda dell’uomo di strada, a questo punto, nasce spontanea. Se l’intelligenza artificiale, a detta di questi stessi esperti che ci lavorano, è così pericolosa, perché continuare a perseguirla?

Intelligenza artificiale, è davvero indispensabile?

I processi tecnologici non possono arrestarsi, una volta messi in moto. In realtà, abbiamo già visto che i vantaggi dell’IA sono enormi, ma naturalmente non mancano le controindicazioni. Insomma, è il solito discorso di pro e contro. Avviare una riflessione seria e costruttiva sulla questione è probabilmente il grande imperativo categorico di questa fase storica. La riflessione dovrà scandagliare ogni dettaglio della questione, al fine di scongiurare possibili conseguenze nefaste. Il successo di OpenAI va quindi inserito all’interno di uno scenario probabilmente necessario, ma allo stesso tempo pericoloso, ed è per questo che intellettuali ed esperti del settore devono dialogare tra loro al fine di evitare la catastrofe… sperando non sia già stata annunciata.

Riassumendo…

  • L’intelligenza artificiale è un vantaggio, ma anche un pericolo;
  • gli esperti avvisano, c’è addirittura il rischio di portare l’uomo all’estinzione;
  • è necessario che i diretti interessati riflettano sulle possibili conseguenze dell’IA, al fine di scongiurarne i pericoli.