Number of players=zero. And wins (1 Viewer)

Sig. Ernesto

Vivace Impertinenza
First AlphaZero learned go, just by playing itself, becoming the world's best player in 40 days. Now it has taught itself to be the world's best chess player - crushing all others. And it did this in just 24 hours!

 

Allegati

  • 1712.01815.pdf
    621,6 KB · Visite: 455

GiuliaP

The Dark Side
First AlphaZero learned go, just by playing itself, becoming the world's best player in 40 days. Now it has taught itself to be the world's best chess player - crushing all others. And it did this in just 24 hours!


Grazie erny, molto bello!!! :up:

Lavorai molto all'università su questi concetti, veramente tanta nostalgia e ammirazione!!!
 

GiuliaP

The Dark Side
Perche' pensi questo?

Perché conosco le tecniche di progettazione delle AI. Ci ho fatto un dottorato, e neanche in Italia.

Affascinanti, come quella splendida postata da Erny.

Ma lontane non moltissimo, ma infinitamente, dal poter essere pericolose al di là di un semplice bug come quelli possibili in un qualunque software di controllo.

Per poter avere un minimo di timore di queste cose dovrei vedere quantomeno mettere mano a genetica e wetware (ma neanche!)
 

AndrewLR

Nuovo forumer
Perché conosco le tecniche di progettazione delle AI. Ci ho fatto un dottorato, e neanche in Italia.

Affascinanti, come quella splendida postata da Erny.

Ma lontane non moltissimo, ma infinitamente, dal poter essere pericolose al di là di un semplice bug come quelli possibili in un qualunque software di controllo.

Per poter avere un minimo di timore di queste cose dovrei vedere quantomeno mettere mano a genetica e wetware (ma neanche!)

Pensavo che avessimo bandito self-references come argomentazioni! :)

E scusami, per il tuo stesso punto, come fai a scrivere "conosco le tecniche di progettazione di AI" :D

Mi sono avvicinato al campo, e sto formulando un'ipotesi di ricerca per un dottorato. Concordo su quanto siamo lontani (ieri un tipo mi ha detto che crede di essere a meno di 10y di distanza da "AGI"…), ma ho trovato curiosa la tua affermazione - sembra che vedi delle condizioni necessarie, che non ho capito, per arrivarci?
Tralasciamo una definizione precisa del "dove" si dovrebbe arrivare.

Sulle situazione attuale – credo ci siano gia’ i presupposti perche’ la tecnologia possa essere molto pericolosa, non per la possibilita’ di avere robots che controllano gli umani, ma molto oltre rischi di avere semplici bugs. Ma e’ un altro discorso.
 

GiuliaP

The Dark Side
Pensavo che avessimo bandito self-references come argomentazioni! :)

Hai ragione, mi sto facendo vecchia, ed in verità non saprei argomentare meglio con il poco tempo e la poca fantasia che mi ritrovo.

Se sei un programmatore dovresti intuire il mio punto di vista, altrimenti veramente non saprei come rendere l'idea.
Sarebbe un po' come pensare ad un algoritmo, creato da un uomo, capace di prendere il controllo dello stesso uomo.
Lo vedo impossibile.

E scusami, per il tuo stesso punto, come fai a scrivere "conosco le tecniche di progettazione di AI" :D

Non ho capito il tuo dubbio.

Mi sono avvicinato al campo, e sto formulando un'ipotesi di ricerca per un dottorato.

Che bello!!!
Mi piacerebbe troppo avere la forza e la voglia di tornare a quel campo. Ma credo anche siano andati troppo avanti, per me.

Concordo su quanto siamo lontani (ieri un tipo mi ha detto che crede di essere a meno di 10y di distanza da "AGI"…), ma ho trovato curiosa la tua affermazione - sembra che vedi delle condizioni necessarie, che non ho capito, per arrivarci?
Tralasciamo una definizione precisa del "dove" si dovrebbe arrivare.

Credo sia impossibile per noi creare un AGI, sempre per il solito secondo teorema di incompletezza di Goedel.

Un passo avanti sostanziale lo si potrebbe fare utilizzando qualcosa di diverso dall'elettronica, ma veramente andiamo nella fantascienza.
Tipo "cervello positronico", per citare un mio mito che aveva capito tutto con decadi di anticipo. Anche "quantitativamente" parlando.

Sulle situazione attuale – credo ci siano gia’ i presupposti perche’ la tecnologia possa essere molto pericolosa, non per la possibilita’ di avere robots che controllano gli umani, ma molto oltre rischi di avere semplici bugs. Ma e’ un altro discorso.

Tipo? Che pericoli vedi?
 
Ultima modifica:

Users who are viewing this thread

Alto