Number of players=zero. And wins (1 Viewer)

AndrewLR

Nuovo forumer
Non ho capito il tuo dubbio.

Beh, stiamo dicendo che non sappiamo cosa sia “AI” o se possa esistere, dire che conosci sistemi di progettazione di AI mi sembra un paradosso.


Che bello!!!

Mi piacerebbe troppo avere la forza e la voglia di tornare a quel campo. Ma credo anche siano andati troppo avanti, per me.

Penso che la voglia sia la parola chiave, anche per Elisabetta :p

In verita’ diverse cose di Deep Learning con le giuste librerie sono relativemente facili da fare. Non sarebbe ricerca per se’, ma in certi ambiti si puo’ arrivare vicini al cutting edge abbastanza facilmente.


Hai ragione, mi sto facendo vecchia, ed in verità non saprei argomentare meglio con il poco tempo e la poca fantasia che mi ritrovo.

Se sei un programmatore dovresti intuire il mio punto di vista, altrimenti veramente non saprei come rendere l'idea.

Sarebbe un po' come pensare ad un algoritmo, creato da un uomo, capace di prendere il controllo dello stesso uomo.

Lo vedo impossibile.


Credo sia impossibile per noi creare un AGI, sempre per il solito secondo teorema di incompletezza di Goedel.


Un passo avanti sostanziale lo si potrebbe fare utilizzando qualcosa di diverso dall'elettronica, ma veramente andiamo nella fantascienza.

Tipo "cervello positronico", per citare un mio mito che aveva capito tutto con decadi di anticipo. Anche "quantitativamente" parlando.


Ok, era un commento un po’ diverso da quello che immaginavo.

Credo di avere una comprensione limitata del teorema, ma personalmente non lo vedo come un limite all’AGI - considero la matematica come una schema che torna molto utile a descrivere certe dinamiche, meno a descrivere altre.

Anzi, penserei che la via che potrebbe portare ad un AGI richieda inputs da campi molto diversi fra di loro (e sarebbe proprio su questo, e sugli inputs al contrario che si possono trasmettere ad altri campi partendo da AI, che vorrei concentrarmi).
Poi da un altro punto di vista, a meno di credere in qualcosa di trascendentale, siamo fatti di “materia” e l’intelligenza e’ frutto dell’evoluzione – non implica che possiamo “crearci” un giorno, ma mi farebbe pensare di si’.

Una cosa che ho trovato interessante – alcuni risultati che si stanno ottenendo (per esempio il cosiddetto style transfer per immagini), non si capisce esattamente a cosa siano dovuti.


Tipo? Che pericoli vedi?

Non sono strettamente dovuti ad AI, ma AI un po’ li acuisce. Modelli odierni (+ internet, computing power, robotics, dati, e in generale aumento improvviso in capacita’ tecnologiche) consentono di trasformare la societa’ e di generare molta ricchezza – se questi sono appannaggio di poche societa’, si vengono a creare dinamiche e squilibri pericolosi, che potrebbero solo peggiorare nel tempo. Piu’ problem di privacy e ethics, che reputo parecchio sotto-valutati.

In generale, vedo una societa’ che sta cambiando velocemente, e una sorta di evoluzione sociale con passaggio di potere da nazioni (lente a muoversi) a compagnie. Il che si ricollega al discorso su basic universal income e magari il libero mercato, che forse eviterei :)
 

GiuliaP

The Dark Side
Beh, stiamo dicendo che non sappiamo cosa sia “AI” o se possa esistere, ...

Ma chi? Dove?

L'AI è ben determinata ed esiste! Senza il minimo dubbio, visto tra l'altro che l'abbiamo definita noi.

Non mi farai mica linkare Wikipedia?

Anzi, penserei che la via che potrebbe portare ad un AGI richieda inputs da campi molto diversi fra di loro (e sarebbe proprio su questo, e sugli inputs al contrario che si possono trasmettere ad altri campi partendo da AI, che vorrei concentrarmi).
Poi da un altro punto di vista, a meno di credere in qualcosa di trascendentale, siamo fatti di “materia” e l’intelligenza e’ frutto dell’evoluzione – non implica che possiamo “crearci” un giorno, ma mi farebbe pensare di si’.

Quel teorema è un'opera d'arte immensa, ma se vuoi sorvolare sulla matematica, almeno prendi coscienza di un concetto molto più semplice: per quanto ci sia materia, intelligenza ed evoluzione, abbiamo i nostri limiti invalicabili. Senza ombra di dubbio.

Non sono strettamente dovuti ad AI, ma AI un po’ li acuisce. Modelli odierni (+ internet, computing power, robotics, dati, e in generale aumento improvviso in capacita’ tecnologiche) consentono di trasformare la societa’ e di generare molta ricchezza – se questi sono appannaggio di poche societa’, si vengono a creare dinamiche e squilibri pericolosi, che potrebbero solo peggiorare nel tempo. Piu’ problem di privacy e ethics, che reputo parecchio sotto-valutati.

In generale, vedo una societa’ che sta cambiando velocemente, e una sorta di evoluzione sociale con passaggio di potere da nazioni (lente a muoversi) a compagnie. Il che si ricollega al discorso su basic universal income e magari il libero mercato, che forse eviterei :)

Io la penso in modo diametralmente opposto: credo che l'AI, come l'automazione in generale, non faranno altro che migliorare globalmente la qualità della vita.
Ma hai ragione, meglio evitare.

In ogni caso la mia tranquillità era riferita al timore di erny riguardo una possibile "ribellione delle macchine".
Personalmente la vedo impossibile.
 

AndrewLR

Nuovo forumer
Ma chi? Dove?

L'AI è ben determinata ed esiste! Senza il minimo dubbio, visto tra l'altro che l'abbiamo definita noi.

Non mi farai mica linkare Wikipedia?

Mmh, abbiamo creato delle definizioni di caratteristiche (piu' o meno ben definite) che deve avere e dei tests da passare.

Hai appena detto che non credi che possiamo arrivarci, non si sa come e che forma debba avere - la mia era solo un'osservazione sul paradosso della frase "conosco le tecniche di progettazione delle AI" che immaginavo ti fosse uscita cosi'.

Quel teorema è un'opera d'arte immensa, ma se vuoi sorvolare sulla matematica, almeno prendi coscienza di un concetto molto più semplice: per quanto ci sia materia, intelligenza ed evoluzione, abbiamo i nostri limiti invalicabili. Senza ombra di dubbio.

Ma che signfica :D

Io la penso in modo diametralmente opposto: credo che l'AI, come l'automazione in generale, non faranno altro che migliorare globalmente la qualità della vita.
Ma hai ragione, meglio evitare.

In ogni caso la mia tranquillità era riferita al timore di erny riguardo una possibile "ribellione delle macchine".
Personalmente la vedo impossibile.
Si', infatti parlavo di altro. Riguardo l'AI in se', personalmente non vedo come sia possibile pronunciarsi in modo deciso su possibili esiti, quando di nuovo non si ha idea di che forma avra' o come ci si arrivera'.

Ma a quanto ho capito per te non ci si arriva, quindi ci sta che stiamo scialli, ma non so di che stiamo parlando allora :)

Comunque, non vedo abbastanza basi in comune su cui confrontarsi o modi per me di estrarre valore dalla conversazione, quindi ti saluto :)
 

GiuliaP

The Dark Side
Mmh, abbiamo creato delle definizioni di caratteristiche (piu' o meno ben definite) che deve avere e dei tests da passare.

Hai appena detto che non credi che possiamo arrivarci, non si sa come e che forma debba avere - la mia era solo un'osservazione sul paradosso della frase "conosco le tecniche di progettazione delle AI" che immaginavo ti fosse uscita cosi'.

Hai fatto un bel po' di confusione (per non dire di mischia francesca).

E ti basterebbe quotare quello che tu pensi io abbia detto, per capirlo.

Comunque, non vedo abbastanza basi in comune su cui confrontarsi o modi per me di estrarre valore dalla conversazione, quindi ti saluto :)

E qui hai colto in pieno il bersaglio.

Un caro saluto! ;)
 

AndrewLR

Nuovo forumer
A cosa pensi?

Ciao Cren! Le aree che vedo piu' accessibili vengono in generale da Computer Vision e NLP, cioe' quelle che probabilmente hanno fatto piu' balzi in avanti con deep learning. Pictures recognition e vari usi "base" di NLP sono a portata - ci sono tanti esempi opensource (benedetti nerds :) ), un framework chiamato Keras Documentation facilita molto la vita e rende facile integrare modelli che usano immagini / testo per fare altro. Poi fare un paio di passi ulteriori ti porta a modelli generativi.

Se sei interessato a studiare, personalmente ho trovato buono attingere dal corso di Andrew NG (piu' teorico) e questo fast.ai · Making neural nets uncool again (molto bottom-up)- nella seconda parte di fast.ai puoi vedere esempi di cutting edge.

Non sono purtroppo in grado di commentare bene su altri ambiti e approcci al momento (e.g. il reinforcement learning dietro AlphaGo)
 

Paolo1956

Forumer attivo
A me mette una paura fottuta....speriamo sia realmente più intelligente di noi.

Allora, potresti anche venirci a salutare qualche volta di la ber mi buo di ulo.......:)

Dunque io non credo che i problemi possano venire la li, almeno in tempi che ci riguardano.

Credo piuttosto che in questi argomenti di frontiera ci si ponga spesso la domanda sbagliata perché i problemi magari vengono da un'altra parte.

Faccio una esemplificazione:

a) quando ero alle elementari ci insegnavano la prova del nove perché l'errore più facile del bimbetto era sbagliare la tabellina o il riporto

b) da giovane ho lavorato in una amministrazione. Quando facevo le strisciate alla calcolatrice mi insegnarono a ripetere due volte l'operazione perché l'errore più comune è il cosiddetto girellino : 1234 scritto 2134 ad es.
E' proprio un bug del nostro cervello e tra l'altro la prova del nove non funzionerebbe in questo caso, come sa chi conosce l'aritmetica modulare.

c) l'altro giorno sono diventato scemo a trovare un errore in una routine che ogni tanto mi dava errore "Index out of range". Era una variabile locale che sotto certe condizioni veniva riusata senza considerare che quando esci da un for/next la variabile vale 1+il valore max. (E' tra l'altro un sistema per iniettare un codice malevolo)

Esempi scemi, ma per dire, quando cambia il quadro di riferimento cambiano i problemi ed è difficile capirli in anticipo.

Questo naturalmente va visto nella gestione di un sistema enormemente complesso.

Altro problema, ma collegato è quello che potrebbe derivare da attacchi informatici, e qui Stuxnet potrebbe essere solo un rudimentale antipasto.

By
 

GiuliaP

The Dark Side
Dunque io non credo che i problemi possano venire la li, almeno in tempi che ci riguardano.

Proprio ieri mi sono ritrovata a leggere un articolo tecnico molto bello sulla guida automatica, ed ho ripensato ai timori Matrix style.

Direi che lo stato attuale dell'arte dell'AI sia proprio la conduzione automatica. Un piccolo capolavoro che coinvolge diverse tipologie di problemi della disciplina.

Vista l'estrema complessità, instabilità, e fragilità del progetto, mi sembra un ottimo esempio per far capire quanto sia lontana e improbabile una eventuale "ribellione delle macchine".

Su problemi bug e hack il discorso cambia, ma avendo vissuto in passato anche esperienze significative di automazione industriale, posso essere abbastanza fiduciosa sul fatto che anche l'AI non porterà altro che un aumento significativo di sicurezza.

In altri termini, navi, aerei, automobili e quant'altro, saranno ben più sicuri guidati da algoritmi. E soprattutto sempre più sicuri.
 

Users who are viewing this thread

Alto