Qualcuno le ha provate? (1 Viewer)

marofib

Forumer storico
gia', dopo 2 ore che giro ho la medesima domanda (o meglio..c'e ma non come voglio io)..e risposte ambigue
How to use multi inputs or multi features for RNN or LSTM
How to feed my time series LSTM and predict historical data with multiple features using keras API?
Data Shape / Format for RNNs with Multiple Features

quindi se qualcuno trova un codice funzionante, non da debuggare , quindi sicuro....perche' non posso permettermi altri dubbi sul funzionamento che gia' ha problemi di suo....lo metta che stiamo tutti prima, Grazie
 
Ultima modifica:

marofib

Forumer storico
cmq non penso di risolverla la cosa
dovrei usare una matrice 3D e in giro si trovano esempi al max 2D e 1 attributo (a volte qualcuno di + ma vivono di vita propria, non confluiscono in una classe/regressione di destinazione)

e' ovvio che sia anche cosi'.....un foglio.csv ecc....contiene 2D(a meno di formattazione da interpretare)...quindi nessuno postera' un esempio simile

le RNN guardano si indietro ..con uno step da decidere...ma non ho visto applicare equazioni agli attributi/features...quindi es. se voglio farci una somma o qualsiasi cosa con finestra mobile tot.....non lo saprei fare
sarebbe invece semplice se accettasse una matrice 3D ma con ste matrici sono impazzito da quando ho aperto il thread,
Con le immagini invece il problema si risolve in partenza, dove con x,y e colore rappresento quello che voglio
Purtroppo non ha funzionato

C'e' da aggiungere, se ci fosse una ragionevole probabilita' che funzioni sta roba...si va sul sito freelance ecc....e si paga uno che risolva.....ma cosi':D ...serve una grande fede
 
Ultima modifica:

marofib

Forumer storico
boh, ho provato L2 ma + meno siamo li'...pare ci metta + tempo ad addestrarsi e questo era in preventivo
anche in questo caso col training peggiora...quindi ancora overfitting
ora chi cavolo debugga sta roba....o ci si fida o no...e io tendo + al no
meglio pensare al rasoio di occam....meglio trovare algoritmi + semplici....o fra qualche anno con funzioni + ad alto livello(sono solo 2 anni che e' esplosa sta mania)...perche' qui sbagliare un'impostazione e' un nanosecondo e l'errore non si trovera' mai

e cmq al momento, forse e' meglio dirottarsi su keras...per il motivo detto sopra

TensorFlow or Keras? Which one should I learn? – Imploding Gradients – Medium
 
Ultima modifica:

marofib

Forumer storico
mi era sfuggito sto affare in java Deeplearning4j: Open-source, Distributed Deep Learning for the JVM quindi anche in Weka
ora c'e' ancora qualche conflitto mi sa, ma se il paziente verra' stabilizzato, diventera' tutto + semplice, quindi anche qua penso che basta aspettare
ricordo che Weka si lancia anche da riga di comando....per cui basta scrivere una stringa e il discorso e' fatto
a volte e' anche lunga pero' :D...ma e' un caso raro...ma meglio essere pronti..non voglio generare false aspettative come il video di youtube

CODE]Comando CLI:

ava -Xmx8G -cp "C:\Program Files\Weka-3-8\weka.jar" weka.Run .Dl4jMlpClassifier \
-S 1 \
-iterator "weka.dl4j.iterators.ImageDataSetIterator -height 28 -imagesLocation filepath_to_images -numChannels 1 -bs 1 -width 28" \
-layer "weka.dl4j.layers.OutputLayer -activation \"weka.dl4j.activations.ActivationSoftmax \" -adamMeanDecay 0.9 -adamVarDecay 0.999 -biasInit 1.0 -l1Bias 0.0 -l2Bias 0.0 -blr 0.01 \
-dist \"weka.dl4j.distribution.NormalDistribution -mean 0.001 -std 1.0\" -dropout 0.0 -epsilon 1.0E-6 -gradientNormalization None -gradNormThreshold 1.0 -L1 0.0 -L2 0.0
-name \"Output layer\" -lr 0.01 -lossFn \"weka.dl4j.lossfunctions.LossMCXENT \" -momentum 0.9 -rho 0.0 -rmsDecay 0.95 -updater NESTEROVS -weightInit XAVIER" \
-logFile C:\Users\Modelling\Desktop -numEpochs 10 -algorithm STOCHASTIC_GRADIENT_DESCENT \
-output-debug-info
[/CODE]


su LSTM invece penso che comprero' la soluzione..voglio togliermi rapidamente la curiosita'
 
Ultima modifica:

marofib

Forumer storico
questo pare convinto : cnn meglio di lstm CNN TSC by RobRomijnders
ha detto che va su tutte le serie UCR (la versione LSTM )...un archivio da 340 mb
ora vedo come e' fatto sto archivio per vedere se fa al caso mio

per girare il codice gira subito, ed e' gia' una cosa rara
l'archivio e' in un formato non immediatamente comprensibile...domani lo apro in esecuzione e vedo quanti attributi ha...perche' se 1 non ci faccio niente

cristo + largo che lungo quasi hahaahaaah....bene quindi farebbe al caso ns il codice...in teoria
UCR_TS_Archive_2015/ChlorineConcentration/ChlorineConcentration
(1920, 166) e 3 classi
ocio che il training e' il 20%...di solito e' il contrario e il drop out sicuramente da cambiare (forse 0.5)..mentre l'altra roba per l'overfitting L2, giustamente l'ha inserita di serie/predisposta (mancava nelle immagini)

tocco ferro, ma con questo si risolve, e il tipo pare sapere il fatto suo
 
Ultima modifica:

marofib

Forumer storico
bon il codice gira, domani da fresco vedo dove e' sparito parte del database in test..che non ha letto tutto..ma e' un dettaglio...importante e' che giri
tra l'altro devo anche attivare il taglio overfitting



manca sess.close...alla fine altrimenti non si rilancia..e cmq va rilasciata la memoria
nella regolarizzazione c'e' la riga conv3 che va tolta e un'altra cosa che ho segnalato all'autore
il database test viene diviso in 2 quindi ok

Immagine.gif
 
Ultima modifica:

marofib

Forumer storico
ho fatto un po' di giri ancora con la CNN (c'e' anche il fIle LSTM ma al momento sono demotivato)...niente da lasciar il fiato...ho usato anche gli attributi + interessanti e fa fatica
il codice poi per essere "usabile" ha bisogno di interventi pesanti
il problema che avevo riscontrato in passato si ripresenta...cioe' con pochi dati non ha la capacita' di generalizzare (consiglio vivamente SVM in questi casi)
non metto le mani sul fuoco su cosa accadrà con tanti, ma per il mio uso...dove devo trarre soluzioni con pochi ...non va bene (IMHO)
visto quasi le 2 settimane di lavoro...faro' ancora controlli..perche' devo essere certo di cosa sto lasciando
ma siccome da noi c'e' il detto ..." del maiale non si butta niente"...probabilmente in qualche posto avra' la sua gloria
se qualcuno fa delle controprove, con idee diverse, sarebbe interessante...magari toppo io..anzi sicuramente

alla fine resta il fatto che un umano, messo davanti a un database, dove sa cosa ha in mano, estrae soluzioni molto + efficacemente....quindi la vedo dura far fare TS da 0 a sti affari(completarli si) ....almeno a breve
per il riconoscimento degli oggetti, essendo impossibile addestrarle umanamente, si trovano in giro reti gia' pre-addestrate.....quindi il problema e' rilevante


Immagine.gif
 
Ultima modifica:

marofib

Forumer storico
cristo, stessi dati, Dynamic time warping - Wikipedia, MA poteva essere anche la correlazione, una soglia e una finestra che decido(ok qui c'e' un po' di futuro ma nemmeno tanto, e' 1 anno che non tocco)
quindi un loop a cercare pattern simili
non mi puo' venir a dire che non trova niente, cribbio


Immagine.gif
 

Users who are viewing this thread

Alto