Novità

Python - Addestramento rete neurale

entro nel dettaglio e ti rispondo :
sono parametri che sto variando di test in test in verità sono alla Beta 21 e ho potuto verificare che i range bassi di impostazione hanno sempre piu successo nel breve periodo e come anche le ruote

1. L'addestramento si basa sempre sul prevedere i numeri in base all'estrazione precedente? Cioè input = estr. precedente e output = estr. successiva?​

Sì, nel codice fornito, il modello LSTM è progettato per prevedere i numeri dell'estrazione successiva sulla base delle estrazioni precedenti.

Nella funzione carica_dati, viene creato un array X (input) che consente di raccogliere i dati delle estrazioni precedenti, e un array y (output) che corrisponde ai numeri dell'estrazione successiva.

Ecco come viene fatto:

Codice:
X, y = [], []
for i in range(len(numeri_normalizzati) - num_estrazioni):
    X.append(numeri_normalizzati[i:i + num_estrazioni])  # Estrazione precedente
    y.append(numeri_normalizzati[i + num_estrazioni])     # Estrazione successiva

Quindi, l'input consiste nelle estrazioni precedenti e l'output è l'estrazione successiva, come descritto nella tua domanda.

Sì, nella funzione crea_modello, ci sono specifiche riguardo alla configurazione del modello LSTM.

Dettagli della configurazione del modello:​

  • Numero di neuroni:
    • Il primo layer LSTM ha 128 neuroni.
    • Il secondo layer LSTM ha 64 neuroni.
  • Dropout:
    • È presente un layer Dropout dopo il primo layer LSTM, con un tasso di dropout del 30% (0.3).
    • Un secondo layer Dropout con un tasso di dropout del 20% (0.2) segue il secondo layer LSTM.
  • mano mano li modifico

Codice:
def crea_modello(X_train, y_train):
    model = Sequential()
    model.add(Input(shape=(X_train.shape[1], X_train.shape[2])))
    model.add(LSTM(128, return_sequences=True, kernel_regularizer=tf.keras.regularizers.l2(0.01)))
    model.add(Dropout(0.3))
    model.add(LSTM(64, kernel_regularizer=tf.keras.regularizers.l2(0.01)))
    model.add(Dropout(0.2))
    model.add(Dense(y_train.shape[1]))

    # Compilazione del modello
    model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.001), loss='mean_squared_error')
    return model

Inoltre:

  • Loss Function: La funzione di perdita utilizzata è mean_squared_error, che è comune per i problemi di regressione.
  • Ottimizzatore: Stai usando l'ottimizzatore Adam con un tasso di apprendimento di 0.001.
Nel complesso, la creazione del modello può essere visto come una scelta progettuale importante nel contesto del deep learning e potrebbe essere ulteriormente sintonizzato in base alla prestazione realistica e ai risultati del tuo specifico dataset.

nell'insieme è abbastanza stabile per quanto riguarda le ambate e l'ambo a tutte ,le ruote piu gettonate sono Bari Napoli Palermo cosa che ho potuto verificare negli ultimi 6 mesi del 2024 .

a tempo perso ne vale la pena .
 
Ti ringrazio per la risposta rapida e per aver condiviso il codice del modello 👍. Se non fosse per te probabilmente mi sarei già arreso perché con questo linguaggio di programmazione faccio fatica👋
 
per quanto la regola vuole che si debba evitare assolutamente l'overfitting i Test condotti parlano spesso un'altra lingua.
l'overfitting è un'arma a doppio taglio, se da un lato tende al sovrapprendimento dall'altro tende a valorizzare nei negli estremi
dello scalare (Regressioni di tipo neurale) ottimi valori, sia per previsione che per convergenza con analisi che fanno uso di Early Stopping.
qui sotto un recente esempio su BARI(e non è l'unico) dove l'overfitting abbondantemente raggiunto anche prima dei 3000 cicli d'apprendimento confermava l'ambo secco 72 24 al 2° C.
cosa non perfettamente indicata dall'analisi con Early stopping a causa degli arrotondamenti sui decimali.


CON EARLY STOPPING
RISULTATI TEST BARI - FINE DATA ANALISI 16/01/2025
Arresto dell'apprendimento alla fine dell'epoca 253:
val_loss / loss = 0.2963 < 0.3
4/4 [==============================] - 0s 16ms/step - loss: 197.4619 - val_loss: 58.5025
1/1 [==============================] - 1s 686ms/step
Mean Squared Error for combined activations: 79.16
1/1 [==============================] - 0s 16ms/step

Nuove previsioni ordinate per residui con combinazione di attivazioni:

Step 91: 71.18065 - Res. -14.81935 > 71 - 72 *
Step 92: 71.05766 - Res. -9.94234 > 71 - 72
---
---
Step 119: 23.05157 - Res. 17.05157 > 23 - 24
Step 120: 23.03194 - Res. 22.03194 > 23 - 24 *




OVERFITTING
RISULTATI TEST BARI - FINE DATA ANALISI 16/01/2025
Epoch 3000/3000
1/4 [======>.......................] - ETA: 0s - loss: 74.8700Epoca 3000: val_loss / loss = 0.6659
4/4 [==============================] - 0s 21ms/step - loss: 92.9178 - val_loss: 61.8760
1/1 [==============================] - 1s 686ms/step
Mean Squared Error for combined activations: 82.48
1/1 [==============================] - 0s 31ms/step

Nuove previsioni ordinate per residui con combinazione di attivazioni:

Step 91: 71.58099 - Res. -14.41901 > 71 - 72 *
Step 92: 72.06335 - Res. -8.93665 > 72 - 73
---
---
Step 119: 24.21080 - Res. 18.21080 > 24 - 25
Step 120: 24.16055 - Res. 23.16055 > 24 - 25 *
 
Ultima modifica:
Aggiungo un secondo test
aggiornamenti al codice con un addestramento serrato.

il test prevede:
ambo su ruote prefissate PRINCIPALI E SECONDARIE

si tratta solo di un test lo ricordo .

Screenshot-3.png

Ambo su Venezia!!! Grande Lottopython. Peccato che non l'ho giocata oggi
arriva al 2 cp l'ambo su Napoli 81.82
 
continua l'addestramento ed il TEST con una nuova evoluzione..
la ruota di Firenze potrebbe essere oggetto di ambate
ruote interessate :Firenze Bari .Napoli .Nazionale
ambate principali 58 .46
/
attenzione al 53 su nazionale forse colpo secco
abbinamenti .52.54 il tutto solo sulle ruote previste allego immagini anche Firenze interessata



010.png
anche qui l'ambo a Venezia Tutte 44.58 difficile beccare la ruota ve nz ba na rimangono sempre nelle top ten
 
Squadra che vince non si cambia..
il precedente beta 3
ha sfornato due ambi secchi uno dietro l'altro su ruote previste

inserisco la nuova .sarebbe assurdo..provo a crederci.:rolleyes:
le ruote da controllare sono VE.NA

Screenshot-5.png
 
Ultima modifica:
Non riuscende in alcun modo ad utilizzare Python, o meglio l'installazione va a buon fine ma le librerie hanno problemi, per me insormontabili, nell'installazione. Allora mi sono chiesto quanti imbranati come me ci sono? Spero pochi, ma qualcosa mi dice...
La domanda successiva è stata: è possibile usare codice Python senza Python:

Google Colab è una piattaforma gratuita che ti consente di scrivere ed eseguire codice Python nel tuo browser. Non richiede alcuna installazione e offre un ambiente di sviluppo basato su Jupyter Notebook. Puoi importare librerie Python come pandas, numpy, tensorflow, e molto altro, senza dover installare nulla localmente.
  • Vantaggi:
    • Ambiente Python completamente configurato.
    • Supporto per GPU e TPU per operazioni computazionali intensive.
    • Facilità di condivisione e collaborazione.
  • Limitazioni: La connessione a Internet è necessaria e c'è un limite alle risorse (es. tempo di esecuzione per sessione).
  • Io non ci ho capito nulla, se qualcuno vuole provare...
  • Allora mi sono chiesto, rompendo gli zibidei al prossimo, è possibile che, in qualche modo possano condividere le loro creazioni?
  • La risposta: Sì e no. Python è richiesto per eseguire python, ma non è necessario averlo installato sul sistema. PyInstaller può raggruppare tutto il codice, le dipendenze e python stesso in una directory distribuibile o in un singolo file .exe.
    Usare linux che ha già preinstallato (di solito) Python

    È veramente possibile?
    Ai pythoniani l'ardua sentenza

    Baciccia l'handicappython
 
@Baciccia4251 per installare le librerie devi andare nel prompt dei comandi e scrivere pip install nome_della_libreria. Ad esempio per pandas devi scrivere pip install pandas e premere invio.
Anche io all'inizio ho avuto difficoltà ma se chiedi a chatgpt ti dice tutti i passaggi
 
@Baciccia4251 per installare le librerie devi andare nel prompt dei comandi e scrivere pip install nome_della_libreria. Ad esempio per pandas devi scrivere pip install pandas e premere invio.
Anche io all'inizio ho avuto difficoltà ma se chiedi a chatgpt ti dice tutti i passaggi
Qullo l'ho fatto. Il problema nasce con Tensor (o qualcosa del genere) che non viene trovato per la versione installata. Installata quella consigliata dall'AI è successo un casino allucinante, e non funzionava.
Ora, se riesco, installo Linux in una macchina virtuale (dico se riesco, perchè VirtualBox sembra avere qualche problema, prima usavo, era a gratis, Vmware e tutto funzionava meravigliosamente.
Da quel poco che ricordo Python su linux funziona bene.
Vedremo
Bacicciuk
 
Qullo l'ho fatto. Il problema nasce con Tensor (o qualcosa del genere) che non viene trovato per la versione installata. Installata quella consigliata dall'AI è successo un casino allucinante, e non funzionava.
Ora, se riesco, installo Linux in una macchina virtuale (dico se riesco, perchè VirtualBox sembra avere qualche problema, prima usavo, era a gratis, Vmware e tutto funzionava meravigliosamente.
Da quel poco che ricordo Python su linux funziona bene.
Vedremo
Bacicciuk
Tensorflow si può usare solo con python 3.9 e 3.10. Se hai installato una versione successiva di python, Tensorflow non funzionerà.
 
Tensorflow si può usare solo con python 3.9 e 3.10. Se hai installato una versione successiva di python, Tensorflow non funzionerà.
Ho letto parecchio su Tensorflow. E il problema si presenta regolarmente ad ogni nuova edizione di Python, a volte anche più edizioni:
"
Sto usando Arch Linux e non riesco ad aggiornare le kera all'ultima versione a causa della sua dipendenza di tensorflow che è ancora inutilizzabile perché non è supportato in pitone 3.13.
Quindi devo aspettare che il team lo renderà compatibile con il pitone 3.13 per utilizzare kera aggiornato.
Questo è ogni anno un problema. - Si tratta di un'articolo
"
La traduzione maccheronica è di google.
Avevo disinstallato la 3.13 e installatoo la 3.9 ma parti della 3.13 erano ancora presenti e rompvano le cosiddete...
Ho reinstalla Windows per correggere i casini di Python (approffittando anche del fatto che era parecchio che non lo facevo).
Ho installato Office 2024 che supporta funzioni Python (alcune).
Ho anche provato ad utilizzare Excel per fare qualcosa di simile, anche se tarpato di parti importanti, ma il risultato non mi ha sodisfatto, d'altra parte una parte del codice di Python per analizzare i dati, non è diversa da quella utilizzata in alcuni fogli, manca la parte di "Addestramento e analisi approfondita di alcuni parametri" quindi i risultati sono monchi. Ad esempio a Venezia indicava l'82, ma non c'era traccia del 44.
Proverò su Linux dove installare e disinstallare programmi è forse un po' più complesso, ma funziona bene.
LinuxPhituniani a noi
bACICCIO pASTICCIO
 

Ultima estrazione Lotto

  • Estrazione del lotto
    martedì 21 gennaio 2025
    Bari
    78
    09
    70
    03
    23
    Cagliari
    32
    88
    30
    13
    45
    Firenze
    87
    23
    15
    39
    86
    Genova
    71
    48
    67
    59
    23
    Milano
    58
    50
    80
    85
    29
    Napoli
    90
    81
    79
    82
    62
    Palermo
    70
    33
    90
    05
    10
    Roma
    15
    71
    55
    85
    76
    Torino
    89
    09
    18
    33
    69
    Venezia
    44
    80
    82
    73
    58
    Nazionale
    80
    25
    13
    63
    17
    Estrazione Simbolotto
    Bari
    39
    36
    34
    14
    31
Indietro
Alto