Novità

Python

IRONIA DELLA SORTE??? si è ripetuto L'Ambo 10 13 anche al 2° C. :cool: del resto i primi 3 negativi parlavano chiaro con la terzina 13 35 10 . per non parlare degli estremi iniziali, finali, e al punto 00.000 21-20-13-66 .... basta controllare nei 2 colpi successivi.
Non capisco cosa giocheremo martedì
se puoi dirmi halmun
 
Project 1.618 : Deterministic - Work in progress.
l'esito successivo 40 - 49 è chiaro a tutti.

BARI - F.D. 25/10/2024 : num_epochs = 100
Foto 1 : window_size=1 / num_layers=05 / hidden_size = 10
Foto 2 : window_size=1 / num_layers=10 / hidden_size = 10
 

Allegati

  • MIX-2.jpg
    MIX-2.jpg
    97,9 KB · Visite: 31
FILE ALFA-3.PY
Io
puoi dirmi il significato di queste righe?
# Costruzione del modello model = Sequential() model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)) model.add(LSTM(15)) model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')) model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

Copilot
Certo! Queste righe di codice sono utilizzate per costruire e compilare un modello di rete neurale sequenziale in Keras. Vediamo il significato di ciascuna parte:
model = Sequential(): Questa riga crea un modello di rete neurale sequenziale, che significa che gli strati del modello sono impilati uno dopo l'altro.
model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. len(tokenizer.word_index) + 1 è la dimensione del vocabolario, e input_length=max_length specifica la lunghezza degli input.
model.add(LSTM(15)): Aggiunge uno strato di LSTM (Long Short-Term Memory) con 15 unità, utile per catturare dipendenze a lungo termine nei dati sequenziali.
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')): Aggiunge uno strato denso (completamente connesso) con len(tokenizer.word_index) + 1 unità di output e una funzione di attivazione softmax. Questo strato è solitamente usato per la classificazione.
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']): Compila il modello, specificando l'algoritmo di ottimizzazione adam, la funzione di perdita categorical_crossentropy, e la metrica di valutazione accuracy.
In sintesi, questo codice definisce un modello di rete neurale per la classificazione di sequenze di parole, lo compila, e lo prepara per l'addestramento. Se hai altre domande o vuoi saperne di più su una parte specifica, fammi sapere!

Io
ho bisogno di comprendere bene questa parte: *model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. *
domande:
1° cosa è embedding?
2° la dimensione del vettore è impostata a 10, ma la lunghezza massima delle parole nel range da analizzare (Input) è 16, mentre la lunghezza minima è 3.
non sarebbe meglio impostare 16 come lunghezza del vettore?

Copilot

Un "embedding" è una tecnica di rappresentazione vettoriale di oggetti, nel caso del tuo modello, parole. In pratica, mappa ogni parola (o indice) in uno spazio vettoriale continuo di dimensione specificata. Questo permette al modello di apprendere relazioni e similarità tra parole. Piuttosto che trattare ogni parola come una entità distinta e indipendente, l'embedding consente di catturare informazioni semantiche.
Ora, rispondiamo alle tue domande:
Cosa è un embedding?
L'embedding è una rappresentazione densa e a bassa dimensione di variabili categoriche come parole. Nel contesto delle reti neurali, consente al modello di apprendere rappresentazioni utili delle parole in base al contesto in cui appaiono. È come tradurre parole in numeri che la rete può processare e comprendere meglio.

Dimensione del vettore di embedding: 10 vs 16?
La dimensione del vettore di embedding (10 nel tuo esempio) non deve necessariamente corrispondere alla lunghezza delle sequenze di input (max_length è 16 nel tuo esempio). La dimensione del vettore di embedding rappresenta la dimensionalità dello spazio vettoriale in cui le parole verranno mappate, mentre input_length rappresenta la lunghezza delle sequenze di input trattate dalla rete.
Puoi sperimentare con diverse dimensioni del vettore di embedding. Dimensioni più grandi potrebbero catturare più informazioni semantiche, ma aumentano anche la complessità del modello. Una dimensione 10 è comune come punto di partenza, ma puoi provare 16 o altre dimensioni per vedere se migliorano le prestazioni del tuo modello.
Ricorda, l'arte del machine learning spesso implica trovare il giusto equilibrio e ottimizzare parametri attraverso tentativi ed errori. Non esiste una risposta perfetta unica per tutte le situazioni.

Se hai altre domande o vuoi approfondire ulteriormente, sono qui per aiutarti!
 

Allegati

  • ALFA-3.png
    ALFA-3.png
    141,5 KB · Visite: 21
ALFA-3.PY stessa data del post precedente. ( N.N. STABILE )
# Costruzione del modello
model = Sequential()
model.add(Embedding(len(tokenizer.word_index) + 1, 11, input_length=max_length))
# Default + 1, 10, ( con + 1, 11, vedere i primi 5 Res. Max. )
model.add(LSTM(15)) # Default LSTM (15)
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax'))
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
-----------------
passando a 1,11, non si rilevano variazioni fra Target e Output.
quindi in questo caso i più attendibili ricadono sui Residui Max. 10-66-49-58-67
Esiti: 10-66 al 1° C. + 10-49 al 2° C. + 67 al 3° C.
58 ancora in gioco.
 

Allegati

  • RESIDUI.jpg
    RESIDUI.jpg
    312,5 KB · Visite: 19
Ultima modifica:
Cux-7 : Energy-Target : .... nono ho fatto nemmeno in tempo a finire lo script che ..... :cool: da notare che fra le prime 5 posizioni dei residui MIN. hanno sfaldato in Terno solo quelle con l'Energy maggiore. ( Secco )
 

Allegati

  • 606366.jpg
    606366.jpg
    196,2 KB · Visite: 3
  • regr.jpg
    regr.jpg
    154,5 KB · Visite: 3
Ultima modifica:

Ultima estrazione Lotto

  • Estrazione del lotto
    martedì 12 novembre 2024
    Bari
    66
    59
    34
    63
    60
    Cagliari
    41
    79
    87
    82
    90
    Firenze
    25
    43
    01
    40
    47
    Genova
    80
    66
    13
    87
    73
    Milano
    77
    45
    12
    10
    47
    Napoli
    49
    72
    70
    88
    29
    Palermo
    41
    24
    88
    47
    57
    Roma
    28
    26
    67
    89
    17
    Torino
    08
    46
    68
    53
    49
    Venezia
    09
    05
    06
    45
    26
    Nazionale
    52
    72
    36
    58
    74
    Estrazione Simbolotto
    Torino
    23
    43
    12
    08
    11

Ultimi Messaggi

Indietro
Alto