Novità

Python

IRONIA DELLA SORTE??? si è ripetuto L'Ambo 10 13 anche al 2° C. :cool: del resto i primi 3 negativi parlavano chiaro con la terzina 13 35 10 . per non parlare degli estremi iniziali, finali, e al punto 00.000 21-20-13-66 .... basta controllare nei 2 colpi successivi.
Non capisco cosa giocheremo martedì
se puoi dirmi halmun
 
Project 1.618 : Deterministic - Work in progress.
l'esito successivo 40 - 49 è chiaro a tutti.

BARI - F.D. 25/10/2024 : num_epochs = 100
Foto 1 : window_size=1 / num_layers=05 / hidden_size = 10
Foto 2 : window_size=1 / num_layers=10 / hidden_size = 10
 

Allegati

  • MIX-2.jpg
    MIX-2.jpg
    97,9 KB · Visite: 50
FILE ALFA-3.PY
Io
puoi dirmi il significato di queste righe?
# Costruzione del modello model = Sequential() model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)) model.add(LSTM(15)) model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')) model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

Copilot
Certo! Queste righe di codice sono utilizzate per costruire e compilare un modello di rete neurale sequenziale in Keras. Vediamo il significato di ciascuna parte:
model = Sequential(): Questa riga crea un modello di rete neurale sequenziale, che significa che gli strati del modello sono impilati uno dopo l'altro.
model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. len(tokenizer.word_index) + 1 è la dimensione del vocabolario, e input_length=max_length specifica la lunghezza degli input.
model.add(LSTM(15)): Aggiunge uno strato di LSTM (Long Short-Term Memory) con 15 unità, utile per catturare dipendenze a lungo termine nei dati sequenziali.
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')): Aggiunge uno strato denso (completamente connesso) con len(tokenizer.word_index) + 1 unità di output e una funzione di attivazione softmax. Questo strato è solitamente usato per la classificazione.
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']): Compila il modello, specificando l'algoritmo di ottimizzazione adam, la funzione di perdita categorical_crossentropy, e la metrica di valutazione accuracy.
In sintesi, questo codice definisce un modello di rete neurale per la classificazione di sequenze di parole, lo compila, e lo prepara per l'addestramento. Se hai altre domande o vuoi saperne di più su una parte specifica, fammi sapere!

Io
ho bisogno di comprendere bene questa parte: *model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. *
domande:
1° cosa è embedding?
2° la dimensione del vettore è impostata a 10, ma la lunghezza massima delle parole nel range da analizzare (Input) è 16, mentre la lunghezza minima è 3.
non sarebbe meglio impostare 16 come lunghezza del vettore?

Copilot

Un "embedding" è una tecnica di rappresentazione vettoriale di oggetti, nel caso del tuo modello, parole. In pratica, mappa ogni parola (o indice) in uno spazio vettoriale continuo di dimensione specificata. Questo permette al modello di apprendere relazioni e similarità tra parole. Piuttosto che trattare ogni parola come una entità distinta e indipendente, l'embedding consente di catturare informazioni semantiche.
Ora, rispondiamo alle tue domande:
Cosa è un embedding?
L'embedding è una rappresentazione densa e a bassa dimensione di variabili categoriche come parole. Nel contesto delle reti neurali, consente al modello di apprendere rappresentazioni utili delle parole in base al contesto in cui appaiono. È come tradurre parole in numeri che la rete può processare e comprendere meglio.

Dimensione del vettore di embedding: 10 vs 16?
La dimensione del vettore di embedding (10 nel tuo esempio) non deve necessariamente corrispondere alla lunghezza delle sequenze di input (max_length è 16 nel tuo esempio). La dimensione del vettore di embedding rappresenta la dimensionalità dello spazio vettoriale in cui le parole verranno mappate, mentre input_length rappresenta la lunghezza delle sequenze di input trattate dalla rete.
Puoi sperimentare con diverse dimensioni del vettore di embedding. Dimensioni più grandi potrebbero catturare più informazioni semantiche, ma aumentano anche la complessità del modello. Una dimensione 10 è comune come punto di partenza, ma puoi provare 16 o altre dimensioni per vedere se migliorano le prestazioni del tuo modello.
Ricorda, l'arte del machine learning spesso implica trovare il giusto equilibrio e ottimizzare parametri attraverso tentativi ed errori. Non esiste una risposta perfetta unica per tutte le situazioni.

Se hai altre domande o vuoi approfondire ulteriormente, sono qui per aiutarti!
 

Allegati

  • ALFA-3.png
    ALFA-3.png
    141,5 KB · Visite: 31
ALFA-3.PY stessa data del post precedente. ( N.N. STABILE )
# Costruzione del modello
model = Sequential()
model.add(Embedding(len(tokenizer.word_index) + 1, 11, input_length=max_length))
# Default + 1, 10, ( con + 1, 11, vedere i primi 5 Res. Max. )
model.add(LSTM(15)) # Default LSTM (15)
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax'))
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
-----------------
passando a 1,11, non si rilevano variazioni fra Target e Output.
quindi in questo caso i più attendibili ricadono sui Residui Max. 10-66-49-58-67
Esiti: 10-66 al 1° C. + 10-49 al 2° C. + 67 al 3° C.
58 ancora in gioco.
 

Allegati

  • RESIDUI.jpg
    RESIDUI.jpg
    312,5 KB · Visite: 37
Ultima modifica:
Cux-7 : Energy-Target : .... nono ho fatto nemmeno in tempo a finire lo script che ..... :cool: da notare che fra le prime 5 posizioni dei residui MIN. hanno sfaldato in Terno solo quelle con l'Energy maggiore. ( Secco )
 

Allegati

  • 606366.jpg
    606366.jpg
    196,2 KB · Visite: 25
  • regr.jpg
    regr.jpg
    154,5 KB · Visite: 25
Ultima modifica:
buongiorno Halum, ho scaricato la stringa binaria spia, questa lista di codicibinari per ruota ne da uno per estrazione
- equivale a un numero futuro - oppure non ha valore come estratto - può essere usato per altro,
chiedo gentilmente una informazione, - potrebbe essere utile a chi non sa usare una AI
Boris
 

Ultima estrazione Lotto

  • Estrazione del lotto
    sabato 13 dicembre 2025
    Bari
    61
    81
    73
    68
    78
    Cagliari
    76
    59
    33
    78
    23
    Firenze
    10
    37
    58
    30
    71
    Genova
    17
    45
    37
    36
    72
    Milano
    10
    71
    70
    46
    87
    Napoli
    21
    11
    51
    68
    01
    Palermo
    84
    72
    26
    17
    79
    Roma
    39
    63
    46
    67
    50
    Torino
    35
    86
    79
    68
    85
    Venezia
    67
    68
    22
    77
    76
    Nazionale
    46
    12
    72
    65
    70
    Estrazione Simbolotto
    Venezia
    05
    13
    40
    35
    10
Indietro
Alto