Novità

Python

IRONIA DELLA SORTE??? si è ripetuto L'Ambo 10 13 anche al 2° C. :cool: del resto i primi 3 negativi parlavano chiaro con la terzina 13 35 10 . per non parlare degli estremi iniziali, finali, e al punto 00.000 21-20-13-66 .... basta controllare nei 2 colpi successivi.
Non capisco cosa giocheremo martedì
se puoi dirmi halmun
 
Project 1.618 : Deterministic - Work in progress.
l'esito successivo 40 - 49 è chiaro a tutti.

BARI - F.D. 25/10/2024 : num_epochs = 100
Foto 1 : window_size=1 / num_layers=05 / hidden_size = 10
Foto 2 : window_size=1 / num_layers=10 / hidden_size = 10
 

Allegati

  • MIX-2.jpg
    MIX-2.jpg
    97,9 KB · Visite: 44
FILE ALFA-3.PY
Io
puoi dirmi il significato di queste righe?
# Costruzione del modello model = Sequential() model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)) model.add(LSTM(15)) model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')) model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

Copilot
Certo! Queste righe di codice sono utilizzate per costruire e compilare un modello di rete neurale sequenziale in Keras. Vediamo il significato di ciascuna parte:
model = Sequential(): Questa riga crea un modello di rete neurale sequenziale, che significa che gli strati del modello sono impilati uno dopo l'altro.
model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. len(tokenizer.word_index) + 1 è la dimensione del vocabolario, e input_length=max_length specifica la lunghezza degli input.
model.add(LSTM(15)): Aggiunge uno strato di LSTM (Long Short-Term Memory) con 15 unità, utile per catturare dipendenze a lungo termine nei dati sequenziali.
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')): Aggiunge uno strato denso (completamente connesso) con len(tokenizer.word_index) + 1 unità di output e una funzione di attivazione softmax. Questo strato è solitamente usato per la classificazione.
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']): Compila il modello, specificando l'algoritmo di ottimizzazione adam, la funzione di perdita categorical_crossentropy, e la metrica di valutazione accuracy.
In sintesi, questo codice definisce un modello di rete neurale per la classificazione di sequenze di parole, lo compila, e lo prepara per l'addestramento. Se hai altre domande o vuoi saperne di più su una parte specifica, fammi sapere!

Io
ho bisogno di comprendere bene questa parte: *model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. *
domande:
1° cosa è embedding?
2° la dimensione del vettore è impostata a 10, ma la lunghezza massima delle parole nel range da analizzare (Input) è 16, mentre la lunghezza minima è 3.
non sarebbe meglio impostare 16 come lunghezza del vettore?

Copilot

Un "embedding" è una tecnica di rappresentazione vettoriale di oggetti, nel caso del tuo modello, parole. In pratica, mappa ogni parola (o indice) in uno spazio vettoriale continuo di dimensione specificata. Questo permette al modello di apprendere relazioni e similarità tra parole. Piuttosto che trattare ogni parola come una entità distinta e indipendente, l'embedding consente di catturare informazioni semantiche.
Ora, rispondiamo alle tue domande:
Cosa è un embedding?
L'embedding è una rappresentazione densa e a bassa dimensione di variabili categoriche come parole. Nel contesto delle reti neurali, consente al modello di apprendere rappresentazioni utili delle parole in base al contesto in cui appaiono. È come tradurre parole in numeri che la rete può processare e comprendere meglio.

Dimensione del vettore di embedding: 10 vs 16?
La dimensione del vettore di embedding (10 nel tuo esempio) non deve necessariamente corrispondere alla lunghezza delle sequenze di input (max_length è 16 nel tuo esempio). La dimensione del vettore di embedding rappresenta la dimensionalità dello spazio vettoriale in cui le parole verranno mappate, mentre input_length rappresenta la lunghezza delle sequenze di input trattate dalla rete.
Puoi sperimentare con diverse dimensioni del vettore di embedding. Dimensioni più grandi potrebbero catturare più informazioni semantiche, ma aumentano anche la complessità del modello. Una dimensione 10 è comune come punto di partenza, ma puoi provare 16 o altre dimensioni per vedere se migliorano le prestazioni del tuo modello.
Ricorda, l'arte del machine learning spesso implica trovare il giusto equilibrio e ottimizzare parametri attraverso tentativi ed errori. Non esiste una risposta perfetta unica per tutte le situazioni.

Se hai altre domande o vuoi approfondire ulteriormente, sono qui per aiutarti!
 

Allegati

  • ALFA-3.png
    ALFA-3.png
    141,5 KB · Visite: 28
ALFA-3.PY stessa data del post precedente. ( N.N. STABILE )
# Costruzione del modello
model = Sequential()
model.add(Embedding(len(tokenizer.word_index) + 1, 11, input_length=max_length))
# Default + 1, 10, ( con + 1, 11, vedere i primi 5 Res. Max. )
model.add(LSTM(15)) # Default LSTM (15)
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax'))
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
-----------------
passando a 1,11, non si rilevano variazioni fra Target e Output.
quindi in questo caso i più attendibili ricadono sui Residui Max. 10-66-49-58-67
Esiti: 10-66 al 1° C. + 10-49 al 2° C. + 67 al 3° C.
58 ancora in gioco.
 

Allegati

  • RESIDUI.jpg
    RESIDUI.jpg
    312,5 KB · Visite: 33
Ultima modifica:
Cux-7 : Energy-Target : .... nono ho fatto nemmeno in tempo a finire lo script che ..... :cool: da notare che fra le prime 5 posizioni dei residui MIN. hanno sfaldato in Terno solo quelle con l'Energy maggiore. ( Secco )
 

Allegati

  • 606366.jpg
    606366.jpg
    196,2 KB · Visite: 20
  • regr.jpg
    regr.jpg
    154,5 KB · Visite: 19
Ultima modifica:
buongiorno Halum, ho scaricato la stringa binaria spia, questa lista di codicibinari per ruota ne da uno per estrazione
- equivale a un numero futuro - oppure non ha valore come estratto - può essere usato per altro,
chiedo gentilmente una informazione, - potrebbe essere utile a chi non sa usare una AI
Boris
 

Ultima estrazione Lotto

  • Estrazione del lotto
    martedì 26 novembre 2024
    Bari
    35
    16
    24
    41
    85
    Cagliari
    89
    30
    10
    81
    72
    Firenze
    38
    60
    16
    13
    28
    Genova
    52
    15
    80
    08
    53
    Milano
    33
    77
    06
    54
    73
    Napoli
    01
    50
    64
    35
    36
    Palermo
    02
    01
    19
    33
    62
    Roma
    33
    48
    72
    47
    68
    Torino
    62
    28
    18
    75
    31
    Venezia
    03
    54
    27
    14
    71
    Nazionale
    02
    44
    27
    86
    78
    Estrazione Simbolotto
    Torino
    30
    07
    39
    14
    19

Ultimi Messaggi

Indietro
Alto