Novità

Python

IRONIA DELLA SORTE??? si è ripetuto L'Ambo 10 13 anche al 2° C. :cool: del resto i primi 3 negativi parlavano chiaro con la terzina 13 35 10 . per non parlare degli estremi iniziali, finali, e al punto 00.000 21-20-13-66 .... basta controllare nei 2 colpi successivi.
Non capisco cosa giocheremo martedì
se puoi dirmi halmun
 
Project 1.618 : Deterministic - Work in progress.
l'esito successivo 40 - 49 è chiaro a tutti.

BARI - F.D. 25/10/2024 : num_epochs = 100
Foto 1 : window_size=1 / num_layers=05 / hidden_size = 10
Foto 2 : window_size=1 / num_layers=10 / hidden_size = 10
 

Allegati

  • MIX-2.jpg
    MIX-2.jpg
    97,9 KB · Visite: 50
FILE ALFA-3.PY
Io
puoi dirmi il significato di queste righe?
# Costruzione del modello model = Sequential() model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)) model.add(LSTM(15)) model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')) model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

Copilot
Certo! Queste righe di codice sono utilizzate per costruire e compilare un modello di rete neurale sequenziale in Keras. Vediamo il significato di ciascuna parte:
model = Sequential(): Questa riga crea un modello di rete neurale sequenziale, che significa che gli strati del modello sono impilati uno dopo l'altro.
model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. len(tokenizer.word_index) + 1 è la dimensione del vocabolario, e input_length=max_length specifica la lunghezza degli input.
model.add(LSTM(15)): Aggiunge uno strato di LSTM (Long Short-Term Memory) con 15 unità, utile per catturare dipendenze a lungo termine nei dati sequenziali.
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax')): Aggiunge uno strato denso (completamente connesso) con len(tokenizer.word_index) + 1 unità di output e una funzione di attivazione softmax. Questo strato è solitamente usato per la classificazione.
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']): Compila il modello, specificando l'algoritmo di ottimizzazione adam, la funzione di perdita categorical_crossentropy, e la metrica di valutazione accuracy.
In sintesi, questo codice definisce un modello di rete neurale per la classificazione di sequenze di parole, lo compila, e lo prepara per l'addestramento. Se hai altre domande o vuoi saperne di più su una parte specifica, fammi sapere!

Io
ho bisogno di comprendere bene questa parte: *model.add(Embedding(len(tokenizer.word_index) + 1, 10, input_length=max_length)): Aggiunge uno strato di embedding, che mappa ogni parola (rappresentata da un indice intero) in un vettore di dimensione 10. *
domande:
1° cosa è embedding?
2° la dimensione del vettore è impostata a 10, ma la lunghezza massima delle parole nel range da analizzare (Input) è 16, mentre la lunghezza minima è 3.
non sarebbe meglio impostare 16 come lunghezza del vettore?

Copilot

Un "embedding" è una tecnica di rappresentazione vettoriale di oggetti, nel caso del tuo modello, parole. In pratica, mappa ogni parola (o indice) in uno spazio vettoriale continuo di dimensione specificata. Questo permette al modello di apprendere relazioni e similarità tra parole. Piuttosto che trattare ogni parola come una entità distinta e indipendente, l'embedding consente di catturare informazioni semantiche.
Ora, rispondiamo alle tue domande:
Cosa è un embedding?
L'embedding è una rappresentazione densa e a bassa dimensione di variabili categoriche come parole. Nel contesto delle reti neurali, consente al modello di apprendere rappresentazioni utili delle parole in base al contesto in cui appaiono. È come tradurre parole in numeri che la rete può processare e comprendere meglio.

Dimensione del vettore di embedding: 10 vs 16?
La dimensione del vettore di embedding (10 nel tuo esempio) non deve necessariamente corrispondere alla lunghezza delle sequenze di input (max_length è 16 nel tuo esempio). La dimensione del vettore di embedding rappresenta la dimensionalità dello spazio vettoriale in cui le parole verranno mappate, mentre input_length rappresenta la lunghezza delle sequenze di input trattate dalla rete.
Puoi sperimentare con diverse dimensioni del vettore di embedding. Dimensioni più grandi potrebbero catturare più informazioni semantiche, ma aumentano anche la complessità del modello. Una dimensione 10 è comune come punto di partenza, ma puoi provare 16 o altre dimensioni per vedere se migliorano le prestazioni del tuo modello.
Ricorda, l'arte del machine learning spesso implica trovare il giusto equilibrio e ottimizzare parametri attraverso tentativi ed errori. Non esiste una risposta perfetta unica per tutte le situazioni.

Se hai altre domande o vuoi approfondire ulteriormente, sono qui per aiutarti!
 

Allegati

  • ALFA-3.png
    ALFA-3.png
    141,5 KB · Visite: 31
ALFA-3.PY stessa data del post precedente. ( N.N. STABILE )
# Costruzione del modello
model = Sequential()
model.add(Embedding(len(tokenizer.word_index) + 1, 11, input_length=max_length))
# Default + 1, 10, ( con + 1, 11, vedere i primi 5 Res. Max. )
model.add(LSTM(15)) # Default LSTM (15)
model.add(Dense(len(tokenizer.word_index) + 1, activation='softmax'))
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
-----------------
passando a 1,11, non si rilevano variazioni fra Target e Output.
quindi in questo caso i più attendibili ricadono sui Residui Max. 10-66-49-58-67
Esiti: 10-66 al 1° C. + 10-49 al 2° C. + 67 al 3° C.
58 ancora in gioco.
 

Allegati

  • RESIDUI.jpg
    RESIDUI.jpg
    312,5 KB · Visite: 37
Ultima modifica:
Cux-7 : Energy-Target : .... nono ho fatto nemmeno in tempo a finire lo script che ..... :cool: da notare che fra le prime 5 posizioni dei residui MIN. hanno sfaldato in Terno solo quelle con l'Energy maggiore. ( Secco )
 

Allegati

  • 606366.jpg
    606366.jpg
    196,2 KB · Visite: 25
  • regr.jpg
    regr.jpg
    154,5 KB · Visite: 25
Ultima modifica:
buongiorno Halum, ho scaricato la stringa binaria spia, questa lista di codicibinari per ruota ne da uno per estrazione
- equivale a un numero futuro - oppure non ha valore come estratto - può essere usato per altro,
chiedo gentilmente una informazione, - potrebbe essere utile a chi non sa usare una AI
Boris
 

Ultima estrazione Lotto

  • Estrazione del lotto
    giovedì 24 luglio 2025
    Bari
    71
    27
    87
    61
    39
    Cagliari
    69
    17
    79
    09
    04
    Firenze
    32
    13
    25
    58
    22
    Genova
    24
    41
    61
    66
    16
    Milano
    55
    59
    33
    80
    38
    Napoli
    18
    52
    32
    12
    72
    Palermo
    49
    77
    78
    90
    60
    Roma
    35
    04
    30
    02
    44
    Torino
    19
    79
    56
    77
    26
    Venezia
    82
    59
    68
    24
    21
    Nazionale
    81
    32
    19
    60
    38
    Estrazione Simbolotto
    Nazionale
    32
    07
    29
    37
    28

Ultimi Messaggi

Indietro
Alto