Novità

Rete Neurale

stò continuando a testare , poi riferirò in merito, quantomeno per continuare l'addestramento neurale...
;)
:cool:
 
Altre info relativi ai parametri di NNLP by my friend... ;)

1. Learning Rate: Il learning rate determina la velocità con cui il modello apprende dai dati di addestramento. Valori più alti di learning rate possono accelerare il processo di addestramento, ma potrebbero compromettere la precisione. Inizia con un valore di learning rate medio, ad esempio 0.01, e successivamente puoi sperimentare con valori più alti o più bassi per ottenere risultati ottimali.

2. Momentum: Il momentum è un parametro che accelera la velocità di apprendimento del modello in direzione dei gradienti steepesti. Puoi impostare il valore di momentum su 0.0 se non desideri applicarlo nell'addestramento iniziale. In caso contrario, puoi iniziare con un valore basso, ad esempio 0.5, e successivamente regolarlo in base ai risultati che ottieni.

3. Noise: Il parametro di rumore (noise) viene utilizzato per introdurre un certo grado di casualità nell'addestramento del modello. Puoi impostare il valore di noise su 0.0 se non desideri applicarlo. Altrimenti, puoi sperimentare con valori bassi, ad esempio 0.01, per vedere se migliora la capacità di generalizzazione del modello.

4. Threshold (stop training): Il parametro di threshold determina il valore di errore medio che il modello deve raggiungere per fermare l'addestramento. Puoi impostare un valore di threshold ragionevole, ad esempio 0.001, in modo che l'addestramento si interrompa quando il modello raggiunge una buona precisione.

5. Hidden Layer Neurons: Il numero di neuroni nel livello nascosto influisce sulla complessità del modello e sulla sua capacità di apprendimento. Inizia con un numero moderato di neuroni, ad esempio 10, e successivamente puoi sperimentare con valori più alti o più bassi per trovare il giusto equilibrio tra complessità e prestazioni.

6. Training Data Range: Questo parametro determina il numero di estrazioni di addestramento da utilizzare. Puoi impostare un valore pari al numero di estrazioni disponibili, in questo caso 18, per utilizzare tutte le estrazioni come dati di addestramento.

7. Skip Training Data (latest): Puoi utilizzare questo parametro per escludere un certo numero di estrazioni più recenti dall'addestramento. Puoi impostarlo su 0 per includere tutte le estrazioni nell'addestramento.

8. Process Priority: Questo parametro regola la priorità di esecuzione del programma. Puoi lasciare il valore predefinito o impostarlo in base alle tue preferenze o alla capacità del tuo sistema.

9. Fixed Seed Input Weights: Se desideri riproducibilità nei risultati, puoi impostare un valore specifico per i pesi iniziali dei neuroni. In caso contrario, puoi lasciare questo parametro disabilitato.



Total Error: Questa voce indica l'errore totale ottenuto dal processo di addestramento della rete neurale. L'errore rappresenta la differenza tra i numeri previsti dalla rete neurale e i numeri effettivi estratti nella storia delle estrazioni.

Average Error: Questa voce rappresenta l'errore medio ottenuto dal processo di addestramento. È calcolato dividendo il valore del Total Error per il numero totale di estrazioni utilizzate per l'addestramento.

Last Error: Indica l'errore ottenuto nell'ultima fase di addestramento della rete neurale. Rappresenta la differenza tra i numeri previsti dalla rete e i numeri effettivamente estratti nella fase di addestramento finale.

Date Time: Questa voce indica la data e l'ora in cui è stato effettuato l'addestramento della rete neurale o il momento in cui sono stati generati i picks (scelte) della rete neurale.

NN Settings: Questa voce riporta le impostazioni attuali della rete neurale, che comprendono i parametri di configurazione che hai selezionato come learning rate, momentum, noise, hidden layer neurons, ecc.

Hits with skipped training: Questa voce mostra il numero di corrispondenze (hits) tra i numeri estratti nella storia delle estrazioni e i numeri previsti dalla rete neurale, considerando anche le estrazioni che sono state saltate durante l'addestramento.


Ricorda che queste sono solo linee guida generali e potrebbe essere necessario adattare i parametri in base al tuo specifico caso di studio. Sperimenta con diversi valori e osserva come influiscono sui risultati. Inoltre, assicurati di avere una quantità significativa di dati di addestramento per ottenere risultati più accurati.



Per quanto riguarda i miei test iniziali per adesso mi pare che il limite supportato di righe (estrazioni) per NNLP sia di 5400 ca. Risulta anche a voi? Altrimenti quante righe siete riusciti a caricare al massimo all'interno del programma? :unsure:
 
Due domande.
partendo dai 5 estratti, posso estrapolare solo pick da 2 numeri? ... a me pare di no
quando imposto diversi pick ... che faccio prendo il più presente?
 
9. Fixed Seed Input Weights: ABILITATO "Se desideri riproducibilità nei risultati, puoi impostare un valore specifico per i pesi iniziali dei neuroni."
Ho mantenuto inalterati parameri e Draw ma non mi restituisce gli stessi picks... dove sbaglio.


NNLP.JPG
 
Due domande.
partendo dai 5 estratti, posso estrapolare solo pick da 2 numeri? ... a me pare di no
quando imposto diversi pick ... che faccio prendo il più presente?

Non credo che con quel programma NNPL si possa scegliere la dimensione del pick di uscita rispetto ai alla classe dei dati di estrazioni importate... :unsure:

  1. Puoi prendere in considerazione diversi approcci, a seconda delle tue preferenze e dell'obiettivo dell'analisi. Alcune opzioni comuni potrebbero includere:
    • Pick più frequente: Se hai estratto più pick, puoi scegliere la pick che appare più frequentemente tra le estrazioni passate. Questo può essere utile se stai cercando di identificare i numeri più comuni o di maggior interesse.
    • Pick con la più bassa media di errore: Se stai utilizzando un modello di rete neurale o un algoritmo che produce valori di errore per ogni pick, puoi scegliere la pick con la media di errore più bassa. Questo potrebbe indicare una maggiore precisione o adattamento del modello alle estrazioni passate.
    • Pick basata su altri criteri: A seconda del contesto o degli obiettivi specifici, potresti prendere in considerazione altri fattori come la varietà dei numeri nella pick, la presenza di sequenze o altre caratteristiche desiderate.
In definitiva, la scelta del criterio per selezionare la pick finale dipende da ciò che ritieni più rilevante o significativo nel contesto delle tue analisi e previsioni.
 
9. Fixed Seed Input Weights: ABILITATO "Se desideri riproducibilità nei risultati, puoi impostare un valore specifico per i pesi iniziali dei neuroni."
Ho mantenuto inalterati parameri e Draw ma non mi restituisce gli stessi picks... dove sbaglio.


Vedi l'allegato 2259973


Se hai abilitato l'opzione "Fixed Seed Input Weights" e hai mantenuto tutti gli altri parametri e i dati di input identici, dovresti ottenere gli stessi picks ogni volta che esegui il programma. Tuttavia, ci sono alcune possibili ragioni per cui potresti ottenere risultati diversi:

  1. Verifica che il valore del "Fixed Seed Input Weights" sia lo stesso in tutte le tue esecuzioni. Se cambi il valore del seed, anche di un piccolo valore, potresti ottenere picks diversi.
  2. Assicurati di avere la stessa versione del programma in tutte le tue esecuzioni. Se stai utilizzando diverse versioni o build del programma, potrebbero esserci differenze nei risultati.
  3. Controlla se ci sono altre variabili o parametri che potrebbero influire sui picks generati. Ad esempio, se ci sono parametri casuali o fluttuanti nel processo di generazione dei picks, potrebbero influenzare i risultati anche con lo stesso seed.
  4. Verifica se ci sono errori durante il caricamento dei dati di input o durante il processo di addestramento della rete neurale. Se ci sono problemi nel caricamento dei dati o nel processo di addestramento, potrebbe influire sui risultati.
Se hai verificato tutti questi punti e stai ancora ottenendo picks diversi nonostante l'opzione "Fixed Seed Input Weights" abilitata, potrebbe essere utile contattare il supporto tecnico o il creatore del programma per ulteriori assistenza e risoluzione del problema.
 
Tom questa rete Neural Network Lottery Picker 2.1 non salva i settaggi, io la trovo poco funzionale.
A mio parere con NNLP si perde solo tempo.
Se proprio vogliamo approfondire l'argomento bisogna cercare qualcosa di funzionale.
Ciao
 
Tom questa rete Neural Network Lottery Picker 2.1 non salva i settaggi, io la trovo poco funzionale.
A mio parere con NNLP si perde solo tempo.
Se proprio vogliamo approfondire l'argomento bisogna cercare qualcosa di funzionale.
Ciao

I settaggi claudio li trovi salvati nel file txt di report alla voce:

NN Settings: Questa voce riporta le impostazioni attuali della rete neurale, che comprendono i parametri di configurazione che hai selezionato come learning rate, momentum, noise, hidden layer neurons, ecc.

Il problema credo comunque che non sia tanto il programma in oggetto che tra tutti stiamo provando a testare con scarsi risultati bensì nel non saperlo sfruttare adeguatamente per le poche o nulle conoscenze che tra tutti abbiamo riguardo questa potenziale e affascinante materia... delle "reti neurali applicate al calcolo predittivo" :) Ciao
 
Proposta elaborazionale collettiva: partendo da un numero di ultime estrazioni (es. 5400) e ruota (es. MILANO o per il prossimo mese NAPOLI) comuni (x massima omogeneità di output) proviamo a vedere tra tutti di raggiungere il minimo valore possibile di total error (in grassetto nero) e average error (in grassetto rosso)? Good Saturday :)

es.

2306,99987626269;0,653561855323631;0,389561753023133;tempo:3 minuti;Learning Rate:0,014935| Momentum: 0,526657| Noise:0,527|Threshold Error:0|Hidden Neurons:50|Test Data Range:5401

Ps:
ovviamente ognuno dovrà mettere anche la propria configurazione di NN Settings (in grassetto blu) e il tempo indicativo della propria ricerca (in grassetto verde). I numeri relativi invece non li metterei per non creare confusione e false aspettative durante questi test di tipo neurale puramente teorici.
 
Ultima modifica:
non conosco la rete che state utilizzando, io ne uso altre, prevalentemente per regressione, e sinceramente dopo vari anni di utilizzo non posso lamentarmi. ad una rete neurale non interessano ritardi, frequenze, scompensi ecc. ecc. a meno che non si analizzino RANGE preparati per casi in questione. io mi sono creato fogli excel di conversione-dati dei risultati delle reti che utilizzo, e successivamente tramite filtri-excel e quant'altro traggo le mie personali deduzioni.
ma come ogni strategia anche i risultati di una rete vanno seguiti passo-passo, e solo attraverso l'osservazione dei periodi-momenti positivi si deve decidere se attaccare il gioco o meno, e lungi dal far polemiche sterili, ma chi dice che non servono a nulla o che non aiutino a raggiungere determinati risultati si sbaglia di grosso, o perlomeno non sa di cosa parla.
le reti analizzano numeri, che siano valori mensili o annuali dei guadagni di una attività, o andamenti statistici di previsione per le vendite, o l'andamento statistico o meno di determinati gruppi numerici al LOTTO non vi è alcuna differenza.
di seguito l'ultimo recente esempio ( ne ho a decine, e alcuni con esiti anche superiori ) tratto da una scansione con una mia Rete, dove i primi classificati per regressione dimostrano come al solito, e ormai da anni una certa attendibilità.
in questo caso le seconde posizioni. vedi foto.

BARI - Fine Data Range Analizzato 29/06/2023
osserviamo nella foto i 2°i classificati :
67-22-15-25-24

Esito 15 24 67 al 1° C.
 

Allegati

  • 67 24 15.jpg
    67 24 15.jpg
    80,2 KB · Visite: 71
l'importanza dei RANGE virtuali rispetto al RANGE normale ( le normali 5 colonne dei 5 estratti )
a pari configurazione e cicli d'apprendimento è palese la differenza quando si da un'occhiata alla Regressione, qui nell'esempio decisamente a vantaggio di Determinati RANGE creati ad Hoc per ottenere il Minimo errore.
ovvio che la stessa cosa la si può ottenere anche con la Funzione Regressione di Excel senza dover ricorrere ad un software neurale, ma non è la stessa cosa. una regressione di tipo Neurale, quindi condizionata da nodi, strati nascosti, coefficiente di regressione ecc. ecc. al confronto restituisce una differenza Abissale.

Allineamento Target-Output : Confronto Somma degli Errori:

Scan con Range Normale = 1722,5311
Scan con Range Virtuale = 129,1027
 

Allegati

  • NOMR.jpg
    NOMR.jpg
    205,3 KB · Visite: 28
  • GRP.jpg
    GRP.jpg
    188,5 KB · Visite: 32
Ultima modifica:
Reti neurali x Clustering ( es: EXCEL-TOOL : NNCLUST di Angshuman Saha )
da sempre sono stato d'accordo con quanto riportato nelle foto ( il passo dell'articolo non è mio ) e stessa cosa vale x gli errori fra Target e Output, ma per quanto l'errore medio sia considerato il punto più importante, e di conseguenza tutti quei valori-errore che si avvicinano di più all'errore medio, la mia personale esperienza mi ha insegnato che i Punti d'Attrazione sono prevalentemente 3 .

1° - valori numerici ( ambate ) associati o più vicini all'errore Minimo

2° - valori numerici ( ambate ) associati o più vicini all'errore Medio

3° - valori numerici ( ambate ) associati o più vicini all'errore Massimo
 

Allegati

  • 357358149_3524167224524611_2212447178248184618_n.jpg
    357358149_3524167224524611_2212447178248184618_n.jpg
    27,1 KB · Visite: 41
Ultima modifica:
x Claudio8
ma non ti avevo mandato tempo fa alcuni software da utilizzare secondo tuoi personali accorgimenti?
compreso PYTHIA e GMDH che almeno sono RETI VERAMENTE STABILI.
e con IL termine STABILE intendo dire che al ripetersi ex-novo della Scansione la rete ti deve restituire gli stessi risultati.
infatti x pura curiosità ho provato la rete che state testando e a mio parere fate prima a buttarla via. ogni volta che chiudi il software e lo riapri con gli stessi parametri d'ingresso e accorgimenti vari ti restituisce valori completamente diversi dalla scansione precedente.
ora, a parte il fatto che anche così potrebbe restituirvi prima o poi esiti apprezzabili, tanto varrebbe a questo punto chiedere i numeri alla signora Gina del 4° piano, di norma anche Lei ci azzecca con i numeri che le danno in sogno.
scherzi a parte: ricordati cmq. che PYTHIA, x quanto STABILE, risente delle differenze fra le varie CPU dei PC. come ricordo di aver dimostrato quando la testammo sul tuo PC confrontandolo col mio .......... i miei risultati differivano dai tuoi, ma in entrambi i casi risultarono attendibili.
se poi vuoi tagliare la testa al toro affidati a GMDH ..... non ha certo questi problemi, e personalmente la considero straordinaria.
IDEM x NNPRED .... i suoi 100 risultati progressivi estrapolati dalla sezione Profil modificabile a piacimento sono i + attendibili nei primi e negli ultimi valori della progressione. quindi lascia stare la regressione nella sezione nascosta Process, gli scarti-errori sono enormi.
 
Buon giorno Mira

Queste reti hanno bisogno di molti test per il loro settaggio e comunque come dice l'autore stesso :
" Non ci sono prove matematiche (secondo le mie informazioni) le reti neurali ti aiuteranno a vincere alla lotteria o ti daranno scelte migliori rispetto ad altre tecniche. Anche se questo strumento può darti dei risultati sorprendentemente buoni di tanto in tanto... :) "

Per quanto ne sappia io, un conoscitore di reti neurali è @Halmun.

Comunque a prima vista non mi pare molto diverso dal vecchio NNpred in excel ( traducibile in italiano) che con qualche accorgimento in VBA è forse maggiormente versatile rispetto a questo programma.

Spero che qualcuno ti sappia dare migliori notizie.
Saluti
NNPRED? a parer mio decisamente migliore.
 
TEST FATTO AL VOLO CON NNPRED - SCAN SU RANGE-NUMERI DA 46 A 90 - FINE DATA RANGE ANALIZZATO 20/06/2023
SEGUONO I 100 RISULTATI X COLONNA TRATTE DALLE 4 PROFIL + MEDIA FINALE
DIAMO ORA UN'OCCHIATA AI PRIMI VALORI 67-68-59-54-62
BARI : ESITI: .............. AMBO 59-68 al 4° C. + AMBO 67-62 AL 5° C.
( inutile sottolineare che stiamo aspettando la coppia 53-54 con ambata primaria 54 )



ABCDMD
66,54290586861067,78157080485358,69256300885053,82453578110661,710393865855
66,58607188985167,80258150029258,85109103446853,93750056462561,794311247309
66,62924034734167,82358767301659,01222279347154,05550664831161,880139365535
66,67240931792967,84458923936759,17594645400654,17876583157861,967927710720
66,71557864323867,86558611580159,34225373949154,30749842832262,057729231713
66,75874816538667,88657821889159,51113341008254,44192997790762,149597443066
66,80191596262667,90756546532259,68256411642754,58228700460362,243583137245
66,84508187822167,92854777190059,85652812544654,72880466799362,339740610890
66,88824575598267,94952505554960,03300450097054,88171626512962,438122894407
66,93140567628067,97049723331360,21196167101155,04126111020462,538781422702
66,97456148445267,99146422235860,39337179761655,20767996812662,641769368138
67,01771302643968,01242593997460,57720366691255,38120930911262,747137985609
67,06085838543468,03338280315160,76341498738955,56208865265962,854936207158
67,10399740928168,05433373014860,95196738974855,75055505795662,965213396783
67,14712935890468,07527913833761,14281642415255,94683630430363,078015306424
67,19025408375068,09621894551561,33591668807956,15115889481163,193387153039
67,23336967186568,11715306961061,53121127801156,36374150477163,311368881064
67,27647597509768,13808142868061,72864759250656,58478701174263,431998002006
67,31957284601968,15900394091961,92816960093656,81449126625763,555309413533
67,36265837712268,17992052465162,12970959984057,05303546812863,681330992436
67,40573242374868,20083109834162,33320457876457,30057705942363,810086290069
67,44879484200868,22173558058962,53858825328557,55726171818563,941595098517
67,49184372952468,24263389013162,74578263178657,82320341707864,075865917130
67,53487894554168,26352594584862,95471489930058,09849697921664,212904192476
67,57790035012068,28441166675863,16530923618558,38320892008464,352707543286
67,62090604668768,30529097202463,37747822335358,67736685093364,495260523249
67,66389589879368,32616378095263,59114018972458,98097152796064,640542849357
67,70686977085068,34703001299363,80621083948059,29398717245164,788524448943
67,74982577275568,36788958774664,02259452474259,61633049162864,939160094218
67,79276377275868,38874242495764,24020199304959,94788472400665,092398228693
67,83568364001568,40958844452064,45894184744060,28848991021565,248175960548
67,87858349154768,43042781486364,67871171600460,63793207989665,406413775577
67,92146320069268,45125995933764,89941632762260,99596292684065,567025603623
67,96432264173468,47208504675865,12095883019361,36227486116365,729910344962
68,00715993945768,49290299763065,34323188660661,73652234322265,894954291729
68,04997497266768,51371373261365,56613600017762,11831322687466,062034483083
68,09276762114768,53451717252565,78957071733062,50719945245666,231013740865
68,13553601808068,55531323834266,01342567939862,90269845057766,401743346599
68,17828004810268,57610185119966,23759911423063,30428562027666,574066658452
68,22099901503268,59688293239366,46198589255063,71138638270266,747813555669
68,26369280655368,61765640338066,68648385487764,12340041789266,922808370676
68,30635956800368,63842218578366,91098180267464,53969529702467,098864713371
68,34899919234368,65918020138567,13537807682864,95960349836567,275790242230
68,39161157359068,67993061945367,35957159839565,38243061021367,453386100413
68,43419486689868,70067286738167,58345293047065,80748632216867,631451746729
68,47674897187268,72140711486267,80692282042466,23404584564667,809781188201
68,51927378920168,74213328435168,02988321979566,66137739297267,988166921580
68,56176748444168,76285129847568,25222839830067,08877019894568,166404345041
68,60422996417168,78356108002968,47386336526367,51549569216568,344287525407
68,64666113607668,80426255198568,69469489907567,94083530150468,521613472160
68,68905917668468,82495563748468,91462274166468,36410783808568,698186348479
68,73142399986468,84564025984669,13355781875568,78463023044068,873813077226
68,77375552061368,86631634256569,35141331007369,20174448985969,048307415778
68,81605192698568,88698380931569,56809595209169,61484337569569,221493766022
68,85831314044468,90764258394669,78352398274970,02333066894269,393202594020
68,90053908359768,92829259048869,99761828389970,42664638108069,563274084766
68,94272795656468,94893399916170,21029381948570,82428996935169,731561436140
68,98487968869368,96956624223570,42147723759871,21578038936369,897925889472
69,02699421049268,99018949040070,63109811651971,60067901576870,062240208295
69,06906973466869,01080366841670,83908056449571,97861009629270,224391015968
69,11110619873069,03140870122971,04536042009072,34922108354670,384274100899
69,15310354136269,05200451397071,24987663252872,71220312273070,541796952648
69,19505998836069,07259103196071,45256304775073,06730880913270,696880719301
69,23697548566169,09316818070571,65336515665473,41431345970870,849455570682
69,27884941018069,11373588590271,85222894317973,75303911609570,999463338839
69,32068171190169,13429407343972,04910635887674,08334091734171,146855765389
69,36247063482769,15484266939672,24394461850774,40512800088971,291596480905
69,40421613652169,17538160004572,43670228199974,71832707482771,433656773348
69,44591817572669,19591103651972,62734105869675,02289805846871,573017082352
69,48757501064669,21643041602472,81581811282875,31884694159071,709667620272
69,52918660783169,23693991020173,00210160903075,60619172033871,843604961850
69,57075293501269,25743944610473,18616273997475,88497651074171,974832907958
69,61227226503769,27792895098273,36796828459676,15528298880072,103363122354
69,65374457366069,29840835228573,54749559441876,41719903528872,229211888913
69,69516983781569,31887757766373,72472486522976,67083160256472,352400970818
69,73654634541969,33933655496373,89963196185076,91631704763872,472957977467
69,77787408163269,35978521223974,07220282967177,15379264078072,590913691080
69,81915303278869,38022347774374,24242602754877,38340838837572,706302731614
69,86038150228169,40065127993474,41028582971477,60533647728672,819163772304
69,90155948486769,42106854747374,57577605332977,81974564089472,929537431641
69,94268697646069,44147520922974,73889286615778,02681206972373,037466780392
69,98376229632369,46187143734974,89962817299878,22672810569973,142997503092
70,02478544897569,48225667483775,05798285570478,41967934187773,246176080348
70,06575644008569,50263109438475,21395986556378,60585470062173,347050525163
70,10667360514969,52299462569075,36755789851378,78545445969773,445670147262
70,14753695861269,54334719866375,51878404897578,95866988894673,542084523799
70,18834651604769,56368874342375,66764719335279,12569254452973,636343749338
70,22910062953669,58401919030075,81415195537579,28672167448973,728498362425
70,26979932359069,60433846984075,95831077926179,44194615951873,818598683052
70,31044207049569,62464651279976,10013569109679,59155560364573,906694969509
70,35102889924769,64494325015076,23964213489579,73573441709673,992837175347
70,39155818455369,66522861308076,37684131031379,87467128436174,077074848077
70,43202996454069,68550253299376,51175148614080,00854380124274,159456946229
70,47244427841369,70576518298676,64439207021380,13752606592174,240031899383
70,51279951820469,72601601180476,77477824261380,26179474624774,318847129717
70,55309573238469,74625519311876,90293171398080,38151546946174,395949527236
70,59333297046769,76648265920577,02887508606480,49684973699774,471385113183
70,63350964210069,78669834256077,15262676217780,60796046022074,545198801764
70,67362580618669,80690217590277,27421116528780,71499989256674,617434759985
70,71368152264469,82709409216877,39365338387380,81811590583674,688136226130
 

Allegati

  • NNPRED-1.jpg
    NNPRED-1.jpg
    113,6 KB · Visite: 35
  • SD-1.jpg
    SD-1.jpg
    296,6 KB · Visite: 42
non conosco la rete che state utilizzando, io ne uso altre, prevalentemente per regressione, e sinceramente dopo vari anni di utilizzo non posso lamentarmi. ad una rete neurale non interessano ritardi, frequenze, scompensi ecc. ecc. a meno che non si analizzino RANGE preparati per casi in questione. io mi sono creato fogli excel di conversione-dati dei risultati delle reti che utilizzo, e successivamente tramite filtri-excel e quant'altro traggo le mie personali deduzioni.
ma come ogni strategia anche i risultati di una rete vanno seguiti passo-passo, e solo attraverso l'osservazione dei periodi-momenti positivi si deve decidere se attaccare il gioco o meno, e lungi dal far polemiche sterili, ma chi dice che non servono a nulla o che non aiutino a raggiungere determinati risultati si sbaglia di grosso, o perlomeno non sa di cosa parla.
le reti analizzano numeri, che siano valori mensili o annuali dei guadagni di una attività, o andamenti statistici di previsione per le vendite, o l'andamento statistico o meno di determinati gruppi numerici al LOTTO non vi è alcuna differenza.
di seguito l'ultimo recente esempio ( ne ho a decine, e alcuni con esiti anche superiori ) tratto da una scansione con una mia Rete, dove i primi classificati per regressione dimostrano come al solito, e ormai da anni una certa attendibilità.
in questo caso le seconde posizioni. vedi foto.

BARI - Fine Data Range Analizzato 29/06/2023
osserviamo nella foto i 2°i classificati :
67-22-15-25-24

Esito 15 24 67 al 1° C.
BARI - Fine Data Range Analizzato 01/07/2023
Esito 11 12 al 1° C.

non l'ho giocata causa attenzione su altri N°i ma vi invito ad osservare ancora i 2°i classificati, dove la stringa Numerica composta da 8 numeri rilevati sulle 4 classifiche ( secondo me troppi ) ha cmq. restituito un ambo al 1° C. esattamente come la volta precedente dove avevamo una stringa di soli 5 Numeri.
 

Allegati

  • 11 12.jpg
    11 12.jpg
    105,1 KB · Visite: 49
BARI - Fine Data Range Analizzato 01/07/2023
Esito 11 12 al 1° C.

non l'ho giocata causa attenzione su altri N°i ma vi invito ad osservare ancora i 2°i classificati, dove la stringa Numerica composta da 8 numeri rilevati sulle 4 classifiche ( secondo me troppi ) ha cmq. restituito un ambo al 1° C. esattamente come la volta precedente dove avevamo una stringa di soli 5 Numeri.
Ciao Halmun,
innanzitutto complimenti per le tue analisi. Inoltre, se non ti dispiace ti chiedo di mandarmi il giusto link per scaricare NNPRED.
Saluti
forerunner
 

Ultima estrazione Lotto

  • Estrazione del lotto
    venerdì 22 novembre 2024
    Bari
    27
    45
    81
    17
    55
    Cagliari
    78
    66
    45
    03
    14
    Firenze
    14
    90
    72
    88
    55
    Genova
    33
    23
    82
    81
    24
    Milano
    25
    79
    13
    42
    15
    Napoli
    39
    35
    65
    01
    14
    Palermo
    25
    83
    69
    50
    36
    Roma
    25
    71
    22
    10
    55
    Torino
    59
    30
    43
    74
    49
    Venezia
    39
    90
    77
    05
    35
    Nazionale
    82
    60
    62
    65
    59
    Estrazione Simbolotto
    Torino
    44
    12
    32
    06
    13
Indietro
Alto