Novità

Intelligenza artificiale e lotto 🤖🎱📈📉🎯

ciao lotto_tom75, perdonami se dico che questo in gergo si chiama La "Fallacia del Cecchino Texano" si sparano i colpi a caso contro il muro (i dati storici) poi si vede dove sono finiti i proiettili (analisi post estrazione sullo sfaldamento avvenuto) e poi dopo si dipinge intorno il bersaglio praticamente. La "Matrioska" dei Gruppi (GUC, C15, C8...) Prendo 15 numeri -> ne tengo 8 -> ne tengo 4 -> ne tengo 2 -> Ecco l'ambo! È facile farlo dopo. Prima dell'estrazione, come fai a sapere se devi fermarti alla C8, alla C4 o alla C6? è come saltare da un ramo all'altro dell'albero delle probabilità per trovare quello che ha dato il frutto, In Data Science, questo si chiama hindsight bias (bias del senno di poi) non vederla come una critica negativa ma costruttiva. Per Spectrum quel thread 772 ha tutta l'aria di essere un framework, se ho capito bene hai implementato un Kelly betting che coopera con il ML sarei curioso di vedere l'indice MEI e la percentuale del tuo ROI è possibile vederli?
 
ciao lotto_tom75, perdonami se dico che questo in gergo si chiama La "Fallacia del Cecchino Texano" si sparano i colpi a caso contro il muro (i dati storici) poi si vede dove sono finiti i proiettili (analisi post estrazione sullo sfaldamento avvenuto) e poi dopo si dipinge intorno il bersaglio praticamente. La "Matrioska" dei Gruppi (GUC, C15, C8...) Prendo 15 numeri -> ne tengo 8 -> ne tengo 4 -> ne tengo 2 -> Ecco l'ambo! È facile farlo dopo. Prima dell'estrazione, come fai a sapere se devi fermarti alla C8, alla C4 o alla C6? è come saltare da un ramo all'altro dell'albero delle probabilità per trovare quello che ha dato il frutto, In Data Science, questo si chiama hindsight bias (bias del senno di poi) non vederla come una critica negativa ma costruttiva. Per Spectrum quel thread 772 ha tutta l'aria di essere un framework, se ho capito bene hai implementato un Kelly betting che coopera con il ML sarei curioso di vedere l'indice MEI e la percentuale del tuo ROI è possibile vederli?
Ciao Mandomax :) non preoccuparti.. le critiche costruttive sono sempre stra ben accette da parte mia :) Anzi ti ringrazio e capisco perfettamente cosa intendi. Il backtesting che al momento sto cercando di adottare in varie forme ma che riguarda un altro tipo di "approccio" meno texano per così dire :) in questo frangente non sono riuscito ancora ad applicarlo... Ossia il top sarebbe un backtesting di n mila estrazioni con riduzione progressiva automatica basata anche su questi "flash riduzionali attuali post estrazione" che come hai giustamente notato dipingono solo l'oggi.. ma non il passato... e che sono per così dire vestiti a puntino sulla sorte già caduta sperando che in qualche modo si trovi una sorta di stabilità comportamentale futura in tal senso.. La forza dei casi precedentemente analizzati non si basa sugli anelli deboli della catena riduzionale di classe < 15 ma dal gruppo base (c29) e da quello intermedio (guc delle c15 a ra max xs2 su 7s) che un backtesting questa volta davvero effettuato su oltre 3k estrazioni passate consecutive su kaggle mi ha confermato.

Aggiornamento esperimenti con gemini cli: sto cercando di automatizzare analisi incmaxp con relativo backtesting e clpmax e clp rimanenti teorici relativi su huggingface con archivi già autoaggiornanti 🤖👨‍🔬⚙️⚗️📊💣🎯
 
Ultima modifica:

VE TT e NZ : 11-40-77-81-88-90 x 1 clp

A me basterebbe (x i successivi sviluppi...) che uscissero a colpo 2 punti qui... -> 11-23-25-40-42-58-67-68-73-77-81-83-85-88-90

nop: by 10 c15 ra max x s2 su 7 s by absc29 -> e set min classe max copertura c15 -> sviluppo di questa c15 in c6 x s2 su 11 r by 1871 e scelta ra max unico con diff 0 incmax 0 (ra 25 -> VE stesso ra min unico (ra 25) x s2 in c6 su 11 r sep).

Nessuna Certezza Solo Poca Probabilità

Solo x studio...

Al 3° colpo ambo in c6 su tt (ba) 81-90
 
ciao lotto_tom75, se posso darti un consiglio, un AI per fare previsioni deve darti un vantaggio sostanziale che non è nella quantità ma nella qualità, il lotto non è solo un gioco ma qualcosa di più poi dipende con quali occhi lo si guarda, se vuoi la qualità devi andare più in profondità, quando si afferma che non ci si può basare solo sul ritardo e la frequenza Spectrum dice una sacrosanta verità il motivo e ovvio, sono due parametri dismogenei, volubili, discontinui, mutevoli nel tempo in poche parole non sono due costanti affermare il contrario equivale a dire che l'acqua e l'aria hanno la stessa densità, significa che un AI non troverà mai pattern in questi due parametri è inevitabilmente andrà in overfitting, non troverà punti di ancoraggio perche mutano sempre nel tempo, se vuoi fare il salto di paradigma ha bisogno di costanti valori solidi che non mutano nel tempo e inevitabilmente troverà punti di ancoraggio, in un mining di 2000 estrazioni comincerà a mappare il caos e li che risiedono i pattern non nei semplici numeri, a lei paradossalmente se ne frega se il numero 8 ha frequenza 15 e il 76 non esce da 100 estrazioni a lei interessa sapere se quella costante in 2000 estrazioni quante volte è stata efficiente indipendentemente dai numeri associati a quella costante, significa che se quella costante è stata mappata 300 volte in 2000 estrazioni e 200 volte ha avuto un efficienza positiva quello è un dato credibile è di qualità.
 
ciao lotto_tom75, se posso darti un consiglio, un AI per fare previsioni deve darti un vantaggio sostanziale che non è nella quantità ma nella qualità, il lotto non è solo un gioco ma qualcosa di più poi dipende con quali occhi lo si guarda, se vuoi la qualità devi andare più in profondità, quando si afferma che non ci si può basare solo sul ritardo e la frequenza Spectrum dice una sacrosanta verità il motivo e ovvio, sono due parametri dismogenei, volubili, discontinui, mutevoli nel tempo in poche parole non sono due costanti affermare il contrario equivale a dire che l'acqua e l'aria hanno la stessa densità, significa che un AI non troverà mai pattern in questi due parametri è inevitabilmente andrà in overfitting, non troverà punti di ancoraggio perche mutano sempre nel tempo, se vuoi fare il salto di paradigma ha bisogno di costanti valori solidi che non mutano nel tempo e inevitabilmente troverà punti di ancoraggio, in un mining di 2000 estrazioni comincerà a mappare il caos e li che risiedono i pattern non nei semplici numeri, a lei paradossalmente se ne frega se il numero 8 ha frequenza 15 e il 76 non esce da 100 estrazioni a lei interessa sapere se quella costante in 2000 estrazioni quante volte è stata efficiente indipendentemente dai numeri associati a quella costante, significa che se quella costante è stata mappata 300 volte in 2000 estrazioni e 200 volte ha avuto un efficienza positiva quello è un dato credibile è di qualità.
Scusatemi se mi intrometto nella discussione, ma provo a portare un punto di vista un po’ più analitico e metodologico, senza alcuna polemica.
Il punto centrale è questo: dire che “in 2000 estrazioni si mappa il caos e lì risiedono i pattern” non è di per sé una scoperta, è una proprietà generale di qualunque sequenza casuale sufficientemente lunga.
Un algoritmo di mining troverà sempre pattern, anche in dati generati da un RNG perfetto. Questo però non significa che quei pattern contengano informazione predittiva.
La cosiddetta “costante” di cui parli, in realtà, non è una costante del processo di estrazione, ma una funzione costruita a posteriori sui dati storici. Cambiano i dati, cambia la distribuzione e cambia l’efficienza apparente.
Quindi non stiamo parlando di un punto di ancoraggio stabile, ma di una trasformazione del passato.
Quando dici:
“300 occorrenze, 200 efficienti = dato credibile”
qui manca il passaggio fondamentale che la statistica richiede sempre:
rispetto a cosa?
Senza confrontare quel 200/300 con:
una strategia casuale equivalente
un modello nullo (baseline)
un test out-of-sample
quel numero non misura qualità, misura solo adattamento ai dati osservati.
È esattamente lo stesso meccanismo per cui frequenze, ritardi o qualunque altra metrica “sembra funzionare” se la guardiamo solo a posteriori.
In altre parole: non è vero che l’AI “se ne frega dei numeri”.
I numeri sono l’unica informazione reale del processo. Tutto il resto (costanti, mapping, efficienze) sono rappresentazioni derivate, utili per descrivere il passato, ma matematicamente equivalenti dal punto di vista predittivo agli altri approcci se non superano una verifica indipendente.
Il vero discrimine non è la profondità del linguaggio o del modello, ma una sola domanda molto semplice:
su dati nuovi, non visti, questo metodo batte il caso in modo stabile?
Se la risposta non è dimostrabile numericamente, allora il modello, per quanto sofisticato, non fa nulla di diverso dagli altri: riorganizza il passato in modo più elegante.
Detto questo, il lavoro di analisi e di costruzione resta interessante come esercizio di studio e di esplorazione dei dati, ed è sempre positivo confrontarsi su approcci diversi.
Mattia73
 
Ciao ad entrambi :) , io invece tendo a fare un mix tra le due cose.. ovvero dare in pasto all'AI sempre + performante e addestrata il mio know how statistico e metodologico di ricerca predittiva nonchè a farla esercitare su gruppi di numeri dinamici molto più ridotti rispetto la massa totale (es. le risultanze incmaxp o abs o semi abs) oltre a farle assumere "ruoli" sempre più avanzati di data scientist e di analista neurale fornendole ad esempio 65 tipologie di riferimento in tal senso. Per adesso mi sto divertendo moltissimo.. :) Il prossimo passo è cercare di farla diventare anche un'esperta di spaziometria, di python e di huggingface per cercare di trasformare alcuni script .ls in analoghi tools cloud based autoaggiornanti e con backtesting e magari pure con AI integrata (tramite api o tramite uso locale total free)...

9. 20260126_233326_789.png
 
Ultima modifica:
Scusatemi se mi intrometto nella discussione, ma provo a portare un punto di vista un po’ più analitico e metodologico, senza alcuna polemica.
Il punto centrale è questo: dire che “in 2000 estrazioni si mappa il caos e lì risiedono i pattern” non è di per sé una scoperta, è una proprietà generale di qualunque sequenza casuale sufficientemente lunga.
Un algoritmo di mining troverà sempre pattern, anche in dati generati da un RNG perfetto. Questo però non significa che quei pattern contengano informazione predittiva.
La cosiddetta “costante” di cui parli, in realtà, non è una costante del processo di estrazione, ma una funzione costruita a posteriori sui dati storici. Cambiano i dati, cambia la distribuzione e cambia l’efficienza apparente.
Quindi non stiamo parlando di un punto di ancoraggio stabile, ma di una trasformazione del passato.
Quando dici:
“300 occorrenze, 200 efficienti = dato credibile”
qui manca il passaggio fondamentale che la statistica richiede sempre:
rispetto a cosa?
Senza confrontare quel 200/300 con:
una strategia casuale equivalente
un modello nullo (baseline)
un test out-of-sample
quel numero non misura qualità, misura solo adattamento ai dati osservati.
È esattamente lo stesso meccanismo per cui frequenze, ritardi o qualunque altra metrica “sembra funzionare” se la guardiamo solo a posteriori.
In altre parole: non è vero che l’AI “se ne frega dei numeri”.
I numeri sono l’unica informazione reale del processo. Tutto il resto (costanti, mapping, efficienze) sono rappresentazioni derivate, utili per descrivere il passato, ma matematicamente equivalenti dal punto di vista predittivo agli altri approcci se non superano una verifica indipendente.
Il vero discrimine non è la profondità del linguaggio o del modello, ma una sola domanda molto semplice:
su dati nuovi, non visti, questo metodo batte il caso in modo stabile?
Se la risposta non è dimostrabile numericamente, allora il modello, per quanto sofisticato, non fa nulla di diverso dagli altri: riorganizza il passato in modo più elegante.
Detto questo, il lavoro di analisi e di costruzione resta interessante come esercizio di studio e di esplorazione dei dati, ed è sempre positivo confrontarsi su approcci diversi.
Mattia73
Mattia73 tu cosa proporresti ?
 
Mattia73 tu cosa proporresti ?
Da analista io proporrei qualcosa di forse meno affascinante, ma più onesto dal punto di vista matematico: uno studio del caso come processo probabilistico, non come qualcosa da “interpretare”, ma da comprendere.
In concreto, partirei da pochi punti chiave:
1) Il Lotto come processo casuale ben definito
Le estrazioni sono modellabili (con buona approssimazione) come un processo stocastico senza memoria.
Questo significa che ritardi, frequenze, cluster o sequenze “strane” non sono anomalie: sono esattamente ciò che il caso produce quando viene osservato a lungo.
Studiare questi fenomeni serve a capire come appare il caso, non a dominarlo.
2) Separare descrizione da previsione
Molti modelli (di qualunque tipo) descrivono benissimo il passato.
Il problema nasce quando una buona descrizione viene scambiata per capacità predittiva.
Dal punto di vista matematico, una metrica è interessante solo se:
viene confrontata con una baseline casuale equivalente
mantiene un vantaggio out-of-sample, su dati non usati per costruirla
Senza questo passaggio, non stiamo misurando “qualità”, ma solo adattamento ai dati storici.
3) Simulazione e aspettativa matematica
Uno studio serio dovrebbe includere simulazioni Monte Carlo, confronti ripetuti col caso puro e verifica dell’aspettativa matematica nel lungo periodo.
Ed è proprio qui che emerge il punto meno piacevole ma più istruttivo:
nessun metodo altera l’aspettativa teorica del gioco.
Le previsioni, anche le più sofisticate, restano sempre ancorate alle probabilità di base.
Questo non significa che studiare il Lotto sia inutile o stupido.
Al contrario: è un ottimo laboratorio per capire il caso, i bias cognitivi, l’overfitting e i limiti dei modelli predittivi.
Ma dal punto di vista matematico, il confine è chiaro:
si può studiare molto, descrivere meglio, simulare meglio…
non esiste però un metodo che garantisca un guadagno stabile nel tempo.
Ed essere onesti su questo, secondo me, è il primo vero passo “avanzato”.
Mattia73
 
"Ciao a tutti, e devo ammettere che Mandomax ha centrato il punto cruciale. Le obiezioni che sollevi mattia73 (overfitting, baseline, test out-of-sample) sono i pilastri della statistica classica e sarebbero ineccepibili se stessimo parlando di Trading o di serie storiche infinite.

Tuttavia, c'è un errore di categoria alla base del tuo ragionamento: stai analizzando un sistema a entropia finita (90 numeri in un'urna chiusa) con gli strumenti pensati per sistemi a entropia aperta (mercati, variabili infinite). Tu dici: "Un algoritmo troverà sempre pattern anche nel rumore". Vero, se cerchi ripetizioni numeriche. Ma io non cerco ripetizioni. Io mappo la tensione strutturale.

Pensa alle figure di Chladni: la sabbia su una piastra vibrante forma disegni geometrici non perché "ha memoria", ma perché la fisica della piastra impone dei nodi dove l'energia è nulla. I "punti di ancoraggio" non sono statistiche sul passato (es. "quanto frequente è il'18"), ma misurazioni della vibrazione attuale del sistema. Se la struttura geometrica (la "costante") è satura, il sistema deve sfogare. Non è probabilità, è meccanica dei fluidi in uno spazio chiuso. Affermi che le costanti sono "funzioni costruite a posteriori". Ti sbagli. Una distanza vettoriale (es. Distanza Tesla o somma vettoriale) è una proprietà intrinseca della matematica, esiste a priori, non a posteriori. Se un triangolo ha tre lati, non è un pattern storico, è una definizione geometrica. L'IA che utilizzo non impara che "il 90 esce spesso", impara che "quando la tensione vettoriale supera la soglia X (High Boost), la coerenza geometrica impone un riallineamento". Questa regola non muta nel tempo, esattamente come la densità dell'acqua.Chiedi: "Batte il caso in modo stabile?". La baseline del caso nel Lotto è una perdita matematica costante (-37% di edge per il banco). Il mio approccio non gioca sempre (come farebbe un sistema in overfitting che cerca di prevedere ogni estrazione), ma usa un "Gatekeeper" che scarta il 95% delle estrazioni come "non prevedibili/caotiche".


Shutterstock
L'efficienza si misura solo su quel 5% di "Golden Zone" dove la fisica del sistema diventa deterministica. Lì, il ROI non è solo "meglio del caso", è su un altro pianeta (Quality over Quantity).
In sintesi: tu guardi i numeri come valori contabili (e hai ragione a essere scettico), io li guardo come vettori energetici (e ottengo risultati). Sono due sport diversi."

Tuttavia, c'è una differenza tra descrivere il passato e misurare la tensione attuale di un sistema chiuso.Quindi Mandomax Non pubblico i dati finanziari o i parametri di gestione del rischio per ovvi motivi di privacy, si aprirebbero ulteriori discussioni, se si implementa un kelly betting in un modello previsionale significa che quel modello produce un utile altimenti non avrebbe senso ti pare? non solo, kelly betting mi indica il capitale da investire in base alle probabilità calcolate dal ML per quella previsione a salvaguardia del mio capitale, significa serenità nel giocare questo psicologicamente mette il gicatore in una posizione di vantaggio rispetto a un altro che gioca alla cieca e con l'ansia di rincorrere il capitale perso! perde lucidità e certezze e questo è tossico per chi gioca con i propi soldi.

Il vantaggio non sta nell'indovinare ogni numero, ma nel sapere quando e dove il sistema è costretto dalla sua stessa geometria a riequilibrarsi. Questo permette di filtrare il 90% del rumore (non giocare) e agire solo sul 10% di segnale puro." poi ognuno ha le proprie idee e la sua logica è le rispetto ma la domanda da porsi e danno risultati i vostri modelli generano un utile costante sul capitale investito? se la risposta è no allora quella logica andrebbe rivista, se è si allora siete sulla strada giusta.
 
Ciao Spectrum mi piace molto la tua innovazione di previsioni anche se non ci capisco molto .
Già da inizio anno nuovo noto che quei pochi diciamo metodi che uso vedo che non danno esito come anno passato, penso che anno cambiato qualcosa anche dal tabellone analitico i ritardi di formazioni sono aumentati ( fanno cassa) , hai provato a condividere una previsione e vedere se da gli stessi risultati nei tempi previsti giusto per testare le energie se rimangono o meno
 
ciao ken, dipende su quale logica si basano i tuoi metodi se poggiano su logiche sommative hanno una loro durata e bisogna aggiornarli, non sono un giocatore di lotto e non faccio previsioni credo che ci sia una sezione dedicata alle previsioni in questo forum.
 

Ultima estrazione Lotto

  • Estrazione del lotto
    venerdì 30 gennaio 2026
    Bari
    52
    28
    46
    44
    56
    Cagliari
    61
    16
    37
    31
    49
    Firenze
    22
    42
    53
    38
    58
    Genova
    77
    51
    43
    54
    60
    Milano
    08
    74
    79
    82
    33
    Napoli
    52
    74
    25
    71
    70
    Palermo
    07
    70
    69
    34
    62
    Roma
    67
    59
    29
    22
    77
    Torino
    80
    06
    73
    69
    56
    Venezia
    49
    47
    12
    25
    66
    Nazionale
    54
    16
    59
    85
    68
    Estrazione Simbolotto
    Bari
    09
    35
    13
    32
    33
Indietro
Alto