Teoria della probabilità

Teoria della probabilità: cos’è, tutto sull’argomento

Indice dei contenuti

60-XX

60-XX è la sigla della sezione primaria dello schema di classificazione MSC dedicata alla teoria della probabilità e ai processi stocastici.

Teoria della probabilità

La teoria della probabilità è lo studio matematico della probabilità.

Aleatorietà

L’aleatorietà è la caratteristica di un evento il cui verificarsi non dipende da elementi ben definibili.

Algebra di Borel

In matematica l’algebra di Borel, o più propriamente la σ-algebra di Borel, è la più piccola σ-algebra su un insieme dotato di struttura topologica che sia compatibile con la topologia stessa, ossia che contenga tutti gli aperti della topologia.

Assiomi di Kolmogorov

Gli assiomi di Kolmogorov sono una parte fondamentale della teoria della probabilità di Andrey Kolmogorov. In essi, la probabilità P di qualche evento E, indicata come , è definita in modo da soddisfare questi assiomi. Gli assiomi sono descritti di seguito.

Campione bernoulliano

In statistica si definiscono campioni bernoulliani quei campioni che si ottengono, in un’indagine campionaria, quando le unità della popolazione sono estratte a caso, una per volta, e senza escludere le unità già precedentemente estratte.

Coerenza (probabilità bayesiana)

Secondo il matematico italiano Bruno de Finetti, l’assegnazione di un valore numerico di probabilità relativo ad una scommessa è coerente se non espone lo scommettitore ad una perdita certa, indipendentemente dagli esiti degli eventi su cui egli scommette.

Convergenza di variabili casuali

In teoria della probabilità e statistica è molto vivo il problema di studiare fenomeni con comportamento incognito ma, nei grandi numeri, riconducibili a fenomeni noti e ben studiati. A ciò vengono in soccorso i vari teoremi di convergenza di variabili casuali, che appunto studiano le condizioni sotto cui certe successioni di variabili casuali di una certa distribuzione tendono ad altre distribuzioni.

Correlazione (statistica)

 

 

 

Esempi di insiemi di punti (x;y) con relativo coefficiente di correlazione.
Esempi di insiemi di punti (x;y) con relativo coefficiente di correlazione.

In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità. La correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un’altra.

Correzione di continuità

 

 

 

Grafici della distribuzione binomiale per n=6 e p=0,5 e della sua approssimazione tramite una distribuzione normale.
Grafici della distribuzione binomiale per n=6 e p=0,5 e della sua approssimazione tramite una distribuzione normale.

In teoria della probabilità, la correzione di continuità è una modifica dell’intervallo di integrazione che si applica quando si calcola un valore di probabilità approssimando una distribuzione discreta con una continua

Criterio di Kelly

Nella teoria della probabilità, il criterio di Kelly, o strategia di Kelly o formula di Kelly, o puntata di Kelly, è una formula utilizzata per determinare la dimensione ottimale del capitale da investire in una scommessa. Nella maggior parte degli scenari di gioco e alcuni scenari di investimento, la strategia di Kelly farà sostanzialmente meglio di qualsiasi strategia diversa nel lungo periodo.

Curtosi

La curtosi, nel linguaggio della statistica, è un allontanamento dalla normalità distributiva, rispetto alla quale si verifica un maggiore appiattimento o un maggiore allungamento. La sua misura più nota è l’indice di Pearson , rapporto tra il momento centrato di ordine 4 e il quadrato della varianza. Il valore dell’indice corrispondente alla distribuzione normale (gaussiana) è 0. Un valore minore di 0 indica una distribuzione platicurtica, mentre un valore maggiore di 0 indica una distribuzione leptocurtica.

Delta-algebra

In matematica, una δ-algebra su di un insieme , è una famiglia di sottoinsiemi di  che sia chiusa rispetto all’operazione di intersezione al più numerabile e di passaggio al complementare.

Differenza di martingala

Nella teoria della probabilità, una differenza di martingala è un processo stocastico caratterizzato da valore atteso condizionale nullo.

Dismutazione (matematica)

In combinatoria vengono dette dismutazioni le permutazioni di un insieme che non fissano alcun elemento, ovvero tali che nessuno degli elementi dell’insieme iniziale compaia nella sua posizione originaria.

Distribuzione condizionata

Date due variabili aleatorie X e Y, la distribuzione condizionata di Y dato X è la probabilità di Y quando è conosciuto il valore assunto da X. A ogni distribuzione condizionata è associato un valore atteso condizionato e una varianza condizionata.

Distribuzione congiunta

In probabilità, date due variabili aleatorie X e Y, definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore . Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si parla di distribuzione multivariata.

Distribuzione normale

 

Funzione di densità di una variabile casuale normale
Funzione di densità di una variabile casuale normale

La distribuzione normale, nella teoria della probabilità, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio.

Distribuzione normale inversa

In teoria delle probabilità la distribuzione normale inversa è una distribuzione di probabilità continua dipendente da due parametri definita sui numeri reali positivi. È usata tra l’altro nel Modello lineare generalizzato.

Distribuzione normale multivariata

 

Funzione di densità di una normale multivariata
Funzione di densità di una normale multivariata

In teoria della probabilità e statistica, la distribuzione normale multivariata o distribuzione gaussiana multivariata o vettore gaussiano è una generalizzazione della distribuzione normale a dimensioni più elevate. Un vettore di variabili aleatorie ha una distribuzione normale multivariata se ogni combinazione lineare delle sue componenti ha distribuzione normale.

Disuguaglianza dei fratelli Markov

In teoria della probabilità e statistica, la disuguaglianza dei fratelli Markov è una diseguaglianza dimostrata da Andrej Markov jr. per  e da suo fratello Vladimir per . Essa afferma quanto segue.

Disuguaglianza di Bernstein

Nella teoria della probabilità, la disuguaglianza di Bernstein è una delle disuguaglianze riguardanti la somma di variabili casuali. Venne formulata da Sergei Natanovich Bernstein, di cui porta il nome.

Disuguaglianza di Cantelli

La disuguaglianza di Cantelli corrisponde alla disuguaglianza di Chebychev nel caso di una sola “coda”. Essa afferma che

 per 
 per 

Disuguaglianza di Čebyšëv

La disuguaglianza di Čebyšëv è usata soprattutto nell’ambito della teoria probabilistica e più raramente nell’ambito di serie di dati reali. Spesso la disuguaglianza di Čebyšëv viene indicata come disuguaglianza di Markov, di cui è un corollario.

Disuguaglianza di Hoeffding

La disuguaglianza di Hoeffding permette di indicare la probabilità massima che la somma di variabili casuali limitate e indipendenti superi di una determinata quantità la somma dei loro valori attesi. Questa disuguaglianza venne pubblicata da Wassily Hoeffding nel 1963 e svolge un ruolo importante nell’ambito della teoria della statistica non parametrica grazie alle poche assunzioni fatte sulle v.c.

Disuguaglianza di Markov

In teoria della probabilità e statistica, la disuguaglianza di Markov afferma che, per una variabile casuale  non negativa il cui valore atteso esiste:

Disuguaglianze di Boole e di Bonferroni

In teoria della probabilità, la disuguaglianza di Boole, nota anche come limite per l’unione, afferma che per ogni collezione finita o numerabile di eventi, la probabilità che accada almeno uno degli eventi è minore o uguale alla somma delle probabilità dei singoli eventi. Questa disuguaglianza viene generalizzata da due disuguaglianze di Bonferroni.

Espansione diadica

L’espansione diadica di un numero reale compreso tra 0 e 1 non è altro che la sua scrittura binaria costituita dall’accostamento infinito delle sole cifre 0 e 1.

Evento (teoria della probabilità)

Nella teoria della probabilità, un evento è un insieme di risultati al quale viene assegnata una probabilità. In prima approssimazione, qualsiasi sottoinsieme dello spazio campionario è un evento, ma quando si definisce uno spazio di probabilità è spesso opportuno o necessario limitarsi ad una famiglia di sottoinsiemi dello spazio campionario tale da costituire una σ-algebra.

Fallacia dello scommettitore

La fallacia dello scommettitore è un errore logico che riguarda l’errata convinzione che eventi occorsi nel passato influiscano su eventi futuri nell’ambito di attività governate dal caso, quali ad esempio molti giochi d’azzardo. L’espressione descrive una delle seguenti erronee convinzioni:

  • Un evento casuale ha più probabilità di verificarsi perché non si è verificato per un periodo di tempo;
  • Un evento casuale ha meno probabilità di verificarsi perché non si è verificato per un periodo di tempo;
  • Un evento casuale ha più probabilità di verificarsi perché si è verificato di recente;
  • Un evento casuale ha meno probabilità di verificarsi perché si è verificato di recente;

FastICA

FastICA è un popolare algoritmo per l’analisi delle componenti indipendenti, sviluppato da Aapo Hyvärinen presso la Helsinki University of Technology. L’algoritmo è basato su un punto fisso, schema iterativo per massimizzare la non-gaussianità di una misura statistica di indipendenza. L’algoritmo può anche essere derivato dall’iterazione approssimata di Newton.

Fenomeno aleatorio

Viene definito aleatorio un fenomeno non deterministico.

Filtrazione (matematica)

In teoria delle probabilità una filtrazione, o base stocastica, su uno spazio è una famiglia crescente di sottotribù di , con . Intuitivamente ogni rappresenta l’informazione disponibile all’istante , ossia tutti gli eventi per i quali si può sapere che si siano verificati oppure no.

Filtro bayesiano

Un filtro bayesiano è una forma di filtraggio dello spam che si basa sull’analisi del contenuto delle email. Questa tecnica è complementare ai sistemi di blocco basati su indirizzo IP, le cosiddette liste nere.

Formula di Feynman-Kac

In matematica, la formula di Feynman-Kac, il cui nome si deve ai suoi autori Richard Feynman e Mark Kac, è un’equazione che fornisce una rappresentazione della soluzione di alcune classi di equazioni alle derivate parziali (PDE) utilizzando le proprietà probabilistiche dei processi stocastici.

Funzione caratteristica (teoria della probabilità)

Nella teoria della probabilità, la funzione caratteristica di una generica distribuzione di probabilità definita sulla retta reale, concetto principalmente sistematizzato da Lukacs, è genericamente una qualsiasi funzione del tipo:

Funzione di densità di probabilità

 

Funzione di densità di probabilità di una variabile aleatoria con distribuzione uniforme.
Funzione di densità di probabilità di una variabile aleatoria con distribuzione uniforme.

In matematica, una funzione di densità di probabilità è l’analogo della funzione di probabilità di una variabile casuale nel caso in cui la variabile casuale  sia continua, cioè l’insieme dei possibili valori che ha la potenza del continuo. Essa descrive la “densità” di probabilità in ogni punto nello spazio campionario.

Funzione di probabilità

Nella teoria della probabilità, la funzione di probabilità , o funzione di massa di probabilità, o densità discreta di una variabile casuale discreta  è una funzione di variabile reale che assegna ad ogni valore possibile di  la probabilità dell’evento elementare .

Funzione di ripartizione

In statistica e teoria della probabilità, la funzione di ripartizione è una funzione di variabile reale che racchiude le informazioni su un fenomeno riguardanti la sua presenza o la sua distribuzione prima o dopo un certo punto.

Funzione di ripartizione empirica

 

La linea verde identifica la funzione di ripartizione di una variabile casuale normale. La linea blu è la funzione di ripartizione empirica calcolata a partire dal campione normale indicato in grigio sull'asse X
La linea verde identifica la funzione di ripartizione di una variabile casuale normale. La linea blu è la funzione di ripartizione empirica calcolata a partire dal campione normale indicato in grigio sull’asse X

In statistica e teoria della probabilità, la funzione di ripartizione empirica è una funzione di variabile reale che rappresenta la funzione di ripartizione della misura empirica di un campione. La funzione di ripartizione empirica è una stima della vera funzione di ripartizione che ha generato il campione e grazie al teorema di Glivenko-Cantelli è possibile affermare che essa converge per  con probabilità 1 alla distribuzione del campione.

Funzione gaussiana

In matematica, una funzione gaussiana è una funzione della seguente forma:

Funzioni gaussiane per diversi valori medi ({\displaystyle \mu }\mu ) e vari valori di {\displaystyle \sigma ^{2}}\sigma ^{2}.
Funzioni gaussiane per diversi valori medi ({\displaystyle \mu }\mu ) e vari valori di {\displaystyle \sigma ^{2}}\sigma ^{2}.

In matematica, una funzione gaussiana è una funzione della seguente forma:

Funzione generatrice dei momenti

La funzione generatrice dei momenti viene usata nella teoria della probabilità per caratterizzare in modo astratto le variabili casuali permettendo da un lato di estrarne agevolmente alcuni parametri dall’altro di confrontare due diverse variabili casuali e vedere il loro comportamento in condizioni limite.

Funzione misurabile

In analisi matematica, una funzione misurabile è una funzione tra due spazi misurabili compatibile con la loro struttura di σ-algebra.

Gioco equo

In probabilità, si definisce gioco equo il gioco nell’ambito del quale si paga al vincitore una somma Q pari all’importo giocato S diviso per la probabilità di vittoria p.

Indipendenza stocastica

Nell’ambito del calcolo delle probabilità, l’indipendenza stocastica di due eventi  e  si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell’altro, ovvero quando la probabilità condizionata  oppure  è pari rispettivamente a  e 

Informazione parziale linearizzata

L’informazione parziale linearizzata (LPI) è un metodo per prendere decisioni basate su informazioni insufficienti, sfumate o incerte. LPI è stato introdotto nel 1970 dal matematico polacco naturalizzato svizzero Edward Kofler, per semplificare i processi di decisione.

Integrabilità uniforme

In analisi funzionale e teoria della misura, una famiglia di funzioni  è uniformemente integrabile se per ogni  esiste un  tale che per ogni  si verifica:

Legge di potenza

Una legge di potenza è una qualsiasi relazione del tipo:

Legge di Zipf

Viene detta legge di Zipf una legge empirica che descrive la frequenza di un evento  facente parte di un insieme, in funzione della posizione  nell’ordinamento decrescente rispetto alla frequenza stessa di tale evento.

Lemma di Borel-Cantelli

Il Lemma di Borel-Cantelli è un risultato di teoria della probabilità e teoria della misura fondamentale per la dimostrazione della legge forte dei grandi numeri.

Lemma di Dynkin

Il lemma di Dynkin, altresì detto teorema delle classi monotone, è un enunciato importante in teoria della misura che ha, tra le varie conseguenze, il teorema di unicità delle probabilità. Deve il suo nome al matematico russo Evgenij Borisovič Dynkin.

Lemma di Kronecker

In matematica, il lemma di Kronecker è un risultato sulla relazione tra la convergenza di una successione e la convergenza di una particolare serie relativa ad essa. Il lemma è spesso utilizzato nelle dimostrazioni di teoremi sulle somme di variabili aleatorie indipendenti, come la legge dei grandi numeri. Il nome del lemma è dovuto al matematico tedesco Leopold Kronecker.

Lemma di Slutsky

Il lemma di Slutsky è una delle applicazioni del teorema di Slutsky, utilizzato in particolare per dimostrare che la continuità di una funzione  è condizione necessaria e sufficiente per la conservazione della convergenza in probabilità.

Macchina di Galton

 

Macchina di Galton
Macchina di Galton

La macchina di Galton è un dispositivo inventato da Sir Francis Galton per fornire una dimostrazione pratica del teorema del limite centrale e della distribuzione normale.

Mancanza di memoria

In teoria della probabilità, la mancanza di memoria è una proprietà caratteristica di due variabili casuali: quella esponenziale negativa e quella geometrica. La mancanza di memoria esprime il fatto che una variabile di quei due tipi non “ricorda il passato” ma si comporta come se fosse “nuova”.

Martingala (matematica)

 

Simulazioni di Moto browniano: un classico esempio di martingala a tempo continuo.
Simulazioni di Moto browniano: un classico esempio di martingala a tempo continuo.

Nella teoria della probabilità, una martingala è un processo stocastico , indicizzato da un parametro crescente , con la seguente proprietà: per ogni , l’attesa di  condizionata rispetto ai valori di , è uguale ad . Il più noto esempio di martingala, in cui il parametro  è continuo, è senz’altro il moto browniano.

Misura di probabilità

Nell’ambito della teoria della probabilità, misura di probabilità è il nome tecnico della funzione che assegna agli esiti di un determinato esperimento la probabilità che tali esiti si realizzino. È importante osservare che la misura di probabilità non assegna la probabilità ai singoli punti dello spazio campionario bensì a sottoinsiemi di esso.

Normalizzazione (matematica)

In matematica per normalizzazione si intende il procedimento di dividere tutti i termini di un’espressione per uno stesso fattore in modo che l’espressione risultante abbia una certa norma uguale a 1.

Odds

In statistica, con il termine inglese odds si intende il rapporto tra la probabilità  di un evento e la probabilità che tale evento non accada, cioè la probabilità  dell’evento complementare:

Paradosso dei due bambini

Viene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplice ma in realtà ambiguo e il cui studio porta a una risposta controintuitiva. Esso è spesso citato per mettere in evidenza la facilità con la quale nell’ambito della probabilità può nascere confusione anche in contesti che a prima vista sembrano nient’affatto complicati da analizzare.

Paradosso del compleanno

 

Il grafico mostra l'andamento di P(p) al crescere del numero di persone
Il grafico mostra l’andamento di P(p) al crescere del numero di persone

Il paradosso del compleanno è un paradosso di teoria della probabilità definito nel 1939 da Richard von Mises.

Paradosso dell’ascensore

In matematica, viene detto paradosso dell’ascensore un fenomeno studiato per la prima volta nel 1958 dal fisico George Gamow e dal matematico Marvin Stern, che avevano i loro studi in due diversi piani di uno stesso edificio.

Paradosso delle due buste

Il paradosso delle due buste deriva da un ragionamento logico-matematico, apparentemente ineccepibile, che dimostra che, tra due buste di valore diverso, ma dichiarate esternamente indistinguibili, una volta scelta una delle due conviene comunque cambiarla.

Paradosso delle tre carte

Viene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicità ha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, la seconda (B) su un lato è rossa e sull’altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo una delle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato non visibile sia di colore rosso?

Paradosso di Bertrand

Il paradosso di Bertrand è un problema riguardante l’approccio classico alla teoria della probabilità, formulato inizialmente da Joseph Bertrand nel suo lavoro Calcolo delle probabilità del 1889, che mostra come il concetto di probabilità non sia ben definito se non è chiaro il meccanismo in cui le variabili casuali sono generate. Bertrand propose tre approcci alla soluzione del problema basati su ragionamenti che intuitivamente sembrano tutti essere validi, ma che portano a risultati incoerenti.

Paradosso di Borel

In teoria delle probabilità il paradosso di Borel afferma che sia sempre possibile comporre una qualsiasi opera letteraria digitando casualmente le lettere di una tastiera. Da qui deriva anche il nome di paradosso della scimmia in quanto si immagina che una scimmia possa scrivere un testo di senso compiuto digitando casualmente le lettere di una tastiera.

Paradosso di Ellsberg

Il paradosso di Ellsberg è un paradosso evidenziato dall’economia sperimentale, in cui le scelte degli individui violano l’ipotesi alla base della teoria dell’utilità attesa. È generalmente considerato come una prova a favore dell’avversione all’ambiguità. Il paradosso fu reso celebre da Daniel Ellsberg, ma una versione dello stesso fu osservata molto tempo prima da John Maynard Keynes.

Paradosso di San Pietroburgo

Nella teoria della probabilità e nella teoria delle decisioni, il paradosso di San Pietroburgo descrive un particolare gioco d’azzardo basato su una variabile casuale con valore atteso infinito, cioè con una vincita media di valore infinito. Ciononostante, ragionevolmente, si considera adeguata solo una minima somma, da pagare per partecipare al gioco.

Passeggiata aleatoria

 

Esempio di otto Random Walks in una dimensione partendo da 0. Il grafico mostra la posizione sulla linea (asse verticale) al variare del tempo (numero di passi effettuati - asse orizzontale).
Esempio di otto Random Walks in una dimensione partendo da 0. Il grafico mostra la posizione sulla linea (asse verticale) al variare del tempo (numero di passi effettuati – asse orizzontale).

In matematica, una passeggiata aleatoria è la formalizzazione dell’idea di prendere passi successivi in direzioni casuali. Matematicamente parlando, è il processo stocastico più semplice, il processo markoviano, la cui rappresentazione matematica più nota è costituita dal processo di Wiener.

Permutazione

Una permutazione è un modo di ordinare in successione oggetti distinti, come nell’anagramma di una parola. In termini matematici una permutazione di un insieme X si definisce come una funzione biiettiva .

Polinomi di Hermite

In matematica e fisica, i polinomi di Hermite sono una sequenza polinomiale usata in probabilità, nello specifico nelle serie di Edgeworth, in combinatoria ed in meccanica quantistica, in particolare nel calcolo degli autostati dell’oscillatore armonico quantistico.

Probabilità

 

Alcuni dadi a sei facce, spesso utilizzati per spiegare il calcolo delle probabilità.
Alcuni dadi a sei facce, spesso utilizzati per spiegare il calcolo delle probabilità.

Il concetto di probabilità, utilizzato a partire dal XVII secolo, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica, cui fanno ricorso numerose scienze sia naturali che sociali.

Probabilità condizionata

In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato. Questa probabilità, indicata  o , esprime una “correzione” delle aspettative per A, dettata dall’osservazione di B.

Probabilità nel gioco del lotto

Le probabilità per le varie tipologie di vincita sono le probabilità statistiche che una determinata condizione di vittoria si verifichi nel gioco del lotto. Il gioco del lotto è detto non equo, poiché in caso di vincita non viene corrisposta una somma proporzionale al reciproco della probabilità di vittoria.

Problema di Monty Hall

 

Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto) mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli cambiando scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbe il 33,3%.
Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l’auto) mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli cambiando scelta ha il 66,7% di probabilità di vincere l’auto, non cambiandola ne avrebbe il 33,3%.

Il problema di Monty Hall è un famoso problema di teoria della probabilità, legato al gioco a premi statunitense Let’s Make a Deal. Prende il nome da quello del conduttore dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall. Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, ma non si tratta di una vera antinomia, in quanto non genera contraddizioni logiche.

Quantile

In statistica il quantile di ordine α o α-quantili è un valore qα che divide la popolazione in due parti, proporzionali ad α e (1-α) e caratterizzate da valori rispettivamente minori e maggiori di qα. Per poter calcolare un quantile di ordine α è necessario che il carattere sia almeno ordinato, cioè sia possibile definire un ordinamento sulle modalità.

Quasi certamente

In teoria della probabilità, si dice che un evento accade quasi certamente se accade con probabilità uguale a uno. Il concetto è analogo a quello di quasi ovunque in teoria della misura. Benché non ci sia differenza tra quasi certamente e certamente in molti basilari esperimenti di probabilità, la distinzione risulta importante in casi più complessi che si riferiscono a qualche tipo di infinito. Per esempio, il termine si incontra spesso in situazioni che trattano tempi infiniti, proprietà di regolarità o spazi di dimensione infinita come gli spazi funzionali. Esempi standard di tale uso includono la legge forte dei grandi numeri e la continuità dei percorsi browniani.

Quasi ovunque

In matematica, il termine quasi ovunque definisce una proprietà che vale in tutti i punti di un insieme, tranne al più in un sottoinsieme di misura nulla. Naturalmente, affinché tale nozione sia ben posta, è necessario che sull’insieme in questione sia definito uno spazio di misura. In teoria della probabilità, si utilizza anche la locuzione quasi sicuramente per indicare lo stesso concetto. Nella letteratura scientifica più datata, il termine francese presque partout ha pure uso frequente.

Sequenza di lunghezza massima

Una sequenza di massima lunghezza è un tipo di sequenza binaria pseudocasuale.

Sigma-algebra

In matematica, una σ-algebra o tribù su di un insieme , è una famiglia di sottoinsiemi di  che ha delle proprietà di chiusura rispetto ad alcune operazioni insiemistiche, in particolare l’operazione di unione numerabile e di passaggio al complementare. La struttura di σ-algebra è particolarmente utile nelle teorie della misura e probabilità ed è alla base di tutte le nozioni di misurabilità, sia di insiemi che di funzioni. Essa è un caso particolare di algebra di insiemi e, rispetto a quest’ultima, è utilizzata molto più ampiamente in Analisi.

Simmetria (statistica)

Esempio di dati sperimentali che presentano asimmetria
Esempio di dati sperimentali che presentano asimmetria

In teoria delle probabilità una distribuzione di probabilità è simmetrica quando la sua funzione di probabilità P o la sua funzione di densità di probabilità siano simmetriche rispetto ad un particolare valore :

 oppure .

Sistema pi

In matematica, un sistema pi, o anche -sistema, su un insieme  è una famiglia P non vuota di sottoinsiemi di , tale che l’intersezione di due elementi di P è ancora in P; ovvero P è stabile per intersezioni finite.

Spazio campionario

Nel calcolo delle probabilità lo spazio campionario o insieme universo è l’insieme dei possibili risultati di un esperimento casuale. Ad esempio, nel lancio di un dado a sei facce lo spazio campionario è l’insieme , nel lancio di una moneta è l’insieme {testacroce}, e così via. Lo spazio campionario può anche avere infiniti elementi: se, ad esempio, siamo interessati allo studio della caduta di una pallina su un pavimento, lo spazio campionario corrisponderà all’insieme dei punti del pavimento, considerati tutti come possibili punti di impatto della pallina.

Spazio di misura

In analisi matematica uno spazio di misura è una struttura astratta utilizzata per formalizzare il concetto di misura, come generalizzazione delle idee elementari di lunghezza di una curva o area di una superficie.

Spazio misurabile

In matematica, uno spazio misurabile è una struttura astratta alla base di molte idee e nozioni dell’analisi, in particolare in teoria della misura, come quelle di funzione misurabile, insieme misurabile, misura, integrale, sistema dinamico. Gli spazi misurabili sono oggetto della Matematica sin dal XIX secolo, quando si iniziò uno studio sistematico degli oggetti matematici connessi con l’idea di integrale. Tuttavia, è solo all’inizio del XX secolo che la attuale teoria della misura, e conseguentemente la nozione astratta di spazio misurabile, prende corpo.

Spazio polacco

In matematica, uno spazio polacco è una struttura topologica astratta, che deve il suo nome alla scuola di matematici polacchi che all’inizio del XX secolo ne studiarono le proprietà. I principali risultati riguardanti spazi polacchi sono infatti legati ai nomi di Wacław Sierpiński, Kazimierz Kuratowski e Alfred Tarski.

Standardizzazione (statistica)

La standardizzazione è un procedimento che riconduce una variabile aleatoria distribuita secondo una media μ e varianza σ2, ad una variabile aleatoria con distribuzione “standard”, ossia di media zero e varianza pari a 1. È particolarmente utile nel caso della variabile casuale normale per il calcolo della funzione di ripartizione e dei quantili con le tavole della normale standard. Infatti i valori della distribuzione normale sono tabulati per media zero e varianza unitaria.

Tempo medio di uscita di una stringa

In teoria delle probabilità il tempo medio di uscita di una stringa è il calcolo della previsione di uscita di una stringa prefissata di  caratteri estraendo casualmente le lettere da un insieme finito di caratteri, dato dalla formula  [U]=\sum _, dove:

  •  è il numero totale di caratteri dell’alfabeto di riferimento
  •  è un insieme di indici che contiene i valori
    • la posizione del primo carattere, pari a
    • la posizione dell’ultimo carattere, pari alla lunghezza  della stringa
    • le posizioni di ogni sotto-stringa ripetuta all’interno della stringa
  •  è una variabile aleatoria che definisce il tempo di uscita della stringa

Per calcolare la previsione è necessario anche conoscere la probabilità di uscita di un carattere dall’insieme totale dei caratteri, dato da , dove  è una variabile aleatoria che può assumere i valori di un carattere dell’alfabeto, mentre l’evento definisce l’uscita del carattere alla -esima estrazione.

Testa o croce

Testa o croce è il nome popolare con cui si definisce la tecnica utilizzata per selezionare una scelta tra due possibili, con uguale probabilità, utilizzando una moneta. Essa consiste semplicemente nell’associare a priori le due scelte possibili alle due facce della moneta, quindi nel lanciare quest’ultima in aria, e considerare estratta la scelta relativa alla faccia mostrata dalla moneta dopo la caduta. Sono comuni anche delle semplici varianti, che consistono ad esempio nell’afferrare la moneta al volo dopo il lancio, coprirla con le mani e voltarla prima di scoprirne la faccia.

Trasformazione integrale di probabilità

In statistica, la trasformazione integrale di probabilità si riferisce al risultato che converte valori descritti come variabili casuali di una qualsivoglia distribuzione continua in variabili casuali aventi una distribuzione uniforme. Questo è sempre vero, a patto che la distribuzione utilizzata come punto di partenza sia la vera distribuzione della variabile casuale; se si è operato un fit di distribuzione ai valori, il risultato sarà approssimativamente vero per campioni abbastanza grandi.

Valore atteso

In teoria della probabilità il valore atteso di una variabile casuale , è un numero indicato con  che formalizza l’idea euristica di valore medio di un fenomeno aleatorio.

Valore atteso condizionato

Nella teoria della probabilità, il valore atteso condizionato di una variabile casuale è il suo valore atteso rispetto ad una distribuzione di probabilità condizionata.

Variabile casuale multivariata

In matematica, probabilità e statistica, una variabile casuale multivariata o vettore casuale è una lista di variabili matematiche ciascuna di valore ignoto, o perché il valore non è ancora stato determinato o perché c’è una conoscenza imperfetta di tale valore. Le singole variabili in un vettore casuale sono raggruppate insieme perché ci possono essere correlazioni tra loro — spesso esse rappresentano differenti proprietà di una singola unità statistica. Per esempio, poiché una data persona ha una specifica età, altezza e peso, la rappresentazione di qualsiasi persona all’interno di un gruppo può essere un vettore casuale. Normalmente ogni elemento di un vettore casuale è un numero reale.

Variabili indipendenti e identicamente distribuite

Nella teoria della probabilità, una sequenza di variabili casuali è detta indipendente e identicamente distribuita (i.i.d.) se:

  • le variabili hanno tutte la stessa distribuzione di probabilità;
  • le variabili sono tutte statisticamente indipendenti.

Tratto da Wikipedia:

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: