E P ( [ Y t − Y s ] χ F ) 💱 = 0 , {\displaystyle \mathbf {E} _{\mathbf {P} }\left([Y_{t}-Y_{s}]\chi _{F}\right)=0,} em que χ F {\displaystyle \chi _{F}} função indicadora do 💱 evento F {\displaystyle F} A última condição é denotada como Y s = E P ( Y t | Σ 💱 s ) , {\displaystyle Y_{s}=\mathbf {E} _{\mathbf {P} }(Y_{t}|\Sigma _{s}),} que é uma forma geral de valor esperado condicional.[ 11 💱 ]
É importante notar que a propriedade martingale envolve tanto a filtração, como a medida de probabilidade (em relação à qual 💱 os valores esperados são assumidos).
É possível que Y {\displaystyle Y} seja um martingale em relação a uma medida, mas não 💱 em relação a outra.
O Teorema de Girsanov oferece uma forma de encontrar uma medida em relação à qual um processo 💱 de Itō é um martingale.[12]
Exemplos de martingales [ editar | editar código-fonte ]
Um passeio aleatório não viesado (em qualquer número 💱 de dimensões) é um exemplo de martingale.
O dinheiro de um apostador é um martingale se todos os jogos de aposta 💱 com que ele se envolver forem honestos.
Uma urna de Pólya contém uma quantidade de bolas de diferentes cores.
A cada iteração, 💱 uma bola é aleatoriamente retirada da urna e substituída por várias outras da mesma cor.
Para qualquer cor dada, a fração 💱 das bolas na urna com aquela cor é um martingale.
Por exemplo, se atualmente 95% da bolas são vermelhas, então, ainda 💱 que a próxima iteração mais provavelmente adicione bolas vermelhas e não de outra cor, este viés está exatamente equilibrado pelo 💱 fato de que adicionar mais bolas vermelhas altera a fração de forma muito menos significativa do que adicionar o mesmo 💱 número de bolas não vermelhas alteraria.
Suponha que X n {\displaystyle X_{n}} moeda honesta foi jogada n {\displaystyle n}
moeda honesta foi 💱 jogada Considere Y n = X n 2 − n {\displaystyle Y_{n}={X_{n}}^{2}-n} X n {\displaystyle X_{n}} { Y n : 💱 n = 1 , 2 , 3 , ...
} {\displaystyle \{Y_{n}:n=1,2,3,...
\}} raiz quadrada do número de vezes que a moeda 💱 for jogada.
raiz quadrada do número de vezes que a moeda for jogada.
No caso de um martingale de Moivre, suponha que 💱 a moeda é desonesta, isto é, viesada, com probabilidade p {\displaystyle p} q = 1 − p {\displaystyle q=1-p}
X n 💱 + 1 = X n ± 1 {\displaystyle X_{n+1}=X_{n}\pm 1} com + {\displaystyle +} − {\displaystyle -}
Y n = ( 💱 q / p ) X n .
{\displaystyle Y_{n}=(q/p)^{X_{n}}.}
Então, { Y n : n = 1 , 2 , 3 , 💱 ...
} {\displaystyle \{Y_{n}:n=1,2,3,...
\}} { X n : n = 1 , 2 , 3 , ...
} {\displaystyle \{X_{n}:n=1,2,3,...
\}} E [ 💱 Y n + 1 ∣ X 1 , .
.
.
, X n ] = p ( q / p ) 💱 X n + 1 + q ( q / p ) X n − 1 = p ( q / 💱 p ) ( q / p ) X n + q ( p / q ) ( q / p 💱 ) X n = q ( q / p ) X n + p ( q / p ) X 💱 n = ( q / p ) X n = Y n .
{\displaystyle {\begin{aligned}E[Y_{n+1}\mid X_{1},\dots ,X_{n}]&=p(q/p)^{X_{n}+1}+q(q/p)^{X_{n}-1}\\[6pt]&=p(q/p)(q/p)^{X_{n}}+q(p/q)(q/p)^{X_{n}}\\[6pt]&=q(q/p)^{X_{n}}+p(q/p)^{X_{n}}=(q/p)^{X_{n}}=Y_{n}.\end{aligned}}}
No teste de razão de 💱 verossimilhança em estatística, uma variável aleatória X {\displaystyle X} f {\displaystyle f} g {\displaystyle g} amostra aleatória X 1 , 💱 ...
, X n {\displaystyle X_{1},...
,X_{n}} [ 13 ] Considere Y n {\displaystyle Y_{n}}
Y n = ∏ i = 1 n 💱 g ( X i ) f ( X i ) {\displaystyle Y_{n}=\prod _{i=1}^{n}{\frac {g(X_{i})}{f(X_{i})}}}
Se X {\displaystyle X} f {\displaystyle f} 💱 g {\displaystyle g} { Y n : n = 1 , 2 , 3 , ...
} {\displaystyle \{Y_{n}:n=1,2,3,...
\}} { X 💱 n : n = 1 , 2 , 3 , ...
} {\displaystyle \{X_{n}:n=1,2,3,...\}}
Suponha que uma ameba se divide em duas 💱 amebas com probabilidade p {\displaystyle p} 1 − p {\displaystyle 1-p} X n {\displaystyle X_{n}} n {\displaystyle n} X n 💱 = 0 {\displaystyle X_{n}=0} r {\displaystyle r} r {\displaystyle r} p {\displaystyle p} [ 14 ] Então
{ r X n 💱 : n = 1 , 2 , 3 , .
.
.
} {\displaystyle \{\,r^{X_{n}}:n=1,2,3,\dots \,\}}
é um martingale em relação a { 💱 X n : n = 1 , 2 , 3 , ...
} {\displaystyle \{X_{n}:n=1,2,3,...\}}
Uma série martingale criada por software.
Em uma 💱 comunidade ecológica (um grupo de espécies em um nível trófico particular, competindo por recursos semelhantes em uma área local), o 💱 número de indivíduos de qualquer espécie particular de tamanho fixado é uma função de tempo (discreto) e pode ser visto 💱 como uma sequência de variáveis aleatórias.
Esta sequência é um martingale sob a teoria neutra unificada de biodiversidade e biogeografia.
Se { 💱 N t : t ≥ 0 } {\displaystyle \{N_{t}:t\geq 0\}} processo de Poisson com intensidade λ {\displaystyle \lambda } { 💱 N t − λ t : t ≥ 0 } {\displaystyle \{N_{t}-\lambda _{t}:t\geq 0\}}
Submartingales, supermartingales e relação com funções harmônicas 💱 [ editar | editar código-fonte ]
Há duas generalizações populares de um martingale que também incluem casos em que a observação 💱 atual X n {\displaystyle X_{n}} não é necessariamente igual à futura expectativa condicional E [ X n + 1 | 💱 X 1 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...
,X_{n}]} , mas, em vez disto, a um limite superior ou inferior 💱 à expectativa condicional.
Estas definições refletem uma relação entre a teoria do martingale e a teoria do potencial, que é o 💱 estudo das funções harmônicas.
[15] Assim como um martingale de tempo contínuo satisfaz a E [ X t | { X 💱 τ : τ ≤ s } − X s = 0 ∀ s ≤ t {\displaystyle E[X_{t}|\{X_{\tau }:\tau \leq s\}-X_{s}=0\forall 💱 s\leq t} , uma função harmônica f {\displaystyle f} satisfaz a equação diferencial parcial Δ f = 0 {\displaystyle \Delta 💱 f=0} , em que Δ {\displaystyle \Delta } é o operador de Laplace.
Dado um processo de movimento browniano W t 💱 {\displaystyle W_{t}} e uma função harmônica f {\displaystyle f} , o processo resultante f ( W t ) {\displaystyle f(W_{t})} 💱 também é um martingale.
Um submartingale de tempo discreto é uma sequência X 1 , X 2 , X 3 , 💱 .
.
.
{\displaystyle X_{1},X_{2},X_{3},\ldots } integráveis que satisfaz a
E [ X n + 1 | X 1 , .
.
.
, X 💱 n ] ≥ X n .
{\displaystyle {}E[X_{n+1}|X_{1},\ldots ,X_{n}]\geq X_{n}.
} Da mesma forma, um submartingale de tempo contínuo satisfaz a E 💱 [ X t | { X τ : τ ≤ s } ] ≥ X s ∀ s ≤ t 💱 .
{\displaystyle {}E[X_{t}|\{X_{\tau }:\tau \leq s\}]\geq X_{s}\quad \forall s\leq t.
} Em teoria do potencial, uma função sub-harmônica f {\displaystyle f} Δ 💱 f ≥ 0 {\displaystyle \Delta f\geq 0} Grosso modo, o prefixo "sub-" é consistente porque a atual observação X n 💱 {\displaystyle X_{n}} E [ X n + 1 | X 1 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...,X_{n}]}
De forma análoga, 💱 um supermartingale de tempo discreto satisfaz a
E [ X n + 1 | X 1 , .
.
.
, X n 💱 ] ≤ X n .
{\displaystyle {}E[X_{n+1}|X_{1},\ldots ,X_{n}]\leq X_{n}.
} Da mesma forma, um supermartingale de tempo contínuo satisfaz a E [ 💱 X t | { X τ : τ ≤ s } ] ≤ X s ∀ s ≤ t .
{\displaystyle 💱 {}E[X_{t}|\{X_{\tau }:\tau \leq s\}]\leq X_{s}\quad \forall s\leq t.
} Em teoria do potencial, uma função super-harmônica f {\displaystyle f} Δ f 💱 ≤ 0 {\displaystyle \Delta f\leq 0} Grosso modo, o prefixo "super-" é consistente porque a atual observação X n {\displaystyle 💱 X_{n}} E [ X n + 1 | X 1 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...,X_{n}]}
Exemplos de submartingales e 💱 supermartingales [ editar | editar código-fonte ]
Todo martingale é também um submartingale e um supermartingale.
Reciprocamente, todo processo estocástico que é 💱 tanto um submartingale, como um supermartingale, é um martingale.
Considere novamente um apostador que ganha $1 quando uma moeda der cara 💱 e perde $1 quando a moeda der coroa.
Suponha agora que a moeda possa estar viesada e que ela dê cara 💱 com probabilidade p {\displaystyle p} Se p {\displaystyle p} 1 / 2 {\displaystyle 1/2} Se p {\displaystyle p} 1 / 💱 2 {\displaystyle 1/2} Se p {\displaystyle p} 1 / 2 {\displaystyle 1/2}
Uma função convexa de um martingale é um submartingale 💱 pela desigualdade de Jensen.
Por exemplo, o quadrado da riqueza de um apostador em jogo de moeda honesta é um submartingale 💱 (o que também se segue do fato de que X n 2 − n {\displaystyle {X_{n}}^{2}-n}
Martingales e tempos de parada 💱 [ editar | editar código-fonte ]
Um tempo de parada em relação a uma sequência de variáveis aleatórias X 1 , 💱 X 2 , X 3 , ...
{\displaystyle X_{1},X_{2},X_{3},...
} é uma variável aleatória τ {\displaystyle \tau } com a propriedade de 💱 que para cada t {\displaystyle t} , a ocorrência ou a não ocorrência do evento τ = t {\displaystyle \tau 💱 =t} depende apenas dos valores de X 1 , X 2 , X 3 , ...
, X t {\displaystyle X_{1},X_{2},X_{3},...,X_{t}} 💱 .
A intuição por trás da definição é que, a qualquer tempo particular t {\displaystyle t} , pode-se observar a sequência 💱 até o momento e dizer se é hora de parar.
Um exemplo na vida real pode ser o tempo em que 💱 um apostador deixa a mesa de apostas, o que pode ser uma função de suas vitórias anteriores (por exemplo, ele 💱 pode deixar a mesa apenas quando ele vai à falência), mas ele não pode escolher entre ficar ou sair com 💱 base no resultando de jogos que ainda não ocorreram.[16]
Em alguns contextos, o conceito de tempo de parada é definido exigindo-se 💱 apenas que a ocorrência ou não ocorrência do evento τ = t {\displaystyle \tau =t} seja probabilisticamente independente de X 💱 t + 1 , X t + 2 , ...
{\displaystyle X_{t+1},X_{t+2},...
} , mas não que isto seja completamente determinado pelo 💱 histórico do processo até o tempo t {\displaystyle t} .
Isto é uma condição mais fraca do que aquela descrita no 💱 parágrafo acima, mas é forte o bastante para servir em algumas das provas em que tempos de parada são usados.
Uma 💱 das propriedades básicas de martingales é que, se ( X t ) t > 0 {\displaystyle (X_{t})_{t>0}} for um (sub/super)martingale 💱 e τ {\displaystyle \tau } for um tempo de parada, então, o processo parado correspondente ( X t τ ) 💱 t > 0 {\displaystyle (X_{t}^{\tau })_{t>0}} definido por X t τ := X min { τ , t } {\displaystyle 💱 X_{t}^{\tau }:=X_{\min\{\tau ,t\}}} é também um (sub/super) martingale.
O conceito de um martingale parado leva a uma série de teoremas importantes, 💱 incluindo, por exemplo, o teorema da parada opcional, que afirma que, sob certas condições, o valor esperado de um martingale 💱 em um tempo de parada é igual ao seu valor inicial.
Em teoria das probabilidades, um martingale é um modelo de 💱 jogo honesto (fair game) em que o conhecimento de eventos passados nunca ajuda a prever os ganhos futuros e apenas 💱 o evento atual importa.
Em particular, um martingale é uma sequência de variáveis aleatórias (isto é, um processo estocástico) para o 💱 qual, a qualquer tempo específico na sequência observada, a esperança do próximo valor na sequência é igual ao valor presentemente 💱 observado, mesmo dado o conhecimento de todos os valores anteriormente observados.[1]
O movimento browniano parado é um exemplo de martingale.
Ele pode 💱 modelar um jogo de cara ou coroa com a possibilidade de falência.
Em contraste, em um processo que não é um 💱 martingale, o valor esperado do processo em um tempo pode ainda ser igual ao valor esperado do processo no tempo 💱 seguinte.
Entretanto, o conhecimento de eventos anteriores (por exemplo, todas as cartas anteriormente retiradas de um baralho) pode ajudar a reduzir 💱 a incerteza sobre os eventos futuros.
Assim, o valor esperado do próximo evento, dado o conhecimento do evento presente e de 💱 todos os anteriores, pode ser mais elevado do que o do presente evento se uma estratégia de ganho for usada.
Martingales 💱 excluem a possibilidade de estratégias de ganho baseadas no histórico do jogo e, portanto, são um modelo de jogos honestos.
É 💱 também uma técnica utilizada no mercado financeiro, para recuperar operações perdidas.
Dobra-se a segunda mão para recuperar a anterior, e assim 💱 sucessivamente, até o acerto.
Martingale é o sistema de apostas mais comum na roleta.
A popularidade deste sistema se deve à jogos para ganhar dinheiro via pix nubank 💱 simplicidade e acessibilidade.
O jogo Martingale dá a impressão enganosa de vitórias rápidas e fáceis.
A essência do sistema de jogo da 💱 roleta Martingale é a seguinte: fazemos uma aposta em uma chance igual de roleta (vermelho-preto, par-ímpar), por exemplo, no "vermelho": 💱 fazemos uma aposta na roleta por 1 dólar; se você perder, dobramos e apostamos $ 2.
Se perdermos na roleta, perderemos 💱 a aposta atual ($ 2) e a aposta anterior ($ 1) de $ 3.4, por exemplo.
duas apostas ganham (1 + 💱 2 = $ 3) e temos um ganho líquido de $ 1 na roleta.
Se você perder uma segunda vez na 💱 roleta Martingale, dobramos a aposta novamente (agora é $ 4).
Se ganharmos, ganharemos de volta as duas apostas anteriores (1 + 💱 2 = 3 dólares) e a atual (4 dólares) da roda da roleta, e novamente ganharemos 1 dólar do cassino 💱 [2].
Originalmente, a expressão "martingale" se referia a um grupo de estratégias de aposta popular na França do século XVIII.
[3][4] A 💱 mais simples destas estratégias foi projetada para um jogo em que o apostador ganhava se a moeda desse cara e 💱 perdia se a moeda desse coroa.
A estratégia fazia o apostador dobrar jogos para ganhar dinheiro via pix nubank aposta depois de cada derrota a fim de 💱 que a primeira vitória recuperasse todas as perdas anteriores, além de um lucro igual à primeira aposta.
Conforme o dinheiro e 💱 o tempo disponível do apostador se aproximam conjuntamente do infinito, a possibilidade de eventualmente dar cara se aproxima de 1, 💱 o que faz a estratégia de aposta martingale parecer como algo certo.
Entretanto, o crescimento exponencial das apostas eventualmente leva os 💱 apostadores à falência, assumindo de forma óbvia e realista que a quantidade de dinheiro do apostador é finita (uma das 💱 razões pelas quais casinos, ainda que desfrutem normativamente de uma vantagem matemática nos jogos oferecidos aos seus clientes, impõem limites 💱 às apostas).
Um movimento browniano parado, que é um processo martingale, pode ser usado para descrever a trajetória de tais jogos.
O 💱 conceito de martingale em teoria das probabilidades foi introduzido por Paul Lévy em 1934, ainda que ele não lhes tivesse 💱 dado este nome.
[5] O termo "martingale" foi introduzido em 1939 por Jean Ville,[6] que também estendeu a definição à martingales 💱 contínuos.
[7] Muito do desenvolvimento original da teoria foi feito por Joseph Leo Doob, entre outros.
[8] Parte da motivação daquele trabalho 💱 era mostrar a impossibilidade de estratégias de aposta bem-sucedidas.[9]
Uma definição básica de um martingale de tempo discreto diz que ele 💱 é um processo estocástico (isto é, uma sequência de variáveis aleatórias) X 1 , X 2 , X 3 , 💱 ...
{\displaystyle X_{1},X_{2},X_{3},...
} de tempo discreto que satisfaz, para qualquer tempo n {\displaystyle n} ,
E ( | X n | ) 💱 < ∞ {\displaystyle \mathbf {E} (\vert X_{n}\vert )<\infty }
E ( X n + 1 ∣ X 1 , .
.
.
, 💱 X n ) = X n .
{\displaystyle \mathbf {E} (X_{n+1}\mid X_{1},\ldots ,X_{n})=X_{n}.}
Isto é, o valor esperado condicional da próxima observação, 💱 dadas todas as observações anteriores, é igual à mais recente observação.[10]
Sequências martingale em relação a outra sequência [ editar | 💱 editar código-fonte ]
Mais geralmente, uma sequência Y 1 , Y 2 , Y 3 , ...
{\displaystyle Y_{1},Y_{2},Y_{3},...
} é considerada um 💱 martingale em relação a outra sequência X 1 , X 2 , X 3 , ...
{\displaystyle X_{1},X_{2},X_{3},...
} se, para todo 💱 n {\displaystyle n} ,
E ( | Y n | ) < ∞ {\displaystyle \mathbf {E} (\vert Y_{n}\vert )<\infty }
E ( 💱 Y n + 1 ∣ X 1 , .
.
.
, X n ) = Y n .
{\displaystyle \mathbf {E} (Y_{n+1}\mid 💱 X_{1},\ldots ,X_{n})=Y_{n}.}
Da mesma forma, um martingale de tempo contínuo em relação ao processo estocástico X t {\displaystyle X_{t}} é um 💱 processo estocástico Y t {\displaystyle Y_{t}} tal que, para todo t {\displaystyle t} ,
E ( | Y t | ) 💱 < ∞ {\displaystyle \mathbf {E} (\vert Y_{t}\vert )<\infty }
E ( Y t ∣ { X τ , τ ≤ s 💱 } ) = Y s ∀ s ≤ t .
{\displaystyle \mathbf {E} (Y_{t}\mid \{X_{\tau },\tau \leq s\})=Y_{s}\quad \forall s\leq t.}
Isto 💱 expressa a propriedade de que o valor esperado condicional de qualquer observação no tempo t {\displaystyle t} , dadas todas 💱 as observações até o tempo s {\displaystyle s} , é igual à observação no tempo s {\displaystyle s} (considerando que 💱 s ≤ t {\displaystyle s\leq t} ).
Em geral, um processo estocástico Y : T × Ω → S {\displaystyle Y:T\times 💱 \Omega \to S} é um martingale em relação a uma filtração Σ ∗ {\displaystyle \Sigma _{*}} e medida de probabilidade 💱 P {\displaystyle P} se
Σ ∗ {\displaystyle \Sigma _{*}} espaço de probabilidade subjacente ( Ω , Σ , P {\displaystyle \Omega 💱 ,\Sigma ,P}
espaço de probabilidade subjacente ( Y {\displaystyle Y} Σ ∗ {\displaystyle \Sigma _{*}} t {\displaystyle t} T {\displaystyle T} 💱 Y t {\displaystyle Y_{t}} função mensurável Σ τ {\displaystyle \Sigma _{\tau }}
função mensurável Para cada t {\displaystyle t} Y t 💱 {\displaystyle Y_{t}} espaço Lp L 1 ( Ω , Σ t , P ; S ) {\displaystyle L^{1}(\Omega ,\Sigma _{t},P;S)}
E 💱 P ( | Y t | ) < + ∞ ; {\displaystyle \mathbf {E} _{\mathbf {P} }(|Y_{t}|)<+\infty ;}
Para todo s 💱 {\displaystyle s} t {\displaystyle t} s < t {\displaystyle s
E P ( 💱 [ Y t − Y s ] χ F ) = 0 , {\displaystyle \mathbf {E} _{\mathbf {P} }\left([Y_{t}-Y_{s}]\chi _{F}\right)=0,} 💱 em que χ F {\displaystyle \chi _{F}} função indicadora do evento F {\displaystyle F} A última condição é denotada como 💱 Y s = E P ( Y t | Σ s ) , {\displaystyle Y_{s}=\mathbf {E} _{\mathbf {P} }(Y_{t}|\Sigma _{s}),} 💱 que é uma forma geral de valor esperado condicional.[ 11 ]
É importante notar que a propriedade martingale envolve tanto a 💱 filtração, como a medida de probabilidade (em relação à qual os valores esperados são assumidos).
É possível que Y {\displaystyle Y} 💱 seja um martingale em relação a uma medida, mas não em relação a outra.
O Teorema de Girsanov oferece uma forma 💱 de encontrar uma medida em relação à qual um processo de Itō é um martingale.[12]
Exemplos de martingales [ editar | 💱 editar código-fonte ]
Um passeio aleatório não viesado (em qualquer número de dimensões) é um exemplo de martingale.
O dinheiro de um 💱 apostador é um martingale se todos os jogos de aposta com que ele se envolver forem honestos.
Uma urna de Pólya 💱 contém uma quantidade de bolas de diferentes cores.
A cada iteração, uma bola é aleatoriamente retirada da urna e substituída por 💱 várias outras da mesma cor.
Para qualquer cor dada, a fração das bolas na urna com aquela cor é um martingale.
Por 💱 exemplo, se atualmente 95% da bolas são vermelhas, então, ainda que a próxima iteração mais provavelmente adicione bolas vermelhas e 💱 não de outra cor, este viés está exatamente equilibrado pelo fato de que adicionar mais bolas vermelhas altera a fração 💱 de forma muito menos significativa do que adicionar o mesmo número de bolas não vermelhas alteraria.
Suponha que X n {\displaystyle 💱 X_{n}} moeda honesta foi jogada n {\displaystyle n}
moeda honesta foi jogada Considere Y n = X n 2 − n 💱 {\displaystyle Y_{n}={X_{n}}^{2}-n} X n {\displaystyle X_{n}} { Y n : n = 1 , 2 , 3 , ...
} {\displaystyle 💱 \{Y_{n}:n=1,2,3,...
\}} raiz quadrada do número de vezes que a moeda for jogada.
raiz quadrada do número de vezes que a moeda 💱 for jogada.
No caso de um martingale de Moivre, suponha que a moeda é desonesta, isto é, viesada, com probabilidade p 💱 {\displaystyle p} q = 1 − p {\displaystyle q=1-p}
X n + 1 = X n ± 1 {\displaystyle X_{n+1}=X_{n}\pm 1} 💱 com + {\displaystyle +} − {\displaystyle -}
Y n = ( q / p ) X n .
{\displaystyle Y_{n}=(q/p)^{X_{n}}.}
Então, { Y 💱 n : n = 1 , 2 , 3 , ...
} {\displaystyle \{Y_{n}:n=1,2,3,...
\}} { X n : n = 1 💱 , 2 , 3 , ...
} {\displaystyle \{X_{n}:n=1,2,3,...
\}} E [ Y n + 1 ∣ X 1 , .
.
.
, 💱 X n ] = p ( q / p ) X n + 1 + q ( q / p 💱 ) X n − 1 = p ( q / p ) ( q / p ) X n + 💱 q ( p / q ) ( q / p ) X n = q ( q / p ) 💱 X n + p ( q / p ) X n = ( q / p ) X n = 💱 Y n .
{\displaystyle {\begin{aligned}E[Y_{n+1}\mid X_{1},\dots ,X_{n}]&=p(q/p)^{X_{n}+1}+q(q/p)^{X_{n}-1}\\[6pt]&=p(q/p)(q/p)^{X_{n}}+q(p/q)(q/p)^{X_{n}}\\[6pt]&=q(q/p)^{X_{n}}+p(q/p)^{X_{n}}=(q/p)^{X_{n}}=Y_{n}.\end{aligned}}}
No teste de razão de verossimilhança em estatística, uma variável aleatória X {\displaystyle X} f 💱 {\displaystyle f} g {\displaystyle g} amostra aleatória X 1 , ...
, X n {\displaystyle X_{1},...
,X_{n}} [ 13 ] Considere Y 💱 n {\displaystyle Y_{n}}
Y n = ∏ i = 1 n g ( X i ) f ( X i ) 💱 {\displaystyle Y_{n}=\prod _{i=1}^{n}{\frac {g(X_{i})}{f(X_{i})}}}
Se X {\displaystyle X} f {\displaystyle f} g {\displaystyle g} { Y n : n = 1 💱 , 2 , 3 , ...
} {\displaystyle \{Y_{n}:n=1,2,3,...
\}} { X n : n = 1 , 2 , 3 , 💱 ...
} {\displaystyle \{X_{n}:n=1,2,3,...\}}
Suponha que uma ameba se divide em duas amebas com probabilidade p {\displaystyle p} 1 − p {\displaystyle 💱 1-p} X n {\displaystyle X_{n}} n {\displaystyle n} X n = 0 {\displaystyle X_{n}=0} r {\displaystyle r} r {\displaystyle r} 💱 p {\displaystyle p} [ 14 ] Então
{ r X n : n = 1 , 2 , 3 , .
.
.
💱 } {\displaystyle \{\,r^{X_{n}}:n=1,2,3,\dots \,\}}
é um martingale em relação a { X n : n = 1 , 2 , 3 💱 , ...
} {\displaystyle \{X_{n}:n=1,2,3,...\}}
Uma série martingale criada por software.
Em uma comunidade ecológica (um grupo de espécies em um nível trófico 💱 particular, competindo por recursos semelhantes em uma área local), o número de indivíduos de qualquer espécie particular de tamanho fixado 💱 é uma função de tempo (discreto) e pode ser visto como uma sequência de variáveis aleatórias.
Esta sequência é um martingale 💱 sob a teoria neutra unificada de biodiversidade e biogeografia.
Se { N t : t ≥ 0 } {\displaystyle \{N_{t}:t\geq 0\}} 💱 processo de Poisson com intensidade λ {\displaystyle \lambda } { N t − λ t : t ≥ 0 } 💱 {\displaystyle \{N_{t}-\lambda _{t}:t\geq 0\}}
Submartingales, supermartingales e relação com funções harmônicas [ editar | editar código-fonte ]
Há duas generalizações populares de 💱 um martingale que também incluem casos em que a observação atual X n {\displaystyle X_{n}} não é necessariamente igual à 💱 futura expectativa condicional E [ X n + 1 | X 1 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...
,X_{n}]} , 💱 mas, em vez disto, a um limite superior ou inferior à expectativa condicional.
Estas definições refletem uma relação entre a teoria 💱 do martingale e a teoria do potencial, que é o estudo das funções harmônicas.
[15] Assim como um martingale de tempo 💱 contínuo satisfaz a E [ X t | { X τ : τ ≤ s } − X s = 💱 0 ∀ s ≤ t {\displaystyle E[X_{t}|\{X_{\tau }:\tau \leq s\}-X_{s}=0\forall s\leq t} , uma função harmônica f {\displaystyle f} satisfaz 💱 a equação diferencial parcial Δ f = 0 {\displaystyle \Delta f=0} , em que Δ {\displaystyle \Delta } é o 💱 operador de Laplace.
Dado um processo de movimento browniano W t {\displaystyle W_{t}} e uma função harmônica f {\displaystyle f} , 💱 o processo resultante f ( W t ) {\displaystyle f(W_{t})} também é um martingale.
Um submartingale de tempo discreto é uma 💱 sequência X 1 , X 2 , X 3 , .
.
.
{\displaystyle X_{1},X_{2},X_{3},\ldots } integráveis que satisfaz a
E [ X 💱 n + 1 | X 1 , .
.
.
, X n ] ≥ X n .
{\displaystyle {}E[X_{n+1}|X_{1},\ldots ,X_{n}]\geq X_{n}.
} Da 💱 mesma forma, um submartingale de tempo contínuo satisfaz a E [ X t | { X τ : τ ≤ 💱 s } ] ≥ X s ∀ s ≤ t .
{\displaystyle {}E[X_{t}|\{X_{\tau }:\tau \leq s\}]\geq X_{s}\quad \forall s\leq t.
} Em 💱 teoria do potencial, uma função sub-harmônica f {\displaystyle f} Δ f ≥ 0 {\displaystyle \Delta f\geq 0} Grosso modo, o 💱 prefixo "sub-" é consistente porque a atual observação X n {\displaystyle X_{n}} E [ X n + 1 | X 💱 1 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...,X_{n}]}
De forma análoga, um supermartingale de tempo discreto satisfaz a
E [ X n 💱 + 1 | X 1 , .
.
.
, X n ] ≤ X n .
{\displaystyle {}E[X_{n+1}|X_{1},\ldots ,X_{n}]\leq X_{n}.
} Da mesma 💱 forma, um supermartingale de tempo contínuo satisfaz a E [ X t | { X τ : τ ≤ s 💱 } ] ≤ X s ∀ s ≤ t .
{\displaystyle {}E[X_{t}|\{X_{\tau }:\tau \leq s\}]\leq X_{s}\quad \forall s\leq t.
} Em teoria 💱 do potencial, uma função super-harmônica f {\displaystyle f} Δ f ≤ 0 {\displaystyle \Delta f\leq 0} Grosso modo, o prefixo 💱 "super-" é consistente porque a atual observação X n {\displaystyle X_{n}} E [ X n + 1 | X 1 💱 , ...
, X n ] {\displaystyle E[X_{n+1}|X_{1},...,X_{n}]}
Exemplos de submartingales e supermartingales [ editar | editar código-fonte ]
Todo martingale é também 💱 um submartingale e um supermartingale.
Reciprocamente, todo processo estocástico que é tanto um submartingale, como um supermartingale, é um martingale.
Considere novamente 💱 um apostador que ganha $1 quando uma moeda der cara e perde $1 quando a moeda der coroa.
Suponha agora que 💱 a moeda possa estar viesada e que ela dê cara com probabilidade p {\displaystyle p} Se p {\displaystyle p} 1 💱 / 2 {\displaystyle 1/2} Se p {\displaystyle p} 1 / 2 {\displaystyle 1/2} Se p {\displaystyle p} 1 / 2 💱 {\displaystyle 1/2}
Uma função convexa de um martingale é um submartingale pela desigualdade de Jensen.
Por exemplo, o quadrado da riqueza de 💱 um apostador em jogo de moeda honesta é um submartingale (o que também se segue do fato de que X 💱 n 2 − n {\displaystyle {X_{n}}^{2}-n}
Martingales e tempos de parada [ editar | editar código-fonte ]
Um tempo de parada em 💱 relação a uma sequência de variáveis aleatórias X 1 , X 2 , X 3 , ...
{\displaystyle X_{1},X_{2},X_{3},...
} é uma 💱 variável aleatória τ {\displaystyle \tau } com a propriedade de que para cada t {\displaystyle t} , a ocorrência ou 💱 a não ocorrência do evento τ = t {\displaystyle \tau =t} depende apenas dos valores de X 1 , X 💱 2 , X 3 , ...
, X t {\displaystyle X_{1},X_{2},X_{3},...,X_{t}} .
A intuição por trás da definição é que, a qualquer 💱 tempo particular t {\displaystyle t} , pode-se observar a sequência até o momento e dizer se é hora de parar.
Um 💱 exemplo na vida real pode ser o tempo em que um apostador deixa a mesa de apostas, o que pode 💱 ser uma função de suas vitórias anteriores (por exemplo, ele pode deixar a mesa apenas quando ele vai à falência), 💱 mas ele não pode escolher entre ficar ou sair com base no resultando de jogos que ainda não ocorreram.[16]
Em alguns 💱 contextos, o conceito de tempo de parada é definido exigindo-se apenas que a ocorrência ou não ocorrência do evento τ 💱 = t {\displaystyle \tau =t} seja probabilisticamente independente de X t + 1 , X t + 2 , ...
{\displaystyle 💱 X_{t+1},X_{t+2},...
} , mas não que isto seja completamente determinado pelo histórico do processo até o tempo t {\displaystyle t} .
Isto 💱 é uma condição mais fraca do que aquela descrita no parágrafo acima, mas é forte o bastante para servir em 💱 algumas das provas em que tempos de parada são usados.
Uma das propriedades básicas de martingales é que, se ( X 💱 t ) t > 0 {\displaystyle (X_{t})_{t>0}} for um (sub/super)martingale e τ {\displaystyle \tau } for um tempo de parada, 💱 então, o processo parado correspondente ( X t τ ) t > 0 {\displaystyle (X_{t}^{\tau })_{t>0}} definido por X t 💱 τ := X min { τ , t } {\displaystyle X_{t}^{\tau }:=X_{\min\{\tau ,t\}}} é também um (sub/super) martingale.
O conceito de 💱 um martingale parado leva a uma série de teoremas importantes, incluindo, por exemplo, o teorema da parada opcional, que afirma 💱 que, sob certas condições, o valor esperado de um martingale em um tempo de parada é igual ao seu valor 💱 inicial.