Em estatística, a estimativa de máxima verossimilhança (MLE) é um método para estimar os parâmetros de uma distribuição de probabilidade hipotética a partir de dados observados. Este método maximiza uma função de verossimilhança para garantir que a probabilidade dos dados observados seja maximizada sob o modelo estatístico assumido. O ponto no espaço de parâmetros onde a função de verossimilhança atinge seu valor máximo é a estimativa de máxima verossimilhança. Essa lógica não é apenas intuitiva, mas também flexível e, portanto, tornou-se um meio comum de inferência estatística.
A estimativa de máxima verossimilhança não faz com que os dados fiquem mais silenciosos, mas desperta as informações ocultas nos dados por meio do ajuste de parâmetros.
O princípio básico da estimativa de máxima verossimilhança é considerar um conjunto de observações como amostras aleatórias de alguma distribuição de probabilidade conjunta desconhecida. O objetivo é determinar os valores dos parâmetros que proporcionam a maior probabilidade conjunta de observação dos dados.
Representamos os parâmetros que controlam a alocação conjunta como um vetor θ = [θ1, θ2, ..., θk ] de modo que ele caia dentro de uma família de parâmetros {f(⋅; θ) | θ ∈ Θ}, onde Θ é o espaço de parâmetros, um subconjunto de dimensão finita do espaço euclidiano.
Quando avaliamos a densidade conjunta y = (y1, y2, ..., yn) nos dados observados amostra Quando , podemos obter uma função de valor real, que é chamada de função de verossimilhança Ln(θ) = Ln(θ; y). Para variáveis aleatórias independentes e distribuídas de forma idêntica, a função de verossimilhança é o produto das funções de densidade univariadas.
O objetivo da estimativa de máxima verossimilhança é encontrar o valor do parâmetro que minimiza a função de verossimilhança no espaço de parâmetros.
Esse processo pode ser entendido intuitivamente. A chave para a estimativa de máxima verossimilhança é selecionar valores de parâmetros que tornem os dados observados mais prováveis de ocorrer. Computacionalmente, uma abordagem comum é usar o logaritmo natural da função de verossimilhança, chamado log-verossimilhança.
Ao calcular o que é chamado de função de verossimilhança, podemos encontrar o valor máximo possível. Para alguns modelos, essas equações podem ser resolvidas explicitamente, mas, em geral, não há uma solução de forma fechada, então é preciso confiar na otimização numérica para encontrar a estimativa de máxima verossimilhança.
Na análise de dados, MLE não é apenas uma fórmula matemática, mas uma arte de deixar os dados falarem.
Além da otimização numérica, também é importante observar que, para amostras finitas, pode haver múltiplas soluções. Se a solução que identificamos é de fato um máximo (local) depende da matriz de derivadas de segunda ordem, que é chamada de matriz Hessiana.
Normalmente, a estimativa de máxima verossimilhança também pode corresponder à inferência bayesiana. Sob uma distribuição uniforme a priori, a MLE pode aproximar a estimativa máxima a posteriori (MAP). Isto é especialmente importante ao realizar inferências estatísticas e construir modelos.
A magia da estimativa de máxima verossimilhança está na sua capacidade não apenas de caracterizar os dados em si, mas também de fornecer uma base significativa para a tomada de decisões. Portanto, seja na economia, na medicina ou em outras pesquisas científicas, a MLE ocupa uma posição indispensável.
Finalmente, devemos refletir que o poder dos dados está no processo de entendê-los. Fizemos uso total dos dados para explicar as histórias por trás deles?