Campo Dublin Core | Valor | Língua |
dc.contributor.advisor | Gomes, Antônio Eduardo | - |
dc.contributor.author | Richard, Jéssica Franco Cançado | - |
dc.identifier.citation | RICHARD, Jéssica Franco Cançado. Divergência de Kullback-Leibler: uma aplicação à modelagem. 2013. [56] f., il. Monografia (Bacharelado em Estatística)—Universidade de Brasília, Brasília, 2013. | en |
dc.description | Monografia (graduação)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2013. | en |
dc.description.abstract | Este trabalho tem como objetivo apresentar uma nova proposta de teste de adequabilidade de modelos utilizando a Divergência de Kullback-Leibler entre o núcleo-estimador (kernel) da amostra e o modelo estimado pelo método de máxima verossimilhança para análise de dados completos e censurados. Através de simulações, analisa-se o comportamento do teste para as distribuições Normal, Gamma e Weibull. Ao final do trabalho, é apresentada uma aplicação prática a bancos de dados implementados no software R. O teste em questão apresentou excelentes resultados em simulações para a detecção do modelo normal, não tendo rejeitado nenhuma vez o modelo correto simulado. No entanto, devido a problemas de fronteira na implementação de núcleo-estimadores, o teste proposto mostrou-se muito sensível a distribuições com grande assimetria e limites no domínio da função densidade de probabilidade, como a distribuição χ² ou exponencial, casos particulares da distribuição Gamma. Ressalta-se as várias possibilidades de extensão deste estudo, seja no desenvolvimento de algoritmos melhorados, aplicação do teste a outras funções densidade de probabilidade, comparação com demais testes, estudo de seu poder ou utilização de técnicas que diminuam o efeito de fronteira apresentado pelo kernel. __________________________________________________________________________ ABSTRACT | en |
dc.description.abstract | This paper proposes a new goodness-of-fit test using Kullback-Leiber divergence between the sample kernel estimator and the estimated model via the maximum likelihood method for complete and censored data. Through simulations, the test is analyzed in terms of the model’s goodness-of-fit for the Normal, Gamma and Weibull distributions. Finally, an application is given using R software datasets. The test presented excellent results in the normal simulations, with no rejection of the right simulated model. However, the proposed test has showed considerable sensitivity for given high asymmetric distributions or density functions with limited dominium as χ² or exponential, Gamma’s particular cases, caused by the kernel’s boundary problems. Given the present work, it’s possible to develop various other studies as better algorithms, application in other density functions, comparison with other tests and its power or the implementation of techniques to lessen the boundary problems. | en |
dc.rights | Acesso Aberto | en |
dc.subject.keyword | Análise de sobrevivência | en |
dc.subject.keyword | Análise estatística | en |
dc.title | Divergência de Kullback-Leibler : uma aplicação à modelagem | en |
dc.type | Trabalho de Conclusão de Curso - Graduação - Bacharelado | en |
dc.date.accessioned | 2014-08-08T20:09:57Z | - |
dc.date.available | 2014-08-08T20:09:57Z | - |
dc.date.issued | 2014-08-08T20:09:57Z | - |
dc.date.submitted | 2013-12-03 | - |
dc.identifier.uri | http://bdm.unb.br/handle/10483/8086 | - |
dc.language.iso | Português | en |
Aparece na Coleção: | Estatística
|