Classificação com algoritmo AdaBoost.M1 : o mito do limiar de erro de treinamento

2017 
O crescimento acelerado dos repositorios de dados, nas diversas areas de atuacao, abre espaco para pesquisas na area da mineracao de dados, em especifico, com os metodos de classificacao e de combinacao de classificadores. O Boosting e um desses metodos, e combina os resultados de diversos classificadores com intuito de obter melhores resultados. O proposito central desta dissertacao e responder a questao de pesquisa com a experimentacao de alternativas para aumentar a eficacia e o desempenho do algoritmo AdaBoost.M1 que e a implementacao frequentemente empregada pelo Boosting. Foi feito um estudo empirico levando em consideracao aspectos estocasticos tentando lancar alguma luz sobre um parâmetro interno obscuro em que criadores do algoritmo e outros pesquisadores assumiram que o limiar de erro de treinamento deve ser correlacionado com o numero de classes no conjunto de dados de destino e, logicamente, a maioria dos conjuntos de dados deve usar um valor de 0.5. Neste trabalho, apresentamos evidencias empiricas de que isso nao e um fato, mas provavelmente um mito originado pela aplicacao da primeira definicao do algoritmo. Para alcancar esse objetivo, foram propostas adaptacoes para o algoritmo, focando em encontrar uma sugestao melhor para definir esse limiar em um caso geral.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []