Similaridade de algoritmos em cenários sensíveis a custo

análise da similaridade entre algoritmos de aprendizagem de máquina é um importante aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar novos problemas apresentados. Essa...

Full description

Main Author: MELO, Carlos Eduardo Castor de
Other Authors: PRUDÊNCIO, Ricardo Bastos Cavalcante
Format: masterThesis
Language: por
Published: Universidade Federal de Pernambuco 2016
Subjects:
Online Access: https://repositorio.ufpe.br/handle/123456789/17808
Tags: Add Tag
No Tags, Be the first to tag this record!
id ir-123456789-17808
recordtype dspace
spelling ir-123456789-178082018-11-12T19:48:41Z Similaridade de algoritmos em cenários sensíveis a custo MELO, Carlos Eduardo Castor de PRUDÊNCIO, Ricardo Bastos Cavalcante http://lattes.cnpq.br/8393738327551402 http://lattes.cnpq.br/2984888073123287 Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar. Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection. análise da similaridade entre algoritmos de aprendizagem de máquina é um importante aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar novos problemas apresentados. Essa similaridade é geralmente calculada através de métricas globais de desempenho, que omitem informações importantes para o melhor entendimento do comportamento dos algoritmos. Também existem abordagens onde é verificado o desempenho individualmente em cada instância do problema. Ambas as abordagens não consideram os custos associados a cada classe do problema, negligenciando informações que podem ser muito importantes em vários contextos de aprendizado. Nesse trabalho são apresentadas métricas para a avaliação do desempenho de algoritmos em cenários sensíveis a custo. Cada cenário é descrito a partir de um método para escolha de limiar para a construção de um classificador a partir de um modelo aprendido. Baseado nos valores de desempenho em cada instância, é proposta uma forma de avaliar a similaridade entre os algoritmos tanto em nível de problema como em nível global. Os experimentos realizados para ilustrar as métricas apresentadas neste trabalho foram realizados em um estudo de Meta-Aprendizado utilizando 19 algoritmos para a classificação das instâncias de 152 problemas. As medidas de similaridades foram utilizadas para a criação de agrupamentos hierárquicos. Os agrupamentos criados mostram como o comportamento entre os algoritmos diversifica de acordo com o cenário de custo a ser tratado. FACEPE The analysis of the similarity between machine learning algorithms is an important aspect of Meta-Learning, where knowledge gathered from known learning processes can be used to guide the selection of algorithms to tackle new learning problems presented. This similarity is usually calculated through global performance metrics that omit important information about the algorithm behavior. There are also approaches where the performance is verified individually on each instance of a problem. Both these approaches do not consider the costs associated with each problem class, hence they neglect information that can be very important in different learning contexts. In this study, metrics are presented to evaluate the performance of algorithms in cost sensitive scenarios. Each scenario is described by a threshold choice method, used to build a crisp classifier from a learned model. Based on the performance values for each problem instance, it is proposed a method to measure the similarity between the algorithms in a local level (for each problem) and in a global level (across all problems observed). The experiments used to illustrate the metrics presented in this paper were performed in a Meta-Learning study using 19 algorithms for the classification of the instances of 152 learning problems. The similarity measures were used to create hierarchical clusters. The clusters created show how the behavior of the algorithms diversifies according to the cost scenario to be treated. 2016-09-06T17:26:12Z 2016-09-06T17:26:12Z 2015-08-27 masterThesis https://repositorio.ufpe.br/handle/123456789/17808 por Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ Universidade Federal de Pernambuco UFPE Brasil Programa de Pos Graduacao em Ciencia da Computacao
institution REPOSITORIO UFPE
collection REPOSITORIO UFPE
language por
topic Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar.
Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection.
spellingShingle Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar.
Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection.
MELO, Carlos Eduardo Castor de
Similaridade de algoritmos em cenários sensíveis a custo
description análise da similaridade entre algoritmos de aprendizagem de máquina é um importante aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar novos problemas apresentados. Essa similaridade é geralmente calculada através de métricas globais de desempenho, que omitem informações importantes para o melhor entendimento do comportamento dos algoritmos. Também existem abordagens onde é verificado o desempenho individualmente em cada instância do problema. Ambas as abordagens não consideram os custos associados a cada classe do problema, negligenciando informações que podem ser muito importantes em vários contextos de aprendizado. Nesse trabalho são apresentadas métricas para a avaliação do desempenho de algoritmos em cenários sensíveis a custo. Cada cenário é descrito a partir de um método para escolha de limiar para a construção de um classificador a partir de um modelo aprendido. Baseado nos valores de desempenho em cada instância, é proposta uma forma de avaliar a similaridade entre os algoritmos tanto em nível de problema como em nível global. Os experimentos realizados para ilustrar as métricas apresentadas neste trabalho foram realizados em um estudo de Meta-Aprendizado utilizando 19 algoritmos para a classificação das instâncias de 152 problemas. As medidas de similaridades foram utilizadas para a criação de agrupamentos hierárquicos. Os agrupamentos criados mostram como o comportamento entre os algoritmos diversifica de acordo com o cenário de custo a ser tratado.
author2 PRUDÊNCIO, Ricardo Bastos Cavalcante
format masterThesis
author MELO, Carlos Eduardo Castor de
author_sort MELO, Carlos Eduardo Castor de
title Similaridade de algoritmos em cenários sensíveis a custo
title_short Similaridade de algoritmos em cenários sensíveis a custo
title_full Similaridade de algoritmos em cenários sensíveis a custo
title_fullStr Similaridade de algoritmos em cenários sensíveis a custo
title_full_unstemmed Similaridade de algoritmos em cenários sensíveis a custo
title_sort similaridade de algoritmos em cenários sensíveis a custo
publisher Universidade Federal de Pernambuco
publishDate 2016
url https://repositorio.ufpe.br/handle/123456789/17808
_version_ 1641987012277829632
score 13.657419