Similaridade de algoritmos em cenários sensíveis a custo
análise da similaridade entre algoritmos de aprendizagem de máquina é um importante aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar novos problemas apresentados. Essa...
Main Author: | MELO, Carlos Eduardo Castor de |
---|---|
Other Authors: | PRUDÊNCIO, Ricardo Bastos Cavalcante |
Format: | masterThesis |
Language: | por |
Published: |
Universidade Federal de Pernambuco
2016
|
Subjects: | |
Online Access: |
https://repositorio.ufpe.br/handle/123456789/17808 |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
id |
ir-123456789-17808 |
---|---|
recordtype |
dspace |
spelling |
ir-123456789-178082018-11-12T19:48:41Z Similaridade de algoritmos em cenários sensíveis a custo MELO, Carlos Eduardo Castor de PRUDÊNCIO, Ricardo Bastos Cavalcante http://lattes.cnpq.br/8393738327551402 http://lattes.cnpq.br/2984888073123287 Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar. Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection. análise da similaridade entre algoritmos de aprendizagem de máquina é um importante aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar novos problemas apresentados. Essa similaridade é geralmente calculada através de métricas globais de desempenho, que omitem informações importantes para o melhor entendimento do comportamento dos algoritmos. Também existem abordagens onde é verificado o desempenho individualmente em cada instância do problema. Ambas as abordagens não consideram os custos associados a cada classe do problema, negligenciando informações que podem ser muito importantes em vários contextos de aprendizado. Nesse trabalho são apresentadas métricas para a avaliação do desempenho de algoritmos em cenários sensíveis a custo. Cada cenário é descrito a partir de um método para escolha de limiar para a construção de um classificador a partir de um modelo aprendido. Baseado nos valores de desempenho em cada instância, é proposta uma forma de avaliar a similaridade entre os algoritmos tanto em nível de problema como em nível global. Os experimentos realizados para ilustrar as métricas apresentadas neste trabalho foram realizados em um estudo de Meta-Aprendizado utilizando 19 algoritmos para a classificação das instâncias de 152 problemas. As medidas de similaridades foram utilizadas para a criação de agrupamentos hierárquicos. Os agrupamentos criados mostram como o comportamento entre os algoritmos diversifica de acordo com o cenário de custo a ser tratado. FACEPE The analysis of the similarity between machine learning algorithms is an important aspect of Meta-Learning, where knowledge gathered from known learning processes can be used to guide the selection of algorithms to tackle new learning problems presented. This similarity is usually calculated through global performance metrics that omit important information about the algorithm behavior. There are also approaches where the performance is verified individually on each instance of a problem. Both these approaches do not consider the costs associated with each problem class, hence they neglect information that can be very important in different learning contexts. In this study, metrics are presented to evaluate the performance of algorithms in cost sensitive scenarios. Each scenario is described by a threshold choice method, used to build a crisp classifier from a learned model. Based on the performance values for each problem instance, it is proposed a method to measure the similarity between the algorithms in a local level (for each problem) and in a global level (across all problems observed). The experiments used to illustrate the metrics presented in this paper were performed in a Meta-Learning study using 19 algorithms for the classification of the instances of 152 learning problems. The similarity measures were used to create hierarchical clusters. The clusters created show how the behavior of the algorithms diversifies according to the cost scenario to be treated. 2016-09-06T17:26:12Z 2016-09-06T17:26:12Z 2015-08-27 masterThesis https://repositorio.ufpe.br/handle/123456789/17808 por Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ Universidade Federal de Pernambuco UFPE Brasil Programa de Pos Graduacao em Ciencia da Computacao |
institution |
REPOSITORIO UFPE |
collection |
REPOSITORIO UFPE |
language |
por |
topic |
Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar. Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection. |
spellingShingle |
Similaridade de Algoritmos. Desempenho de Algoritmos a Nível de Instância. Cenários Sensíveis a Custo. Meta-Aprendizado. Método de Escolha de Limiar. Algorithm Similarity. Instance level Algorithms Performance. Cost Sensitive Scenarios. Meta-Learning. Threshold Choice Selection. MELO, Carlos Eduardo Castor de Similaridade de algoritmos em cenários sensíveis a custo |
description |
análise da similaridade entre algoritmos de aprendizagem de máquina é um importante
aspecto na área de Meta-Aprendizado, onde informações obtidas a partir de processos de
aprendizagem conhecidos podem ser utilizadas para guiar a seleção de algoritmos para tratar
novos problemas apresentados. Essa similaridade é geralmente calculada através de métricas
globais de desempenho, que omitem informações importantes para o melhor entendimento do
comportamento dos algoritmos. Também existem abordagens onde é verificado o desempenho
individualmente em cada instância do problema. Ambas as abordagens não consideram os
custos associados a cada classe do problema, negligenciando informações que podem ser muito
importantes em vários contextos de aprendizado.
Nesse trabalho são apresentadas métricas para a avaliação do desempenho de algoritmos
em cenários sensíveis a custo. Cada cenário é descrito a partir de um método para escolha de
limiar para a construção de um classificador a partir de um modelo aprendido. Baseado nos
valores de desempenho em cada instância, é proposta uma forma de avaliar a similaridade entre
os algoritmos tanto em nível de problema como em nível global.
Os experimentos realizados para ilustrar as métricas apresentadas neste trabalho foram
realizados em um estudo de Meta-Aprendizado utilizando 19 algoritmos para a classificação das
instâncias de 152 problemas. As medidas de similaridades foram utilizadas para a criação de
agrupamentos hierárquicos.
Os agrupamentos criados mostram como o comportamento entre os algoritmos diversifica
de acordo com o cenário de custo a ser tratado. |
author2 |
PRUDÊNCIO, Ricardo Bastos Cavalcante |
format |
masterThesis |
author |
MELO, Carlos Eduardo Castor de |
author_sort |
MELO, Carlos Eduardo Castor de |
title |
Similaridade de algoritmos em cenários sensíveis a custo |
title_short |
Similaridade de algoritmos em cenários sensíveis a custo |
title_full |
Similaridade de algoritmos em cenários sensíveis a custo |
title_fullStr |
Similaridade de algoritmos em cenários sensíveis a custo |
title_full_unstemmed |
Similaridade de algoritmos em cenários sensíveis a custo |
title_sort |
similaridade de algoritmos em cenários sensíveis a custo |
publisher |
Universidade Federal de Pernambuco |
publishDate |
2016 |
url |
https://repositorio.ufpe.br/handle/123456789/17808 |
_version_ |
1641987012277829632 |
score |
13.657419 |