Este livro é fruto de diversos cursos que demos ao longo dos últimos anos. Ele surgiu no formato de notas de aulas, que foram criadas em função da necessidade que vimos em ter um material que fizesse a ponte entre estatística e AM. Essas notas de aula foram feitas tanto para cursos de graduação quanto para cursos de pós-graduação. Assim, há capítulos mais práticos e capítulos com mais teoria matemática. Nosso objetivo é construir uma base para que o leitor consiga entender os paradigmas mais importantes desta área. O propósito deste livro não é fornecer todos os detalhes e variações que existem sobre os métodos estudados, mas sim introduzir a essência de cada um deles.
Author(s): Rafael Izbicki e Tiago Mendonça dos Santos
Edition: 1
Year: 2020
Language: Portuguese (Brazil)
Commentary: Baixado em dezembro de 2020 >> http://www.rizbicki.ufscar.br/AME.pdf
Pages: 268
City: São Carlos - SP - Brazil
Tags: Machine Learning, Statistics, R language, UFSCar
Prefácio
I Regressão
Introdução
Notação e Suposições
Predição versus Inferência: Por que estimar r(x)?
As Duas Culturas
A Função de Risco
Seleção de Modelos: Super e Sub-Ajuste
Data Splitting e Validação Cruzada
Penalização: uma alternativa
Balanço entre Viés e Variância
Tuning Parameters
Resumo
Métodos Paramétricos
O Método dos Mínimos Quadrados
Mínimos Quadrados quando a Suposição de Linearidade Falha
Regressão Linear no R
Resumo
Métodos Paramétricos em Altas Dimensões
Busca pelo Melhor Subconjunto de Covariáveis
Regressão Stepwise
Lasso
Garantias Teóricas
Regressão Ridge
Formulação Alternativa
Interpretação Bayesiana
Regressão ridge e lasso no R
Exemplos
Resumo
Métodos Não Paramétricos
Séries Ortogonais
Splines
k Vizinhos Mais Próximos
Nadaraya-Watson
Regressão Polinomial Local
Métodos baseados em RKHSs
A matemática do RKHS
Solução para o problema de otimização
Exemplo 1: Kernel Ridge Regression
Smoothing Splines
O Truque do Kernel
Implementação eficiente da kernel ridge regression
Exemplo 2: Support Vector Regression Machine
Modelos Aditivos
Árvores de Regressão
Bagging e Florestas Aleatórias
Florestas Aleatórias
Boosting
Redes Neurais Artificiais
Estimação: Backpropagation
Deep Learning
Exemplo
Um Pouco de Teoria
k-vizinhos Mais Próximos
Séries Ortogonais
Resumo
Métodos Não Paramétricos em Altas Dimensões
Taxas de convergência e a maldição da dimensionalidade
Esparsidade
Redundâcia
k Vizinhos Mais Próximos e Regressão Linear Local
Support Vector Regression
Séries Ortogonais
Bases espectrais
O estimador
Florestas Aleatórias
SpAM - Modelos Aditivos Esparsos
Resumo
Outros Aspectos de Regressão
Interpretabilidade (ExplainableML)
LIME - Local Interpretable Model-agnostic Explanations
PDP e ICE
Estimação de Densidades Condicionais
Inferência Conformal
II Classificação
Introdução
Função de Risco
Estimação do Risco e Seleção de Modelos
Balanço entre Viés e Variância
Outras medidas de desempenho
Métodos de classificação
Classificadores Plug-in
Métodos de regressão
Regressão logística
Bayes Ingênuo
Análise Discriminante
Análise Discriminante Linear
Análise Discriminante Quadrática
Support Vector Machines (SVM)
Árvores de Classificação
Bagging e Florestas Aleatórias
Boosting
Método dos k Vizinhos Mais Próximos
Redes Neurais Artificiais
Exemplos
Outros Aspectos de Classificação
Assimetria na Função de Perda, Conjuntos de Dados Desbalanceados e Outros Cortes
Classificação vs Estimação de Probabilidades
Dataset Shift e Viés de Seleção
Covariate Shift
Prior Shift
Combinando Classificadores
Teoria do Aprendizado Estatístico
Prova do teorema VC
Resumo
III Aprendizado não supervisionado
Redução de Dimensionalidade e Mudança de Representação
Componentes Principais (PCA - Principal Component Analysis)
Interpretação alternativa: escalonamento multidimensional
Aplicação: compressão de imagens
Kernel PCA (KPCA)
Projeções Aleatórias
Autoencoders
Análise de Agrupamento
K-Médias
Agrupamento Espectral
Métodos Hierárquicos
Regras de Associação
Sistemas de Recomendação
Filtro Colaborativo Baseado no Usuário
Filtro Colaborativo Baseado no Produto
FunkSVD
Seleção de Modelos
IV Apêndice
Apêndice
Imagens
Textos
Matrizes esparsas