Prazos flexíveis
Prazos flexíveis
Redefinir os prazos de acordo com sua programação.
Certificação compartilhável
Ganhe um certificado após a conclusão
100% online
Comece instantaneamente e aprenda em sua própria programação.
Nível intermediário
Aprox. 19 horas para concluir
Chinês (Tradingal)
Legendas: Chinês (Tractição)
Lin Xuantian
Professor (professor)
Departamento de Ciência da Computação e Engenharia de Informações (Departamento de Ciência e Informação da Computação)
Palestra primeiro: máquina de vetor de suporte linear
Classes lineares mais robustas solucionáveis com programação quadrática
Palestra 2: Máquina de vetor de suporte duplo
Outra forma QP de SVM com mensagens geométricas valiosas e quase nenhuma dependência da dimensão da transformação
Palestra 3: Máquina de vetor de suporte do kernel
Kernel como um atalho para (transform + produto interno): permitindo um espectro de modelos que variam de simples lineares a dimensionais infinitos com controle de margem
Palestra 4: Máquina vetorial de suporte à margem macia
Uma nova formulação primordial de que todas todas as violações da margem de pontos, que são equivalentes a uma dualista com atualização
Palestra 5: Regressão logística do kernel
Classificação suave por um modelo de escás de SVM usando aprendizado de dois níveis, ou por um modelo de regressão logística “Kernelized” usuários
Palestra 6: Regressão do vetor de suporte
Regressão de Kernel Ridge via Regressão de Ridge + Teorema do Representante, ou Regressão de Vetor de Suporte por Erro de Tubo regularizado + Lagrange Dual
Palestra 7: mistura e ensacamento
Misturando diversas hipóteses conhecidas uniformemente, linearmente ou mesmo não linearmente;
Palestra oitavo: reforço adaptativo
Re-ponderação “ideal” para diversas hipóteses e agregação linear adaptativa para aumentar os algoritmos fracos
Nona palestra: árvore de decisão
Ramificação recursiva (purificação) para agregação condicional de hipóteses simples
Palestra décima: floresta aleatória
Agregação de bootstrap de tempo de decisão randomizada com valor automático
Palestra 11: Árvore de decisão aumentada de gradiente
Árvores de agregação de descida funcional + gradiente íngreme sujeito a qualquer medida de erro
Palestra 12: Rede Neural
Extração automática de recursos de camadas de neurônios com a técnica de propagação de volta para descendência de gradiente estocástica
Palestra 13: Aprendizagem profunda
Um modelo de aprendizado profundo e simples e precoce que pré-treine com autoencoder de denoising e tunes finos com propagação de volta
Palestra 14: Rede de função de base radial
Agregação linear de semelhanças baseadas em distância aos protótipos encontrados pelo clustering
Palestra 15: Fator da matriz
Modelos lineares de itens em recursos de usuário extraídos (ou vice -versa) otimizados em conjunto com gradiente estocástico para sistemas de recommentador
Palestra 16: Finale
Resumo dos ângulos de explicação de recursos, otimização de erros e eliminação excessiva em relação aos casos de uso prático de aprendizado de máquina
Copyright © 2023 Nortial Assessoria e Consultoria LTDA | CNPJ 24.682.337/0001-94 | Todos os direitos reservados
Avaliações
Não há avaliações ainda.