Machine Learning
  • Introduction
  • man
  • Linear model
    • Linear Regression
    • Generalized Linear Models
    • Nonlinear regression
  • bayes
    • bayesian network
    • Variational Bayesian inference
    • Gaussian Process Regression
  • Logistic Regression
    • L1 regularization
    • L2 regularization
    • softmax
    • Overflow and Underflow
  • SVM
    • C-SVM
    • C-SVM求解
  • EM
    • GMM
  • Maximum Entropy
    • IIS
  • HMM
    • viterbi algorithm
  • CRF
  • Random Forest
    • bagging
    • random forest
  • boosting
    • catboost
    • gradient boosting
    • Newton Boosting
    • online boosting
    • gcForest
    • Mixture models
    • XGBoost
    • lightGBM
    • SecureBoost
  • LDA
  • rank
    • RankNet
    • LambdaRank
    • SimRank
  • Factorization Machine
    • Field-aware Factorization Machine
    • xdeepFM
  • Clustering
    • BIRCH
    • Deep Embedding Clustering
  • Kalman filtering
  • word2vec
  • 关联规则挖掘
  • MATH-Mathematical Analysis
    • measure
  • MATH-probability
    • Variational Inference
    • Dirichlet分布
    • Gibbs Sampling
    • Maximum entropy probability distribution
    • Conjugate prior
    • Gaussian Process
    • Markov process
    • Poisson process
    • measure
    • Gumbel
  • MATH-Linear Algebra
    • SVD
    • SVD-推荐
    • PCA
    • Linear Discriminant Analysis
    • Nonnegative Matrix Factorization
  • MATH-Convex optimization
    • 梯度下降
    • 随机梯度下降
    • 牛顿法
    • L-BFGS
    • 最速下降法
    • 坐标下降法
    • OWL-QN
    • 对偶问题
    • 障碍函数法
    • 原对偶内点法
    • ISTA
    • ADMM
    • SAG
  • MATH-碎碎念
    • cost function
    • Learning Theory
    • sampling
    • Entropy
    • variational inference
    • basis function
    • Diffie–Hellman key exchange
    • wavelet transform
    • 图
    • Portfolio
    • 凯利公式
  • ML碎碎念
    • 特征
    • test
    • TF-IDF
    • population stability index
    • Shapley Values
  • 课件
    • xgboost算法演进
  • Time Series
  • PID
  • graph
    • SimRank
    • community detection
    • FRAUDAR
    • Anti-Trust Rank
    • Struc2Vec
    • graph theory
    • GNN
  • Anomaly Detection
    • Isolation Forest
    • Time Series
  • Dimensionality Reduction
    • Deep Embedded Clustering
  • Federated Learning
  • automl
  • Look-alike
  • KNN
  • causal inference
Powered by GitBook
On this page
  • kernel function
  • Bayesian Kernel
  • 线性回归与高斯过程的关系

Was this helpful?

  1. Linear model

Nonlinear regression

PreviousGeneralized Linear ModelsNextbayes

Last updated 4 years ago

Was this helpful?

kernel function

最早是在学svm时接触了kernel function,构造了非线性关系。那么在Linear regression时遇到了非线性的问题,也同样可以用kernel去解决。

f(x)=wTψ(x)w=∑iαiψ(xi)∑iαiψ(xi)ψ(x)=∑iαiK(xi,xt)=ytorKW=Yf(x)=w^T\psi(x) \\ w = \sum_i \alpha_i \psi(x_i) \\ \sum_i \alpha_i \psi(x_i) \psi(x) = \sum_i \alpha_i K(x_i,x_t) = y_t \quad \text{or} \quad KW=Yf(x)=wTψ(x)w=i∑​αi​ψ(xi​)i∑​αi​ψ(xi​)ψ(x)=i∑​αi​K(xi​,xt​)=yt​orKW=Y

先对x做个非线性变换ψ(x)\psi(x)ψ(x)(例:对某些维做了多项式处理),然后再对这些基函数线性组合。但是这样计算量会变大,于是采用kernel trick,直接用核函数计算出内积。

内积是满足交换律的,所以kernel function等满足K(xi,xj)=K(xj,xi)K(x_i,x_j)= K(x_j,x_i)K(xi​,xj​)=K(xj​,xi​),更准确的是要满足Mercer定理:核矩阵是半正定的。 原始参数w处于原空间prime space中,新参数α\alphaα则处于对偶空间dual space中。

这个收集了很多的kernel

可以通过一些简单的kernel function 构造更多的kernel function,只要满足mercer定理就行。见prml第六章。

Bayesian Kernel

内积用来衡量相似性,所以可以用其他方法来衡量。

线性回归与高斯过程的关系

Linear regression加了kernel之后能拟合的曲线跟高斯过程回归的很相似,所以在想这两个有没有本质上的联系呢,或者差异呢。 线性回归可以看做是高斯过程的一个特殊例子, 将贝叶斯非线性回归中非线性变换后的向量内积用核函数代替,得到的模型就成为高斯过程回归。

核方法(kernel method)超简说明
Kernel Functions for Machine Learning Applications
变量筛选——IV 、WOE 值及 python 实现
基于sklearn决策树的最优分箱与IV值计算-Python实现
PR Ⅲ:从高斯分布到高斯过程、高斯过程回归、贝叶斯优化