Machine Learning
  • Introduction
  • man
  • Linear model
    • Linear Regression
    • Generalized Linear Models
    • Nonlinear regression
  • bayes
    • bayesian network
    • Variational Bayesian inference
    • Gaussian Process Regression
  • Logistic Regression
    • L1 regularization
    • L2 regularization
    • softmax
    • Overflow and Underflow
  • SVM
    • C-SVM
    • C-SVM求解
  • EM
    • GMM
  • Maximum Entropy
    • IIS
  • HMM
    • viterbi algorithm
  • CRF
  • Random Forest
    • bagging
    • random forest
  • boosting
    • catboost
    • gradient boosting
    • Newton Boosting
    • online boosting
    • gcForest
    • Mixture models
    • XGBoost
    • lightGBM
    • SecureBoost
  • LDA
  • rank
    • RankNet
    • LambdaRank
    • SimRank
  • Factorization Machine
    • Field-aware Factorization Machine
    • xdeepFM
  • Clustering
    • BIRCH
    • Deep Embedding Clustering
  • Kalman filtering
  • word2vec
  • 关联规则挖掘
  • MATH-Mathematical Analysis
    • measure
  • MATH-probability
    • Variational Inference
    • Dirichlet分布
    • Gibbs Sampling
    • Maximum entropy probability distribution
    • Conjugate prior
    • Gaussian Process
    • Markov process
    • Poisson process
    • measure
    • Gumbel
  • MATH-Linear Algebra
    • SVD
    • SVD-推荐
    • PCA
    • Linear Discriminant Analysis
    • Nonnegative Matrix Factorization
  • MATH-Convex optimization
    • 梯度下降
    • 随机梯度下降
    • 牛顿法
    • L-BFGS
    • 最速下降法
    • 坐标下降法
    • OWL-QN
    • 对偶问题
    • 障碍函数法
    • 原对偶内点法
    • ISTA
    • ADMM
    • SAG
  • MATH-碎碎念
    • cost function
    • Learning Theory
    • sampling
    • Entropy
    • variational inference
    • basis function
    • Diffie–Hellman key exchange
    • wavelet transform
    • 图
    • Portfolio
    • 凯利公式
  • ML碎碎念
    • 特征
    • test
    • TF-IDF
    • population stability index
    • Shapley Values
  • 课件
    • xgboost算法演进
  • Time Series
  • PID
  • graph
    • SimRank
    • community detection
    • FRAUDAR
    • Anti-Trust Rank
    • Struc2Vec
    • graph theory
    • GNN
  • Anomaly Detection
    • Isolation Forest
    • Time Series
  • Dimensionality Reduction
    • Deep Embedded Clustering
  • Federated Learning
  • automl
  • Look-alike
  • KNN
  • causal inference
Powered by GitBook
On this page
  • 特征值分解
  • 奇异值分解
  • 计算过程如下:
  • Incremental SVD
  • 待扩展
  • 参考佳文

Was this helpful?

  1. MATH-Linear Algebra

SVD

特征值分解

A=QΣQTA = Q \Sigma Q^TA=QΣQT

Σ\SigmaΣ是对角阵,每个元素都是特征值。Q是对应的特征向量组成的矩阵。 一个矩阵就是一个线性变换,矩阵作用于一个向量后得到一个向量,就相当于先做基变换,然后乘上对角阵,再各个基方向上拉伸,然后再基变换一次。

Ax=QΣQTxAx = Q \Sigma Q^TxAx=QΣQTx

奇异值分解

M=UΣVTM = U \Sigma V^TM=UΣVT

V是原始空间正交基,U是新空间正交基,Σ是V中向量变成U中向量拉伸的倍数。 M是m×nm \times nm×n阶复矩阵,则U为m阶酉阵,V为n阶酉阵,Σ为m×nm \times nm×n 。 总结:任何变换都可以理解为先转一下,再各维度扯一扯,再转一下。扯的时候可以直接把几个维度拍扁,所以最后一步可能在低维度上进行,没了。

计算过程如下:

  • 计算MTM^TMT 和MTMM^T MMTM,MTM=VΣTUTUΣVT=VΣTΣVT=VΣ2VTM^T M=VΣ^T U^T UΣV^T= VΣ^T ΣV^T= VΣ^2 V^TMTM=VΣTUTUΣVT=VΣTΣVT=VΣ2VT。 因为U是正交阵,所以UT=U(−1)U^T = U^(-1)UT=U(−1) 。 Σ\SigmaΣ是对角阵,ΣTΣ=Σ2\Sigma^T \Sigma= \Sigma^2ΣTΣ=Σ2。

  • 计算MTMM^T MMTM 的特征值,将特征值按照递减的顺序排列, 求均方根,得到M的奇异值

  • 由奇异值可以构建出对角线矩阵Σ\SigmaΣ, 同时求出 Σ−1\Sigma^{-1}Σ−1,以备后面的计算

  • 有上述排好序的特征值可以求出对应的特征向量,以特征向量为列得到矩阵 V, 转置后得到VTV^TVT

  • 求出MVΣ−1=UΣVTVΣ−1=UΣΣ−1=UMV\Sigma^{-1}=U\Sigma V^T V\Sigma^{-1}= U\Sigma\Sigma^{-1}=UMVΣ−1=UΣVTVΣ−1=UΣΣ−1=U,完毕。

酉矩阵(Unitary Matrix): n阶复方阵U的n个列向量是U空间的一个标准正交基,则U是酉矩阵。是正交矩阵往复数域的推广。是标准正交基到标准正交基的特殊基变换。 故n阶的复数矩阵U满足:

UHU=UHU=E UH=U−1 UH为U的共轭转置U^H U=U^H U=E \ U^H=U^{-1} \ U^H \text{为U的共轭转置}UHU=UHU=E UH=U−1 UH为U的共轭转置

性质:

  • 若A是酉矩阵,则A的逆矩阵也是酉矩阵;

  • 若A,B是酉矩阵,则A∙B 也是酉矩阵;

  • 若A是酉矩阵,则|det⁡(A) |=1;

  • A是酉矩阵的充分必要条件是,它的n个列向量是两两正交的单位向量。

Incremental SVD

《Incremental Singular Value Decomposition Algorithms for Highly Scalable Recommender Systems》

待扩展

sparse SVD, sparse SVD regression, T-SVD

参考佳文

PreviousMATH-Linear AlgebraNextSVD-推荐

Last updated 5 years ago

Was this helpful?

K-SVD简述——字典学习,稀疏编码
病态矩阵与条件数
Sparse SVDs in Python
http://www.benfrederickson.com/fast-implicit-matrix-factorization/