Machine Learning
  • Introduction
  • man
  • Linear model
    • Linear Regression
    • Generalized Linear Models
    • Nonlinear regression
  • bayes
    • bayesian network
    • Variational Bayesian inference
    • Gaussian Process Regression
  • Logistic Regression
    • L1 regularization
    • L2 regularization
    • softmax
    • Overflow and Underflow
  • SVM
    • C-SVM
    • C-SVM求解
  • EM
    • GMM
  • Maximum Entropy
    • IIS
  • HMM
    • viterbi algorithm
  • CRF
  • Random Forest
    • bagging
    • random forest
  • boosting
    • catboost
    • gradient boosting
    • Newton Boosting
    • online boosting
    • gcForest
    • Mixture models
    • XGBoost
    • lightGBM
    • SecureBoost
  • LDA
  • rank
    • RankNet
    • LambdaRank
    • SimRank
  • Factorization Machine
    • Field-aware Factorization Machine
    • xdeepFM
  • Clustering
    • BIRCH
    • Deep Embedding Clustering
  • Kalman filtering
  • word2vec
  • 关联规则挖掘
  • MATH-Mathematical Analysis
    • measure
  • MATH-probability
    • Variational Inference
    • Dirichlet分布
    • Gibbs Sampling
    • Maximum entropy probability distribution
    • Conjugate prior
    • Gaussian Process
    • Markov process
    • Poisson process
    • measure
    • Gumbel
  • MATH-Linear Algebra
    • SVD
    • SVD-推荐
    • PCA
    • Linear Discriminant Analysis
    • Nonnegative Matrix Factorization
  • MATH-Convex optimization
    • 梯度下降
    • 随机梯度下降
    • 牛顿法
    • L-BFGS
    • 最速下降法
    • 坐标下降法
    • OWL-QN
    • 对偶问题
    • 障碍函数法
    • 原对偶内点法
    • ISTA
    • ADMM
    • SAG
  • MATH-碎碎念
    • cost function
    • Learning Theory
    • sampling
    • Entropy
    • variational inference
    • basis function
    • Diffie–Hellman key exchange
    • wavelet transform
    • 图
    • Portfolio
    • 凯利公式
  • ML碎碎念
    • 特征
    • test
    • TF-IDF
    • population stability index
    • Shapley Values
  • 课件
    • xgboost算法演进
  • Time Series
  • PID
  • graph
    • SimRank
    • community detection
    • FRAUDAR
    • Anti-Trust Rank
    • Struc2Vec
    • graph theory
    • GNN
  • Anomaly Detection
    • Isolation Forest
    • Time Series
  • Dimensionality Reduction
    • Deep Embedded Clustering
  • Federated Learning
  • automl
  • Look-alike
  • KNN
  • causal inference
Powered by GitBook
On this page
  • 充分 必要 集合 包含
  • 协方差

Was this helpful?

MATH-碎碎念

记录一些不限于某个机器学习算法的数学知识

充分 必要 集合 包含

命题P的集合是A ,命题Q的集合是B

  • P、Q互为充要条件:

    集合A=集合B

  • P是Q的充分不必要条件:

    集合A真包含于集合B

  • P是Q的必要不充分条件:

    集合B真包含于集合A

必要,说明只是条件之一。充分,就是充分证明了。

协方差

协方差表示线性相关的方向,可以把协方差理解为两个向量的内积

X⋅Y=∑iXiYicov(X,Y)=∑i=1n(Xi−E[X])(Yi−E[Y])n−1或者cov(X,Y)=E[(X−E[X])(Y−E[Y])]=∫∫(X−E[X])(Y−E[Y])f(x,y)dxdy最外面的E用的是XY联合分布X \cdot Y = \sum_i X_i Y_i \\ cov(X,Y) = \frac {\sum_{i=1}^n (X_i- E[X])(Y_i- E[Y])}{n-1} \\ \text{或者} \\ cov(X,Y) = E [(X- E[X])(Y- E[Y])] \\ = \int \int (X- E[X])(Y- E[Y]) f(x,y) dx dy \\ \text{最外面的E用的是XY联合分布}X⋅Y=i∑​Xi​Yi​cov(X,Y)=n−1∑i=1n​(Xi​−E[X])(Yi​−E[Y])​或者cov(X,Y)=E[(X−E[X])(Y−E[Y])]=∫∫(X−E[X])(Y−E[Y])f(x,y)dxdy最外面的E用的是XY联合分布

所以若 当cov(X,Y)>0cov(X,Y) \gt 0cov(X,Y)>0时,表明X与Y正相关 当cov(X,Y)<0cov(X,Y) \lt 0cov(X,Y)<0时,表明X与Y负相关 当cov(X,Y)=0cov(X,Y) = 0cov(X,Y)=0时,表明X与Y不相关

上述只有正负性,没有考虑大小。如何衡量相关层度? 向量的内积相当于一个向量在另一个向量上的投影,或者理解为两个向量的重合度,重合度应该消除X,Y大小的影响,即:

X⋅Y∣∣X∣∣∣∣Y∣∣\frac {X \cdot Y}{||X|| ||Y||}∣∣X∣∣∣∣Y∣∣X⋅Y​

这就是相关系数,也就是一个余弦相似度。

r = \frac {\sum_{i=1}^n (X_i- E[X])(Y_i- E[Y])}{\sqrt \sum_{i=1}^n (X_i- E[X])^2 \sqrt \sum_{i=1}^n (Y_i- E[Y])^2 }

算术 平均,几何平均

PreviousSAGNextcost function

Last updated 5 years ago

Was this helpful?

机器学习应该准备哪些数学预备知识?

如何通俗易懂地解释「协方差」与「相关系数」的概念?
为什么样本方差(sample variance)的分母是 n-1?
用几何平均来代替算术平均更为严谨?
http://www.52cs.org/?p=1490
https://www.zhihu.com/question/36324957