Machine Learning
  • Introduction
  • man
  • Linear model
    • Linear Regression
    • Generalized Linear Models
    • Nonlinear regression
  • bayes
    • bayesian network
    • Variational Bayesian inference
    • Gaussian Process Regression
  • Logistic Regression
    • L1 regularization
    • L2 regularization
    • softmax
    • Overflow and Underflow
  • SVM
    • C-SVM
    • C-SVM求解
  • EM
    • GMM
  • Maximum Entropy
    • IIS
  • HMM
    • viterbi algorithm
  • CRF
  • Random Forest
    • bagging
    • random forest
  • boosting
    • catboost
    • gradient boosting
    • Newton Boosting
    • online boosting
    • gcForest
    • Mixture models
    • XGBoost
    • lightGBM
    • SecureBoost
  • LDA
  • rank
    • RankNet
    • LambdaRank
    • SimRank
  • Factorization Machine
    • Field-aware Factorization Machine
    • xdeepFM
  • Clustering
    • BIRCH
    • Deep Embedding Clustering
  • Kalman filtering
  • word2vec
  • 关联规则挖掘
  • MATH-Mathematical Analysis
    • measure
  • MATH-probability
    • Variational Inference
    • Dirichlet分布
    • Gibbs Sampling
    • Maximum entropy probability distribution
    • Conjugate prior
    • Gaussian Process
    • Markov process
    • Poisson process
    • measure
    • Gumbel
  • MATH-Linear Algebra
    • SVD
    • SVD-推荐
    • PCA
    • Linear Discriminant Analysis
    • Nonnegative Matrix Factorization
  • MATH-Convex optimization
    • 梯度下降
    • 随机梯度下降
    • 牛顿法
    • L-BFGS
    • 最速下降法
    • 坐标下降法
    • OWL-QN
    • 对偶问题
    • 障碍函数法
    • 原对偶内点法
    • ISTA
    • ADMM
    • SAG
  • MATH-碎碎念
    • cost function
    • Learning Theory
    • sampling
    • Entropy
    • variational inference
    • basis function
    • Diffie–Hellman key exchange
    • wavelet transform
    • 图
    • Portfolio
    • 凯利公式
  • ML碎碎念
    • 特征
    • test
    • TF-IDF
    • population stability index
    • Shapley Values
  • 课件
    • xgboost算法演进
  • Time Series
  • PID
  • graph
    • SimRank
    • community detection
    • FRAUDAR
    • Anti-Trust Rank
    • Struc2Vec
    • graph theory
    • GNN
  • Anomaly Detection
    • Isolation Forest
    • Time Series
  • Dimensionality Reduction
    • Deep Embedded Clustering
  • Federated Learning
  • automl
  • Look-alike
  • KNN
  • causal inference
Powered by GitBook
On this page
  • bayes公式
  • 朴素bayes分类法
  • 新闻分类
  • 参考佳文

Was this helpful?

bayes

PreviousNonlinear regressionNextbayesian network

Last updated 5 years ago

Was this helpful?

bayes公式

随机试验具有三个特征:

  • 可以在相同的条件下重复进行

  • 每次试验的结果不止一个,但预先知道试验的所有可能的结果

  • 每次试验前不能确定那个结果会出现

样本空间:随机试验E的所有结果构成的集合称为E的样本空间,记为S={e}S=\{e\}S={e}。 S中的元素为基本事件或样本点。 随机事件:一般称S的子集为随机事件。比如空集为不可能事件,全集为必然事件。 条件概率:P(B∣A)=P(AB)P(A)P(A)≠0P(B|A) = \frac {P(AB)}{P(A)} \qquad P(A) \neq 0P(B∣A)=P(A)P(AB)​P(A)=0

朴素bayes分类法

新闻分类

参考佳文

P(H∣D)=P(H)P(D∣H)P(D)P(H|D) = \frac {P(H)P(D|H)}{P(D)}P(H∣D)=P(D)P(H)P(D∣H)​

P(H∣D)P(H|D)P(H∣D) 后验概率

P(H)P(H)P(H) 先验概率

P(D∣H)P(D|H)P(D∣H) 似然概率

P(D)P(D)P(D) 边缘概率

对给定的输入x,通过学习到的模型计算后验概率分布P(Y=ck∣X=x)P(Y=c_k | X=x)P(Y=ck​∣X=x),将后验概率最大的类作为x的类输出。

P(yi∣X)=P(X∣yi)P(yi)P(X)=P(yi)∏jP(xj∣yi)P(X)P(y_i|X) = \frac {P(X|y_i)P(y_i)}{P(X)} = \frac {P(y_i) \prod_j P(x_j|y_i)}{P(X)}P(yi​∣X)=P(X)P(X∣yi​)P(yi​)​=P(X)P(yi​)∏j​P(xj​∣yi​)​

P(yi)P(y_i)P(yi​)每个类别的先验概率,如P(军事)

P(X∣yi)P(X|y_i)P(X∣yi​)每个类别产生该对象的概率

P(xi∣yi)P(x_i|y_i)P(xi​∣yi​)每个类别产生该特征的概率,如P(苹果|科技)

细读此文中的 @Xiangyu Wang 和 @秦松雄 回答

细读 @dawnmist 的回答

朴素贝叶斯理论推导与三种常见模型
如何通俗地解释贝叶斯线性回归的基本原理?
清华大学计算机系朱军教授:机器学习里的贝叶斯基本理论、模型和算法
基于 AC 自动机和贝叶斯方法的垃圾内容识别
从贝叶斯定理到概率分布:综述概率论基本定义
bayes