jjzjj

【证明】期望风险最小化等价后验概率最大化

目录引言证明结论引言在《统计学习方法》一书中,详细说明了期望风险最小化与后验概率最大化之间的关系,但是其中的公式推导过程有所省略,这篇文章作为补充说明。证明首先我们假设损失函数为0-1损失函数\[Loss=L(Y,f(X))=\begin{cases}1,\quadY\neqf(X)\\0,\quadY=f(X)\end{cases}\]则期望风险为\[\begin{aligned}R_{exp}(f)=R_{exp}(L(Y,f(X)))&=\int_{X\cdotY}L(y,f(x))P(y,x)dxdy\\&=\int_{X\cdotY}L(y,f(x))P(y|x)P(x)dxdy\\

SVD解决词分布式表示稀疏性

这篇文章是接着一文拿捏点互信息(PMI)解决词分布式表示稀疏性问题写的。解决分布式表示稀疏性问题另一个方法是使用**奇异值分解(SingularValueDecomposition,SVD)**。我把例子搬过来了。还是原来的三个句子及其共现矩阵M。我喜欢自然语言处理。我爱深度学习。我喜欢机器学习。$$\begin{array}{ccccccccccc}\hline&\text{我}&\text{喜欢}&\text{自然}&\text{语言}&\text{处理}&\text{爱}&\text{深度}&\text{学习}&\text{机器}&\circ\\hline\text{我}&0&2&1&1

SVD解决词分布式表示稀疏性

这篇文章是接着一文拿捏点互信息(PMI)解决词分布式表示稀疏性问题写的。解决分布式表示稀疏性问题另一个方法是使用**奇异值分解(SingularValueDecomposition,SVD)**。我把例子搬过来了。还是原来的三个句子及其共现矩阵M。我喜欢自然语言处理。我爱深度学习。我喜欢机器学习。$$\begin{array}{ccccccccccc}\hline&\text{我}&\text{喜欢}&\text{自然}&\text{语言}&\text{处理}&\text{爱}&\text{深度}&\text{学习}&\text{机器}&\circ\\hline\text{我}&0&2&1&1