jjzjj

【沐风老师】3DMAX一款神级一键四边面重拓扑插件Quad Remesher使用教程

QuadRemesher是一款神级一键四边面重新拓扑插件。不需要太多介绍,看下面左右图像对比就知道了。 【适用版本】3dmax2016-2022(不仅限于此范围,其他自行测试)【安装方法】直接拖动QuadRemesher插件脚本文件包(解压后的.mzp文件)到max窗口完成安装! 【打开方法】安装完成后,点击max主菜单->自定义->自定义用户界面->工具栏->类别,在类别列表中找到"Exoside",选择下面的"OpenQuadRemesherwindow..."为其指定一个快捷键,以后通过快捷键打开该工具。或者将其拖动到工具栏,然后单击工具栏图标打开QuadRemesher!"【快速开始!

【沐风老师】3DMAX一款神级一键四边面重拓扑插件Quad Remesher使用教程

QuadRemesher是一款神级一键四边面重新拓扑插件。不需要太多介绍,看下面左右图像对比就知道了。 【适用版本】3dmax2016-2022(不仅限于此范围,其他自行测试)【安装方法】直接拖动QuadRemesher插件脚本文件包(解压后的.mzp文件)到max窗口完成安装! 【打开方法】安装完成后,点击max主菜单->自定义->自定义用户界面->工具栏->类别,在类别列表中找到"Exoside",选择下面的"OpenQuadRemesherwindow..."为其指定一个快捷键,以后通过快捷键打开该工具。或者将其拖动到工具栏,然后单击工具栏图标打开QuadRemesher!"【快速开始!

Vivado_AXI Quad SPI_IP核

ZYNQ_FPGA_SPI通信协议多种实现方式填一下前面的坑。介绍关于Vivado中AXIQuadSPIv3.2的使用方法。参考资料:pg153-axi-quad-spi.pdf,可自行在官网下载。以该IP核的StandardSPIMode的使用为例。AddressSpaceOffsetRegisterNameAccessTypeDefaultValue(hex)Description40hSRRWriteN/ASoftwareresetregister60hSPICRR/W0x180SPIcontrolregister64hSPISRRead0x0a5SPIstatusregister68h

Vivado_AXI Quad SPI_IP核

ZYNQ_FPGA_SPI通信协议多种实现方式填一下前面的坑。介绍关于Vivado中AXIQuadSPIv3.2的使用方法。参考资料:pg153-axi-quad-spi.pdf,可自行在官网下载。以该IP核的StandardSPIMode的使用为例。AddressSpaceOffsetRegisterNameAccessTypeDefaultValue(hex)Description40hSRRWriteN/ASoftwareresetregister60hSPICRR/W0x180SPIcontrolregister64hSPISRRead0x0a5SPIstatusregister68h

【算法随笔】大数乘法

大数乘法假设x和y是拥有n位数的大数,那么x*y的时间复杂度是多少?algorithm1最朴素的想法,是使用小学课本中教授的乘法竖式的算法。即,x的每一位都需要与y的每一位进行相乘运算,并将结果按位相加。这个时候,算法的复杂度为$O(n^2)$。对算法复杂度有所了解的同学都知道,平方级的复杂度的算法大多都是存在优化空间的。那么如何对algorithm1进行优化呢?algorithm2我们是否可以采用分而治之的思想,将x和y分成高n/2位与低n/2位,进行操作?然后递归的进行这个过程呢?基于这种想法,我们的表达式可以记为:$$x*y=x_hy_h*10^n+(x_hy_l+x_ly_h)*10^

【算法随笔】大数乘法

大数乘法假设x和y是拥有n位数的大数,那么x*y的时间复杂度是多少?algorithm1最朴素的想法,是使用小学课本中教授的乘法竖式的算法。即,x的每一位都需要与y的每一位进行相乘运算,并将结果按位相加。这个时候,算法的复杂度为$O(n^2)$。对算法复杂度有所了解的同学都知道,平方级的复杂度的算法大多都是存在优化空间的。那么如何对algorithm1进行优化呢?algorithm2我们是否可以采用分而治之的思想,将x和y分成高n/2位与低n/2位,进行操作?然后递归的进行这个过程呢?基于这种想法,我们的表达式可以记为:$$x*y=x_hy_h*10^n+(x_hy_l+x_ly_h)*10^

【证明】期望风险最小化等价后验概率最大化

目录引言证明结论引言在《统计学习方法》一书中,详细说明了期望风险最小化与后验概率最大化之间的关系,但是其中的公式推导过程有所省略,这篇文章作为补充说明。证明首先我们假设损失函数为0-1损失函数\[Loss=L(Y,f(X))=\begin{cases}1,\quadY\neqf(X)\\0,\quadY=f(X)\end{cases}\]则期望风险为\[\begin{aligned}R_{exp}(f)=R_{exp}(L(Y,f(X)))&=\int_{X\cdotY}L(y,f(x))P(y,x)dxdy\\&=\int_{X\cdotY}L(y,f(x))P(y|x)P(x)dxdy\\

【证明】期望风险最小化等价后验概率最大化

目录引言证明结论引言在《统计学习方法》一书中,详细说明了期望风险最小化与后验概率最大化之间的关系,但是其中的公式推导过程有所省略,这篇文章作为补充说明。证明首先我们假设损失函数为0-1损失函数\[Loss=L(Y,f(X))=\begin{cases}1,\quadY\neqf(X)\\0,\quadY=f(X)\end{cases}\]则期望风险为\[\begin{aligned}R_{exp}(f)=R_{exp}(L(Y,f(X)))&=\int_{X\cdotY}L(y,f(x))P(y,x)dxdy\\&=\int_{X\cdotY}L(y,f(x))P(y|x)P(x)dxdy\\

SVD解决词分布式表示稀疏性

这篇文章是接着一文拿捏点互信息(PMI)解决词分布式表示稀疏性问题写的。解决分布式表示稀疏性问题另一个方法是使用**奇异值分解(SingularValueDecomposition,SVD)**。我把例子搬过来了。还是原来的三个句子及其共现矩阵M。我喜欢自然语言处理。我爱深度学习。我喜欢机器学习。$$\begin{array}{ccccccccccc}\hline&\text{我}&\text{喜欢}&\text{自然}&\text{语言}&\text{处理}&\text{爱}&\text{深度}&\text{学习}&\text{机器}&\circ\\hline\text{我}&0&2&1&1