demi的博客

OpenGL缓冲区总结

几乎每个图形程序的重要目标之一都是在屏幕上绘制图形。屏幕是由一个矩形像素数组组成的,每个像素都可以在图像的某一个点上显示一个某种颜色的微小方块。在光栅化阶段(包括纹理和雾)之后,数据就不再是像素,而是片段。每个片段都具有与像素对应的坐标数据以及颜色值和深度值。

感知机原理小结

感知机可以说是最古老的分类方法之一了,在1957年就已经提出。今天看来它的分类模型在大多数时候泛化能力不强,但是它的原理却值得好好研究。因为研究透了感知机模型,学习支持向量机的话会降低不少难度。同时如果研究透了感知机模型,再学习神经网络,深度学习,也是一个很好的起点。这里对感知机的原理做一个小结。

神经网络初始化技术

本文阐述深度学习中使用的一些初始化技术。任何甚至没有机器学习背景的人都必须知道我们需要学习权重或超参数来制作模型。这些参数控制着我们的算法在看不见的数据上的表现。要学习模型,我们需要初始化参数,应用损失函数然后对其进行优化。

机器学习杂记

极大似然估计中取对数的原因:取对数后,连乘可以转化为相加,方便求导;对数函数ln为单调递增函数,不会改变似然函数极值点。统计学三大相关系数对比:pearson积差相关系数,计算连续性变量才可采用;Spearman秩相关系数或Kendall等级相关系数,适合于定序变量或不满足正态分布假设的等间隔数据......