0

CUDA 第 1 课:GPU 编程模型——CUDA基础(1)

CUDA的全称是Compute Unified Device Architecture——统一计算设备架构,使用CUDA的前提是计算机需要安装英伟达公司推出的显卡,我使用的是GTX 660型号的英伟达显卡,俗称N卡。要编写CUDA程序进行编译运行的话你需要去CUDA的开发环境。本文主要介绍CUDA的基础架构,理解CUDA的基础架构有助于编写CUDA程序。 Continue Reading

0

CUDA——Udacity cs344的并行课程学习笔记

CUDA全称是Compute Unified Device Architecture,中文名称为统一计算设备架构,它是由英伟达(NVIDIA)公司推出了一种通用的并行计算平台和编程模型。使用CUDA,我们可以开发出同时在CPU和GPU上运行的通用计算程序,更加高效地利用现有硬件进行计算。为了简化并行计算学习,CUDA为程序员提供了一个类C语言的开发环境以及一些其它的如FORTRAN、Python等的高级语言/编程接口来开发CUDA程序。

cuda Continue Reading

0

Coding ML:Sigmoid function

[latexpage]

在神经网络中,sigmoid函数很常用,而在LR当中,这个函数也很常见,那么如何使用sigmoid函数实现一个神经网络的sigmoid函数呢?这里我们采用梯度下降的算法使用sigmoid函数来更新权重,下面是权重更新公式
\begin{equation}
\omega_i=\omega_i+\Delta w_i
\end{equation}
其中$\Delta w_i$为
\begin{equation}
\Delta w_{i} = \eta (y – \sigma )\sigma(1-\sigma)x_{i}
\end{equation} Continue Reading

0

Coding ML:一个简单的XOR网络的构建

[latexpage]

神经网络是一个很迷人的算法,有时候也让人很难懂。最近需要构建一个XOR的网络,什么是XOR的网络?XOR是抑或的意思,所谓的亦或就是“同为非,异为是”,就是说对于$x$和$y$,如果它们都是true,那么它们的亦或的结果就是false,如果他们的不都是true,那么它们的亦或的结果就是true。

我们先把网络分成两层,第一层是输入层,第二层是输出层。对于第一层,首先要求“与”的值,然后第二个结果再求得到的“与”的结果的的最终值,说了那么多有点含糊,那么看下个表 Continue Reading

0

scikit-learn奇技淫巧——LinearRegression

[latexpage]

Scikit-learn是Python机器学习的一个很强大的库,最近刚开始接触scikit-learn,就以奇技淫巧的方式来介绍一下它的使用吧,本文以线性回归为例

线性回归的内容主要在本站的机器学习——回归目录下有一些介绍,线性回归的模型一般为
\begin{equation}
f(x)=\omega_0{x_0}+\omega_1{x_1}+…+\omega_n{x_n}+\epsilon
\end{equation}
其中$\omega_i$是回归系数,$x_i$是方程的特征,$\epsilon$是模型的误差项,是模型还没有考虑的部分 Continue Reading

0

Numpy奇技淫巧——np.std与matlab的std的区别

[latexpage]

numpy是一款很牛的Python的矩阵计算库,其底层接口调用C与BLAS,计算速度还是非常理想的,numpy奠定了Python的数据分析利器的地位,是Pandas库的基础。

最近学习朴素贝叶斯分类器,对连续型的类型计算其标准差,但是发现了matlabstdnumpynp.std的一些不同。代码如下 Continue Reading

0

Pandas奇技淫巧——Pandas多重标准筛选数据

Pandas一直都是我处理数据的首选库,最近在处理Boston的房价数据,当我要把房间数大于等于5小于4的数据筛选出来的时候一直搞不定,查了谷歌之后从StackOverflow上一个Truth value of a Series is ambiguous. Use a.empty, a.bool(), a.item(), a.any() or a.all()的问题找到了答案,刚开始的时候我是这么做的

Continue Reading