在之前的BLOG里,我们一同了解了神经网络的一些数学记号和表示方法。现在就让我们通过实例了解神经网络在非线性假设函数,特别是逻辑运算假设函数的运用吧! 逻辑运算假设函数 我们考虑下面的问题,我们有二进制的输入特征 x1 x2 ,其要么取0 要么取1 ,在这个例子中只画出了两个正样本和 两个负样本: 但我们可以认为这是一个更复杂的学习问题的简化版本,在这个复杂问题中,我们可能在右上角和左...
在之前的BLOG里,我们介绍了神经网络的概况和背景。在这篇BLOG,我们将会探寻神经网络的一些表达方式,为之后的算法学习做准备。 从大脑神经到神经网络 这一部分,就让我们看看该如何表示神经网络,换句话说当我们在运用神经网络时,该如何表示我们的假设或模型。 神经网络是在模仿大脑中的神经元或者神经网络时发明的,因此要解释如何表示模型假设,我们先来看单个神经元在大脑中是什么样的: 我们的大脑...
从这篇BLOG开始,我们机器学习就开始进入一个新的系列——神经网络了,而这篇BLOG,就让我们来看看为什么要学习神经网络已经神经网络的一些背景吧。 非线性假设 接下来的一段时间,我们将会一同学习一种叫“神经网络”(Neural Network) 的机器学习算法,神经网络实际上是一个相对古老的算法,但后来沉寂了一段时间直到现在它才又成为许多机器学习问题的首选技术。 不过我们为什么还需要这个...
在之前的BLOG中,我们已经一同学习了如何将正则化运用到线性回归中。这篇BLOG,就让我们看看如何将正则化运用到我们熟悉的逻辑回归当中吧。 逻辑回归 对于逻辑回归,我们在之前一同学习了两种解决方法。一种是通过梯度下降法进行求解,另一种是用 Octave 中的高级优化算法进行求解。这两种方法都需要我们自行编程计算出代价函数 J(θ) 及其关于 θ0 到 θn 的偏导数。 我们之前也见到过,...
在之前的BLOG里,我们一同学习了什么是正则化,这篇BLOG,就让我们把正则化运用在回归问题上吧。 线性回归 对于线性回归问题的求解,我们之前学习了两种学习算法,一种基于梯度下降,一种基于正规方程。现在就让我们分别看看如何将正规化运用到这两种方法上。 下图我们之前推导出的正则化线性回归的优化目标: 在中括号内的前面的第一部分是一般线性回归的目标代价函数,而后面那项则是额外的正则化项,其...