在之前的BLOG里,我们介绍了神经网络的概况和背景。在这篇BLOG,我们将会探寻神经网络的一些表达方式,为之后的算法学习做准备。 从大脑神经到神经网络 这一部分,就让我们看看该如何表示神经网络,换句话说当我们在运用神经网络时,该如何表示我们的假设或模型。 神经网络是在模仿大脑中的神经元或者神经网络时发明的,因此要解释如何表示模型假设,我们先来看单个神经元在大脑中是什么样的: 我们的大脑...
从这篇BLOG开始,我们机器学习就开始进入一个新的系列——神经网络了,而这篇BLOG,就让我们来看看为什么要学习神经网络已经神经网络的一些背景吧。 非线性假设 接下来的一段时间,我们将会一同学习一种叫“神经网络”(Neural Network) 的机器学习算法,神经网络实际上是一个相对古老的算法,但后来沉寂了一段时间直到现在它才又成为许多机器学习问题的首选技术。 不过我们为什么还需要这个...
在之前的BLOG中,我们已经一同学习了如何将正则化运用到线性回归中。这篇BLOG,就让我们看看如何将正则化运用到我们熟悉的逻辑回归当中吧。 逻辑回归 对于逻辑回归,我们在之前一同学习了两种解决方法。一种是通过梯度下降法进行求解,另一种是用 Octave 中的高级优化算法进行求解。这两种方法都需要我们自行编程计算出代价函数 J(θ) 及其关于 θ0 到 θn 的偏导数。 我们之前也见到过,...
在之前的BLOG里,我们一同学习了什么是正则化,这篇BLOG,就让我们把正则化运用在回归问题上吧。 线性回归 对于线性回归问题的求解,我们之前学习了两种学习算法,一种基于梯度下降,一种基于正规方程。现在就让我们分别看看如何将正规化运用到这两种方法上。 下图我们之前推导出的正则化线性回归的优化目标: 在中括号内的前面的第一部分是一般线性回归的目标代价函数,而后面那项则是额外的正则化项,其...
在之前的BLOG里,我们介绍了如何解决回归问题和回归问题,在这些问题中,我们可能会出现欠拟合过拟合等各种问题。这篇BLOG,就让我们看看什么是欠拟合过拟合问题以及如何用正则化去解决它们。 过度拟合 到现在为止我们已经学习了几种不同的学习算法模型,比如线性回归和逻辑回归。它们能够有效地解决许多问题,但是当将它们应用到某些特定的机器学习问题时,可能会遇到过度拟合(over-fitting)的...