失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > 走向无监督学习(无监督学习概述 - 告别启蒙阶段的深度学习)

走向无监督学习(无监督学习概述 - 告别启蒙阶段的深度学习)

时间:2023-11-19 03:17:10

相关推荐

走向无监督学习(无监督学习概述 - 告别启蒙阶段的深度学习)

1 之前的人工智能学习(监督学习 supervised learning)

相信所有人在学习人工智能的时候,都经过了几个阶段,从一开始简单的数据处理,到机器学习简单算法,然后再到深度学习。在长时间的学习积累后,大家可能会有一种感受,就算法本身来说,并不是越复杂就一定越好,并不是说解决一个问题时,你运用到了神经网络的知识,就一定要比一般的机器学习高端,最适合的才是最好的。

另一方面,在过去的学习过程中,可能不少人都有这样一种感受,觉得我们做的事情都有一个大前提,那就是我们事先已经知道了答案,比方说分类问题和回归问题,我们事先已经知道了猫是什么样的,狗是什么样的,然后我们就给数据创建训练集,测试集,设定好标签,通过我们现有的认知来训练计算机,像这样的机器学习方式就叫做监督学习。

监督学习最大的好处就是,一切都是已知的,通过这些模型的建立,我们就能非常容易地对事物进行判断和预测。但是这需要投入大量的人力进行前期的数据处理和标签制作,在这个过程中,很容易掺杂大量的感情因素,也可能会出现人的工作疏忽,导致送给机器的数据或数据标签本身就有问题(本人就遇到过,有些狗长得和猫很像啊)。

但是,在现实生活中,有很多需要处理的事情,我们事先其实并不知道答案,无法告诉计算机什么才是正确的,但是计算机经过训练后却可以达到人类的要求。

像这种事先并没有标准答案(没有标签)的训练方式就叫做无监督学习

2 人工智能学习的新阶段(无监督学习 unsupervised learning)

相信不少刚接触人工智能的同学都会有一个疑问,如果我们事先不知道答案,就没有办法给数据设置标签,那计算机该怎么学习?

其实在无监督学习中,数据也是有标签的,而且数据的标签就是数据自己

无监督学习的思路是,将一组数据送给一个神经网络后,得到一个输出,然后再将这个输出送入另一个网络,希望输出结果为最原始的输入数据。

我们平时在做监督学习的分类问题时,一般要分层多少类,输出就是一个一乘几的数组,但是现在的情况下,由于没有标签,输出结果的维度就和原始数据保持一致,希望能尽可能的把输入数据给还原出来。

其中,中间的那个输出被称为“颈部neck()”。neck的维度没有规定大小,但是一般来说我们会进行降维操作,而且降维后的维度一般是二维或三维,这样做的目的在于比较容易做出可视化效果(三维以上长什么样画不出来啊),而且这样的可视化能相对完整地保留语义。

像这种把自己自动作为输出结果的标签的做法叫做Auto-Encoders

3 如何训练

在看明白原理之后,有些同学可能会觉得很奇怪,这种无监督学习具体的应该怎么训练。

大家一定要搞明白,我们看一种思路能不能实现的本质是看这种loss的方程到底能不能求导。

之前,我们在做监督学习的时候,用的是下面这个方程,也就是想办法让输出结果和实际结果之间的差距尽可能缩小。

这个方程在无监督学习过程中也一样可以使用,但意义变成了希望输出结果和和原来的输入结果之间的差尽量小,差距越小就说明还原得越成功。

但是,如果我们拿到的图像是黑白的,也就是说,如果我们可以把一张图片转化为黑白图片,每一个像素点非零即一,那么,我们就可以使用下面这个公式:

这个公式里面,如果原图中原图的某一个像素如果是0,就会有一项消掉。剩下的就是比较判断出来的这个像素点是0或1的概率(概率只可能是0到1之间),让这个方程的结果越小,就说明训练出的模型越成功。

不管你用的是TensorFlow还是Cafe,你只要确定一个loss的算法是可导的,后面的求导过程交个工具就可以了。

4 降维

在出现深度学习之前,大家使用的降维方式是PCA。

PCA的原理其实很好理解。大家知道,高维空间的线性投影就是一个低维空间,依据这个方法,早期的计算机科学家得到了最初的降维效果。但是我们知道,自然界的大多数数据其实不可能是线性关系的,这样的投影方式导致了大量的有效信息缺失。

而Auto-Encoders是神经网络的做法,这里面的激活函数发挥了非常重要的作用,使得原有信息得到了极大程度的保留。

比方说,上面这张图,中间的那一行是Auto-Encoders的还原效果,相较于原图(第一行),确实丢失了一些信息,但是效果比第三行的PCA明显要好很多。

5 结语

这里对无监督学习做一些简单的介绍,其实也是为了帮自己做一点概括可梳理,之后的一些文章可能会主要转向非监督学习,之后会在实际的使用层面做一些比较详细的记录。

如果觉得《走向无监督学习(无监督学习概述 - 告别启蒙阶段的深度学习)》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。