分享

机器学习怎么快速入门?此文教你「宏观」学习神经网络和TensorFlow(实例教程)

 yespon 2017-04-23


概要:创建机器学习模型来进行文本分类

来源:机器人圈


开发人员经常说,如果你想要着手机器学习,你就应该首先学习算法是如何运行的。但是我的经验告诉我并不需要如此。


我认为,你应该首先能够宏观了解:这个应用程序是如何运行的。一旦你弄明白这一点,深入挖掘和探索这个算法的内部工作原理将变得相当简单。


那么,你该如何培养对机器学习的直觉并实现宏观了解呢?创建机器学习模型就是一个很好的方法。


假设你依旧不知道该如何从头开始创建这些算法,那么你将希望使用一个帮你实现所有这些算法的库,而这个库就是TensorFlow。


在本文中,我们将要创建一个机器学习模型来进行文本分类。我们先讨论一下主题:


1.TensorFlow是如何运行的?

2.什么是机器学习模型?

3.什么是神经网络?

4.神经网络是如何进行学习的?

5.如何操作数据并将其传递给神经网络输入?

6.如何运行模型并获得预测结果?

 

你将要学习到大量的新知识,那么我们开始吧。



TensorFlow



TensorFlow是一种机器学习的开源库,最初是由谷歌创立的。这个库的名字帮助我们理解我们是如何用它工作的:张量(Tensor)是通过图的节点流动的多维数组。


tf.Graph


TensorFlow中的每一个计算都代表着一个数据流图。这个图有两个元素:


一系列的tf.Operation,代表计算单位

一系列的tf.Tensor,代表数据单位

 

为了看清这一切是如何运行的,你需要创建一下这张数据流图:



计算X+Y的图形


定义x= [1,3,6],y =[1,1,1],这个图和tf.Tensor一起工作来代表数据的单位,你需要创建恒定的张量:



现在你需要定义操作单元:



你已经有足够的图元素了,现在你需要创建图:



这就是TensorFlow工作流是如何运行的:首先,你需要创建一张图,只有这样你才能进行计算(真正地运行图节点的操作)。为了运行这图你将需要创建一个tf.Session。


tf.Session


一个tf.Session对象封装了操作对象执行的环境,并且对Tensor对象进行评估

。为了做到这一点,我们需要定义在会话中将要用到哪一张图:



想要执行这个操作,你会用到tf.Session.run()这个方法。这个方法执行TensorFlow计算中的一步,而这个是通过运行必要的图表片段来执行每个Operation和评估在参数提取中传递的每一个Tensor来实现的。在你的案例中,你需要运行一系列操作中的一步:



一个预测模型



既然你已经知道TensorFlow是如何工作的,你就必须学习如何创建一个可预测模型。总的说来,就是:


机器学习算法+数据=预测模型


构建模型的过程如下:



构建模型的过程


正如你所见,这个模型包含一种用数据“训练”的机器学习算法。一旦你有了这个模型,你将获得以下的结果:



预测工作流


你创建的这个模型的目标是为了将文本类别进行分类,我们定义它为:


input: text, result: category


我们有一个包含所有文本的训练数据集(每一个文本都有一个标签,说明它属于哪个类别)。在机器学习中这类任务是以“监督”学习的方式进行的。


你需要将数据进行类别分类,所以它也是一个分类任务。为了创建模型,我们将使用神经网络。



神经网络


一个神经网络就是一个计算模型(使用数学语言和数学概念来描述一个系统的一种方式)。这些系统进行自学习和训练,而不是显式地编程。


神经网络受到我们中枢神经系统的启发,连接着和我们的神经元相似的节点。



一个神经网络


感知器是第一个神经网络算法。


为了理解神经网络是如何工作的,我们需要通过TensorFlow建立一个神经网络结构。


神经网络结构


这个神经网络将有两个隐藏层(你必须选择网络中有多少个隐藏层,这是架构设计的一部分)。每个隐藏层的工作是将输入转换为输出层可以使用的内容。




隐藏层1



输入层和第一层隐藏层


你还需要定义第一个隐藏层将有多少个节点。这些节点也被称为特征或神经元,在上面的图像中,它们由每个圆圈表示。


在输入层,每个节点都对应于数据集的一个词(稍后我们将看到它是如何工作的)。


正像这里解释的,每个节点(神经元)乘以一个权重,每个节点都有一个权重,并在神经网络训练阶段调整这些值以产生正确的输出(等等,我们一会儿说着重说一下这个)。


除了将每一个输入节点乘以一个权重,网络中还增加了偏差。


输入乘以权重后,经过加法之后输入给偏差,数据还要经过一个激活函数。这个激活函数定义了每个节点的最终输出。举个例子来说明,假设每个节点是一盏灯,激活函数将要断定这盏灯是开还是关。


激活函数的类型有很多种,你将使用修正线性单元(ReLu),这个函数是这样定义的:


f(x) = max(0,x) 

[输出X或0(zero),较大的那一个]

例如:如果x= -1,那么f(x)=0(zero); 如果x=0.7,那么f(x)=0.7


隐藏层2


第二隐藏层的操作和第一隐藏层的操作是一样的,但是现在第二隐藏层的输入是第一隐藏层的输出。


第一和第二隐藏层

输出层

终于,我们来到了最后一层,输出层。你需要使用独热编码(One-Hot Encoding)来获得这一层的结果。在这个编码中值为以1的比特只有一个,其他的值都是0。


例如,如果我们想编码三个类别(运动、空间和计算机图形学):



所以输出节点的数量就是输入数据集的类的数量。


输出层的值也乘以权重,并且我们还添加了偏差,但现在激活函数是不同的。


你想用一个类别来标明每一个文本,这些类别是互斥的(一个文本不能同时属于两类)。考虑这一点,我们将使用Softmax函数,而不是使用ReLu激活函数。这个函数将每个统一的输出转换为一个范围在0和1之间的值,也确保单位的总和等于1。这种方式的输出会告诉我们每个文本为每个类别的概率。



现在你已经有了神经网络的数据流图。将我们到目前为止看到的翻译成代码,结果是(点击图片放大):



(稍后我们将讨论输出层的激活函数的代码)



神经网络是如何学习的



正如我们前面看到的那样,权重值在网络训练的时候是不断更新的。现在我们将看到在TensorFlow环境中这些是如何发生的。


tf.Variable


权重和偏差都存储在变量(tf.Variable)中。这些变量通过调用run()来维护图的状态。在机器学习中,我们通常通过正态分布值来启动权重和偏差值。



当我们第一次运行网络(即由正态分布的定义的权重值):



想知道网络是不是在学习,你需要比较输出值(z)与预期值(expected)。我们如何计算这种差异(loss)?有许多方法可以实现这一点,因为我们正在与一个分类任务协同工作,最好的衡量损失最好的方法就是“交叉熵代价函数(cross-entropy error)”。


詹姆斯D·麦卡弗里给出了一个出色的解释,解释了为什么这是这种任务的最好的方法。


在TensorFlow中你会使用tf.nn.softmax_cross_entropy_with_logits()来计算交叉熵误差(这是softmax激活函数)并计算平均误差(tf.reduced_mean())。



你当然想找到最好的权重值和偏差,以最小化输出误差(我们得到的值和正确的值之间的区别)。为了做到这一点,你需要使用梯度下降法,更具体地说,你将使用随机梯度下降法。


梯度下降法


也有很多算法来计算梯度下降,你需要使用自适应估计方法(Adam),在TensorFlow中使用这个算法需要通过learning_rate值,它决定增量步的值来找到最好的权重值。


tf.train.AdamOptimizer(learning_rate).minimize(loss)是一种语法糖(syntactic sugar),它做两件事:


1.计算梯度(loss, )

2.运用梯度()


这种方法用新值来更新所有的tf.Variables,所以我们不需要传递变量的列表。现在你有训练网络的代码(点图放大):




数据操作



你将使用的数据集会有许多英文文字,那么我们需要操纵这些数据使它们通过神经网络。这样做的话你需要做两件事:


为每个单词创建索引

为每个文本创建一个矩阵,如果字在文本中值为1,否则的话为0


让我们看看代码理解这个过程(点图放大):



在上面的示例中,文本内容是‘Hi from Brazil’,矩阵是[1,1,1],那么如果文本内容是‘Hi’呢?



现在你将要使用到独热编码:




运行图表并得到结果



这是最有意思的部分:从模型中得到结果,首先让我们仔细看看输入数据集。


数据集


你需要使用20新闻组、约20主题的18000帖子的数据集,为了加载这个数据集,你将使用scikit-learn图书馆,我们只使用到其中3类:comp.graphics、sci.space和rec.sport.baseball。


scikit-learn有两个子集:一个用于训练,另一个用于测试。我的建议就是,你不应该看测试数据,因为这会在创建模型的时候会干涉你的选择。你当然不想创建一个模型来预测这个特定的测试数据,而是需要创建一个具有良好的泛化性能的模型。


加载数据集:




训练模型



在神经网络术语中, 一次epoch=一个向前传递(得到输出值)和一个向后传递(更新权重)。


需要记住tf.Session.run()方法么?我们来仔细地瞧一瞧吧。

 


在本文开始的数据流图操作中,你使用的是和操作,但是我们也可以通过一系列的事情来运行。在整个神经网络运行,你要传递两件事:损失计算和优化步骤。


这个feed_dict参数是我们每一次运行步骤中用来传递数据的,为了传递这些数据我们需要定义tf.placeholders(为feed_dict提供供给)。


正如TensorFlow文件中说的那样:


“一个占位符存在的唯一理由就是作为供给的目标,这不是初始化也不包含数据。”


所以,你可以这样定义定位符:



你需要分批次地训练数据:


“如果使用占位符进行输入,则可以通过使用tf.placeholder(...,shape = [None,...])创建占位符来指定变量批量维度。该形状的“None”元素对应于可变大小的维度”?


在测试模型的时候,我们用一个更大的批次来供给,这就是为什么你需要定义一个变量批维度。


这个get_batches()函数可以为我们提供文本的数量与批量的大小,现在我们可以运行这个模式(点图放大):

 


现在你有了这个训练好的模型。要测试它,你还需要创建图形元素,我们将测量模型的准确性,所以你需要预报值的索引和正确值的索引(因为我们使用的是一个独热编码),检查他们是否相等,并计算所有的测试数据集的平均值(点图放大):



就是它!你使用神经网络创建了一个模型来对文本进行类别分类。恭喜你!


来源: 机器人圈

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多