共 41 篇文章
显示摘要每页显示  条
Variable(tf.zeros([1])) epsilon = 0.001 xs = tf.nn.batch_normalization(xs, fc_mean, fc_var, shift, scale, epsilon)xs = tf.placeholder(tf.float32, [None, 1]) # [num_samples, num_features]ys = tf.placeholder(tf.float32, [None, 1])train_op, cost, layers_inputs = built_net(xs, ys, norm=False) # without BNtrain_op_norm, co...
可以看出使用 tf.Variable() 定义的时候, 虽然 name 都一样, 但是为了不重复变量名, Tensorflow 输出的变量名并不是一样的. 所以, 本质上 var2, var21, var22 并不是一样的变量. 而另一方面, 使用tf.get_variable()定义的变量不会被tf.name_scope()当中的名字所影响.tf.variable_scope()variable_scope("a_variable_scope") as scope...
5.11 自编码 (Autoencoder)自编码 (Autoencoder)这是一个通过自编码整理出来的数据, 他能从原数据中总结出每种类型数据的特征, 如果把这些特征类型都放在一张二维的图片上, 每种类型都已经被很好的用原数据的精髓区分开来. 如果你了解 PCA 主成分分析, 再提取主要特征时, 自编码和它一样,甚至超越了 PCA. 换句话说, 自编码 可以像 PCA 一样 给...
莫烦 Python RNN LSTM (回归例子可视化)RNN LSTM (回归例子可视化)使用 Matplotlib 模块来进行可视化过程, 在建立好 model 以后, 设置 plt.ion() 使 plt.show()可以连续显示.Session()# sess.run(tf.initialize_all_variables()) # tf 马上就要废弃这种写法# 替换成下面的写法:sess.run(tf.global_variables_initializer())plt.ion() # 设置...
5.8.2 莫烦 Python循环神经网络 (LSTM)LSTM RNN 循环神经网络 (LSTM)今天我们会来聊聊在普通RNN的弊端和为了解决这个弊端而提出的 LSTM 技术. LSTM 是 long-short term memory 的简称, 中文叫做 长短期记忆. 是当下最流行的 RNN 形式之一.LSTM 就是为了解决这个问题而诞生的. LSTM 和普通 RNN 相比, 多出了三个控制器. (输入控制, 输出控制, ...
5.8.1 莫烦 Python RNN (Recurrent Neural Network)循环神经网络 RNN (Recurrent Neural Network)有了这些不同形式的 RNN, RNN 就变得强大了. 有很多有趣的 RNN 应用. 比如之前提到的, 让 RNN 描述照片. 让 RNN 写学术论文, 让 RNN 写程序脚本, 让 RNN 作曲. 我们一般人甚至都不能分辨这到底是不是机器写出来的.
import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltBATCH_START = 0 # 建立 batch data 时候的 indexTIME_STEPS = 20 # backpropagation through time 的 time_stepsBATCH_SIZE = 50 INPUT_SIZE = 1 # sin 数据输入 sizeOUTPUT_SIZE = 1 # cos 数据输出 sizeCELL_SIZE = 10 # RNN 的 hidden unit size LR = 0.006 # le...
5.8 莫烦 Python RNN LSTM 循环神经网络 (分类例子)RNN LSTM 循环神经网络 (分类例子)如果使用tf.nn.dynamic_rnn(cell, inputs), 我们要确定 inputs 的格式. tf.nn.dynamic_rnn 中的 time_major 参数会针对不同 inputs 格式有不同的值.如果 inputs 为 (batches, steps, inputs) ==> time_major=False;如果 inputs 为 (steps, batches, inp...
RNN 循环神经网络。作者: Morvan 编辑: Morvan.学习资料:如果你觉得这篇文章或视频对你的学习很有帮助, 请你也分享它, 让它能再次帮助到更多的需要学习的人.
Tensorflow系列---Saver用法。Saver的用法1. Saver的背景介绍 我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。为了避免填满整个磁盘,Saver可以自动的管理...
帮助 | 留言交流 | 联系我们 | 服务条款 | 下载网文摘手 | 下载手机客户端
北京六智信息技术股份有限公司 Copyright© 2005-2024 360doc.com , All Rights Reserved
京ICP证090625号 京ICP备05038915号 京网文[2016]6433-853号 京公网安备11010502030377号
返回
顶部