共 41 篇文章 |
|
Variable(tf.zeros([1])) epsilon = 0.001 xs = tf.nn.batch_normalization(xs, fc_mean, fc_var, shift, scale, epsilon)xs = tf.placeholder(tf.float32, [None, 1]) # [num_samples, num_features]ys = tf.placeholder(tf.float32, [None, 1])train_op, cost, layers_inputs = built_net(xs, ys, norm=False) # without BNtrain_op_norm, co... 阅3313 转7 评0 公众公开 17-04-11 13:22 |
可以看出使用 tf.Variable() 定义的时候, 虽然 name 都一样, 但是为了不重复变量名, Tensorflow 输出的变量名并不是一样的. 所以, 本质上 var2, var21, var22 并不是一样的变量. 而另一方面, 使用tf.get_variable()定义的变量不会被tf.name_scope()当中的名字所影响.tf.variable_scope()variable_scope("a_variable_scope") as scope... 阅2857 转14 评0 公众公开 17-04-11 13:20 |
5.11 自编码 (Autoencoder)自编码 (Autoencoder)这是一个通过自编码整理出来的数据, 他能从原数据中总结出每种类型数据的特征, 如果把这些特征类型都放在一张二维的图片上, 每种类型都已经被很好的用原数据的精髓区分开来. 如果你了解 PCA 主成分分析, 再提取主要特征时, 自编码和它一样,甚至超越了 PCA. 换句话说, 自编码 可以像 PCA 一样 给... 阅282 转0 评0 公众公开 17-03-27 21:03 |
莫烦 Python RNN LSTM (回归例子可视化)RNN LSTM (回归例子可视化)使用 Matplotlib 模块来进行可视化过程, 在建立好 model 以后, 设置 plt.ion() 使 plt.show()可以连续显示.Session()# sess.run(tf.initialize_all_variables()) # tf 马上就要废弃这种写法# 替换成下面的写法:sess.run(tf.global_variables_initializer())plt.ion() # 设置... 阅3222 转3 评0 公众公开 17-03-21 14:37 |
5.8.2 莫烦 Python循环神经网络 (LSTM)LSTM RNN 循环神经网络 (LSTM)今天我们会来聊聊在普通RNN的弊端和为了解决这个弊端而提出的 LSTM 技术. LSTM 是 long-short term memory 的简称, 中文叫做 长短期记忆. 是当下最流行的 RNN 形式之一.LSTM 就是为了解决这个问题而诞生的. LSTM 和普通 RNN 相比, 多出了三个控制器. (输入控制, 输出控制, ... 阅1214 转3 评0 公众公开 17-03-21 14:06 |
5.8.1 莫烦 Python RNN (Recurrent Neural Network)循环神经网络 RNN (Recurrent Neural Network)有了这些不同形式的 RNN, RNN 就变得强大了. 有很多有趣的 RNN 应用. 比如之前提到的, 让 RNN 描述照片. 让 RNN 写学术论文, 让 RNN 写程序脚本, 让 RNN 作曲. 我们一般人甚至都不能分辨这到底是不是机器写出来的. 阅315 转2 评0 公众公开 17-03-21 11:31 |
import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltBATCH_START = 0 # 建立 batch data 时候的 indexTIME_STEPS = 20 # backpropagation through time 的 time_stepsBATCH_SIZE = 50 INPUT_SIZE = 1 # sin 数据输入 sizeOUTPUT_SIZE = 1 # cos 数据输出 sizeCELL_SIZE = 10 # RNN 的 hidden unit size LR = 0.006 # le... 阅1335 转21 评2 公众公开 17-03-21 10:47 |
5.8 莫烦 Python RNN LSTM 循环神经网络 (分类例子)RNN LSTM 循环神经网络 (分类例子)如果使用tf.nn.dynamic_rnn(cell, inputs), 我们要确定 inputs 的格式. tf.nn.dynamic_rnn 中的 time_major 参数会针对不同 inputs 格式有不同的值.如果 inputs 为 (batches, steps, inputs) ==> time_major=False;如果 inputs 为 (steps, batches, inp... 阅19192 转155 评1 公众公开 17-03-21 10:46 |
RNN 循环神经网络。作者: Morvan 编辑: Morvan.学习资料:如果你觉得这篇文章或视频对你的学习很有帮助, 请你也分享它, 让它能再次帮助到更多的需要学习的人. 阅554 转1 评0 公众公开 17-03-15 23:08 |
Tensorflow系列---Saver用法。Saver的用法1. Saver的背景介绍 我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。为了避免填满整个磁盘,Saver可以自动的管理... 阅1340 转1 评0 公众公开 17-03-15 22:46 |