共 14 篇文章 |
|
阅23 转0 评0 公众公开 21-06-04 20:22 |
lag_1 // 平移1天,即昨天的pvlag_2 // 平移2天,即两天前的pv...lag_7 // 平移7天,上周这天的pv...lag_14 // 平移14天,上上周这天的pv. 阅104 转0 评0 公众公开 21-06-04 20:19 |
阅114 转0 评0 公众公开 21-05-28 10:15 |
由上图看出,VGG-16的结构非常整洁,深度较AlexNet深得多,里面包含多个conv->conv->max_pool这类的结构,VGG的卷积层都是same的卷积,即卷积过后的输出图像的尺寸与输入是一致的,它的下采样完全是由max pooling来实现。下图是 DenseNet 的一个dense block示意图,一个block里面的结构如下,与ResNet中的BottleNeck基本一致:BN-ReLU-Con... 阅26 转1 评0 公众公开 21-04-15 20:23 |
【译】理解LSTM(通俗易懂版)循环神经网络(Recurrent Neural Networks)LSTMs的结构如下图所示。前面提到LSTM由三个门来控制细胞状态,这三个门分别称为忘记门、输入门和输出门。更新完细胞状态后需要根据输入的和来判断输出细胞的哪些状态特征,这里需要将输入经过一个称为输出门的sigmoid层得到判断条件,然后将细胞状态经过tanh层得到一个... 阅108 转0 评0 公众公开 20-02-29 18:05 |
model = Sequential() model.add(Conv2D(32, kernel_size=(3, 3), activation=''''''''relu'''''''', input_shape=input_shape)) model.add(Conv2D(64, (3, 3), activation=''''''''relu'''''''')) model.a... 阅5335 转2 评0 公众公开 20-02-29 17:26 |