分享

时间序列深度学习:状态 LSTM 模型预测太阳黑子(下)

 庞紫成长馆 2018-06-15

博客专栏: 

https://www.cnblogs.com/xuruilong100 




5.3 预测未来 10 年的数据

我们可以通过调整预测函数来使用完整的数据集预测未来 10 年的数据。新函数 predict_keras_lstm_future() 用来预测未来 120 步(或 10 年)的数据。

predict_keras_lstm_future <- function(data,
                                                            epochs = 300,                                      
                                                            ...) {        lstm_prediction <- function(data,                                                 epochs,                                
                                                ...) {                # 5.1.2 Data Setup (MODIFIED)        df <- data                # 5.1.3 Preprocessing        rec_obj <- recipe(value ~ ., df) %>%            
             step_sqrt(value) %>%            
             step_center(value) %>%            
             step_scale(value) %>%            
             prep()                df_processed_tbl <- bake(rec_obj, df)                center_history <- rec_obj$steps[[2]]$means['value']        scale_history  <- rec_obj$steps[[3]]$sds['value']                
       # 5.1.4 LSTM Plan        lag_setting  <- 120 # = nrow(df_tst)        batch_size   <- 40        train_length <- 440        tsteps       <- 1        epochs       <- epochs
                       # 5.1.5 Train Setup (MODIFIED)        lag_train_tbl <- df_processed_tbl %>%                                    mutate(                                        value_lag = lag(value, n = lag_setting)) %>%                                                    filter(!is.na(value_lag)) %>%                                                   tail(train_length)                x_train_vec <- lag_train_tbl$value_lag        x_train_arr <- array(                                    data = x_train_vec, dim = c(length(x_train_vec), 1, 1))                y_train_vec <- lag_train_tbl$value        y_train_arr <- array(                                    data = y_train_vec, dim = c(length(y_train_vec), 1))                x_test_vec <- y_train_vec %>% tail(lag_setting)        x_test_arr <- array(                                    data = x_test_vec, dim = c(length(x_test_vec), 1, 1))                        # 5.1.6 LSTM Model        model <- keras_model_sequential()        model %>%                                    layer_lstm(                                        units            = 50,                        input_shape      = c(tsteps, 1),                        batch_size       = batch_size,                                                        return_sequences = TRUE,                        stateful         = TRUE) %>%                                    layer_lstm(                                        units            = 50,                                         return_sequences = FALSE,                                                             stateful         = TRUE) %>%                        layer_dense(units = 1)                model %>%                                     compile(loss = 'mae', optimizer = 'adam')                # 5.1.7 Fitting LSTM        for (i in 1:epochs) {            model %>%                                       fit(x          = x_train_arr,                              y          = y_train_arr,                              batch_size = batch_size,                                                                  epochs     = 1,                              verbose    = 1,                              shuffle    = FALSE)                        model %>% reset_states()                                        cat('Epoch: ', i)                    }                # 5.1.8 Predict and Return Tidy Data (MODIFIED)        # Make Predictions        pred_out <- model %>%                                     predict(x_test_arr, batch_size = batch_size) %>%                                                 .[,1]                # Make future index using tk_make_future_timeseries()        idx <- data %>%                                    tk_index() %>%                                    tk_make_future_timeseries(n_future = lag_setting)                
                       # Retransform values        pred_tbl <- tibble(                                   index   = idx,                                                value   = (pred_out * scale_history center_history)^2)              
                        # Combine actual data with predictions        tbl_1 <- df %>%                                     add_column(key = 'actual')        tbl_3 <- pred_tbl %>%                                     add_column(key = 'predict')        
                        # Create time_bind_rows() to solve dplyr issue        time_bind_rows <- function(data_1,                                                      data_2,                                                      index) {            index_expr <- enquo(index)                                     bind_rows(data_1, data_2) %>%                                             as_tbl_time(index = !! index_expr)        }        ret <- list(tbl_1, tbl_3) %>%                                     reduce(time_bind_rows, index = index) %>%                                                 arrange(key, index) %>%                                                 mutate(key = as_factor(key))                                             return(ret)            }        safe_lstm <- possibly(lstm_prediction, otherwise = NA)                                 safe_lstm(data, epochs, ...) }

下一步,在 sun_spots 数据集上运行 predict_keras_lstm_future() 函数。

future_sun_spots_tbl <- predict_keras_lstm_future(sun_spots, epochs = 300)

最后,我们使用 plot_prediction() 可视化预测结果,需要设置 id = NULL。我们使用 filter_time() 函数将数据集缩放到 1900 年之后。

future_sun_spots_tbl %>%

   filter_time('1900' ~ 'end') %>%

   plot_prediction(

       id = NULL, alpha = 0.4, size = 1.5)    

    theme(legend.position = 'bottom')    

    ggtitle(

       'Sunspots: Ten Year Forecast',

       subtitle = 'Forecast Horizon: 2013 - 2023')

结论

本文演示了使用 keras 包构建的状态 LSTM 模型的强大功能。令人惊讶的是,提供的唯一特征是滞后 120 阶的历史数据,深度学习方法依然识别出了数据中的趋势。回测模型的 RMSE 均值等于 34,RMSE 标准差等于 13。虽然本文未显示,但我们对比测试1了 ARIMA 模型和 prophet 模型(Facebook 开发的时间序列预测模型),LSTM 模型的表现优越:平均误差减少了 30% 以上,标准差减少了 40%。这显示了机器学习工具-应用适合性的好处。

除了使用的深度学习方法之外,文章还揭示了使用 ACF 图确定 LSTM 模型对于给定时间序列是否适用的方法。我们还揭示了时间序列模型的准确性应如何通过回测来进行基准测试,这种策略保持了时间序列的连续性,可用于时间序列数据的交叉验证。





大家都在看

2017年R语言发展报告(国内)

R语言中文社区历史文章整理(作者篇)

R语言中文社区历史文章整理(类型篇)



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多