一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

Python生成對抗神經(jīng)網(wǎng)絡(luò)GAN預(yù)測股票及LSTMs、ARIMA對比分析ETF金融時間序列可視化

 拓端數(shù)據(jù) 2024-12-10 發(fā)布于浙江

全文鏈接:https:///?p=38528

本文聚焦于利用生成對抗網(wǎng)絡(luò)(GANs)進(jìn)行金融時間序列的概率預(yù)測。介紹了一種新穎的基于經(jīng)濟(jì)學(xué)驅(qū)動的生成器損失函數(shù),使 GANs 更適用于分類任務(wù)并置于監(jiān)督學(xué)習(xí)環(huán)境中,能給出價格回報的全條件概率分布,突破傳統(tǒng)點(diǎn)估計方式,實(shí)現(xiàn)不確定性估計。通過股票數(shù)據(jù)的數(shù)值實(shí)驗(yàn)驗(yàn)證了所提方法的有效性,相比經(jīng)典監(jiān)督學(xué)習(xí)模型如 LSTMs 和 ARIMA 獲得了更高的夏普比率點(diǎn)擊文末“閱讀原文”獲取完整代碼數(shù)據(jù)

引言

時間序列預(yù)測多年來一直是工業(yè)界和學(xué)術(shù)界關(guān)注的核心話題?,F(xiàn)實(shí)世界中多數(shù)過程天然具備時間序列結(jié)構(gòu),在金融和經(jīng)濟(jì)領(lǐng)域,像金融工具價格、通貨膨脹率以及諸多關(guān)鍵宏觀經(jīng)濟(jì)指標(biāo)都是如此。交易策略往往基于對某一金融工具價格走勢(上升或下降以及變動幅度)的合理判斷,所以時間序列的預(yù)測與分類在金融環(huán)境中極為重要。傳統(tǒng)上,這項(xiàng)任務(wù)主要依靠僅基于點(diǎn)估計的方法來完成。而本文旨在突破這類傳統(tǒng)方法,借助生成對抗網(wǎng)絡(luò)(GANs)為目標(biāo)變量的未來分布提供概率預(yù)測。

生成對抗網(wǎng)絡(luò)

(一)經(jīng)典 GAN

生成對抗網(wǎng)絡(luò)(GANs)由 Goodfellow 等人在 2014 年提出,當(dāng)前在諸多任務(wù)中處于領(lǐng)先地位,尤其在圖像和視頻生成方面表現(xiàn)突出,在科學(xué)、視頻游戲、照片、視頻質(zhì)量提升等眾多領(lǐng)域也有著廣泛應(yīng)用。它屬于生成模型家族,其任務(wù)是從未知的數(shù)據(jù)分布中生成新樣本。
從博弈論角度來看,可假設(shè)有兩個參與者,即生成器 G 和判別器 D,它們相互博弈。G 負(fù)責(zé)生成它認(rèn)為看起來真實(shí)的樣本,而 D 則判斷給到它的樣本是來自真實(shí)數(shù)據(jù)還是來自生成器。G 的目標(biāo)是讓 D 相信其輸出是來自真實(shí)數(shù)據(jù),并盡可能生成看起來真實(shí)的樣本;反過來,D 要學(xué)習(xí)如何正確區(qū)分?jǐn)?shù)據(jù)樣本和來自生成器的樣本。G 會利用從 D 得到的反饋來改進(jìn)生成的樣本。在 GANs 中,生成器 G 和判別器 D 相對于它們的參數(shù)都是可微函數(shù),并且通常用神經(jīng)網(wǎng)絡(luò)來表示。G 以通常為高斯分布的噪聲作為輸入,輸出一個生成的樣本。D 以 G 生成的樣本或者來自真實(shí)數(shù)據(jù)的樣本作為輸入,輸出其輸入為真實(shí)樣本的概率。GANs 通過對抗過程進(jìn)行訓(xùn)練,也就是同時訓(xùn)練兩個不同的模型(生成器和判別器),若是采用神經(jīng)網(wǎng)絡(luò),可通過反向傳播高效實(shí)現(xiàn)訓(xùn)練。

 torch
 torch.nn  nn

 (nn.Module):
  \_\_init\_\_(self):
 (Generator, self).\_\_init\_\_()
 
  (self, noise):
 
 generated_sample =  
  generated_sample

 (nn.Module):
  \_\_init\_\_(self):
 (Discriminator, self).\_\_init\_\_()
 
  (self, input_sample):
 
 probability =  
  probability

(二)條件 GAN

條件生成對抗網(wǎng)絡(luò)是標(biāo)準(zhǔn) GAN 的自然延伸,最早在最初的 GAN 論文中被提及,并由 Mirza 和 Osindero 在 2014 年首次進(jìn)行探索。它假設(shè)數(shù)據(jù) x 來自一個條件分布 pdata(x|condition)(給定某個確定性條件),與標(biāo)準(zhǔn) GAN 不同的是,生成器和判別器除了標(biāo)準(zhǔn)輸入外,還會被給予進(jìn)一步的確定性信息(條件)。當(dāng)這個條件是標(biāo)簽時,通常將其編碼為獨(dú)熱向量,判別器也會被給予相同條件。
比如我們想要生成貓和狗的照片,我們有貓和狗的標(biāo)簽(以獨(dú)熱向量形式給出),生成器會將噪聲和一個標(biāo)簽(比如貓的標(biāo)簽)作為輸入,輸出它認(rèn)為是貓的照片。判別器會將來自原始數(shù)據(jù)的貓照片以及生成器網(wǎng)絡(luò)生成的貓照片,連同表明是貓照片的標(biāo)簽一起作為輸入,然后對來自真實(shí)數(shù)據(jù)的貓照片和來自生成器的貓照片給出反饋并學(xué)習(xí)。

(三)ForGAN

ForGAN 是一種條件 GAN,其架構(gòu)非常適合用于時間序列的概率預(yù)測,由 Koochali 等人在 2019 年提出。其思路是利用條件 GAN,根據(jù)時間序列之前的 L 個值(記為 x-Lt+1,也就是 xt, x t?1,..., x t?(L?1))對 xt+1 進(jìn)行概率預(yù)測。與標(biāo)準(zhǔn)點(diǎn)估計相比,它能利用更多信息,并且便于獲得不確定性估計。
為利用時間序列結(jié)構(gòu),生成器和判別器首先會將它們的輸入通過一個循環(huán)神經(jīng)網(wǎng)絡(luò)層。ForGAN 架構(gòu)根據(jù)數(shù)據(jù)情況包含門控循環(huán)單元(GRU)或者長短期記憶(LSTM)單元,本文因 LSTM 單元在金融領(lǐng)域應(yīng)用廣泛而選用它。

Fin-GAN損失函數(shù)

我們工作的主要貢獻(xiàn)在于為生成器引入了一種新穎的經(jīng)濟(jì)驅(qū)動損失函數(shù),這將生成對抗網(wǎng)絡(luò)(GANs)置于有監(jiān)督學(xué)習(xí)環(huán)境中。這種方法使我們能夠超越傳統(tǒng)的逐點(diǎn)預(yù)測方法,轉(zhuǎn)向概率預(yù)測,從而提供不確定性估計。此外,我們基于預(yù)測的方向來評估性能,這意味著我們對分類感興趣,而我們的損失函數(shù)更適合于此。

動機(jī)

GANs的主要目標(biāo)是創(chuàng)建模仿真實(shí)數(shù)據(jù)的合成樣本。然而,一個重要的問題是,我們希望通過模擬重現(xiàn)真實(shí)數(shù)據(jù)的哪些屬性。在我們的案例中,是預(yù)測的方向。我們更感興趣的是正確地對收益/超額收益進(jìn)行分類,特別是當(dāng)價格變動幅度較大時,而不是生成接近實(shí)際值的預(yù)測。其動機(jī)在于,可能會產(chǎn)生一個接近時間序列實(shí)際值但符號(方向)相反的預(yù)測。在金融時間序列預(yù)測中,在最重要的時候正確估計符號通常比預(yù)測接近實(shí)際值更為重要。我們旨在為生成器提供更多信息,使其更好地復(fù)制數(shù)據(jù)的符號,這是任務(wù)的關(guān)鍵組成部分。使用新穎損失函數(shù)項(xiàng)的主要原因和好處可總結(jié)如下:

  • 將生成的條件分布向正確方向移動;

  • 使GANs更適合分類任務(wù);

  • 提供有效的正則化;

  • 幫助生成器學(xué)習(xí)更多,特別是在梯度較弱的情況下;

  • 有助于避免模式崩潰;通過使生成器損失表面更加復(fù)雜,生成器可能會收斂到尖銳的局部最小值。
    我們已經(jīng)看到了不同損失函數(shù)的幾個示例以及它們帶來的好處。最值得注意的是,W-GAN-GP(Gulrajani等人,2017)在判別器損失中添加了一個額外項(xiàng),以強(qiáng)制執(zhí)行Lipschitz約束。向生成器添加損失項(xiàng)不太常見,但在Bhatia等人(2021)最近的工作中用于生成極端樣本,在VolGAN(Vuleti′c和Cont,2023)中用于模擬無套利隱含波動率表面。其他定制損失函數(shù)在金融領(lǐng)域也被證明是有用的,例如Tail-GAN(Cont等人,2022),其側(cè)重于投資組合尾部風(fēng)險的估計。

新穎損失函數(shù)

假設(shè)我們的GAN旨在預(yù)測(x\_i),其中(i = 1,\cdots,n\_{batch})。對于每個(x\_i),給定噪聲樣本(z)和由時間序列(x)的前(L)個值組成的條件(x\_{-Li}),生成器的輸出為

設(shè)(x=(x\_1,\cdots,x\_{n_{batch}}))和(\hat{x}=(\hat{x}_1,\cdots,\hat{x}_{n_{batch}}))是(x)的預(yù)測。我們定義三個損失函數(shù)項(xiàng),即基于PnL、均方誤差(MSE)和夏普比率(Sharpe Ratio)的項(xiàng),我們用它們來訓(xùn)練生成器。

(一)PnL項(xiàng)

在生成器訓(xùn)練目標(biāo)(最大化)中包含的損失函數(shù)項(xiàng)的第一個也是最明顯的選擇是PnL。然而,符號函數(shù)不可微,使得無法執(zhí)行反向傳播。為了緩解這個問題,我們提出了對(PnL)的平滑近似,我們將其表示為(PnL^*),定義為

其中(PnL_a^*)是對特定預(yù)測的(PnL)的平滑近似

并且(\tanh(x))定義為

超參數(shù)(k_{tanh})控制我們近似的準(zhǔn)確性。由于超額收益的值通常較小,期望(k_{tanh})足夠大以獲得良好的近似,但同時又足夠小以使生成器能夠從中學(xué)習(xí)到強(qiáng)梯度。請注意,在PnL項(xiàng)的表達(dá)式中,我們考慮的是每筆交易的PnL。這不是在每天平均的PnL,因?yàn)橛?xùn)練數(shù)據(jù)集在每個訓(xùn)練周期開始時都會被打亂。我們使用(k_{tanh}=100)。

Fin-GAN損失函數(shù)的好處和挑戰(zhàn)

新穎的損失函數(shù)項(xiàng)確實(shí)會移動生成的分布,有助于避免模式崩潰,并提高夏普比率性能,我們在大量數(shù)值實(shí)驗(yàn)中證明了這一點(diǎn)。包含新的損失函數(shù)項(xiàng)引入了四個需要調(diào)整的新超參數(shù),使得優(yōu)化成為一個更具挑戰(zhàn)性的問題。然而,梯度范數(shù)匹配方法緩解了這個問題。

此外,損失表面變得更加復(fù)雜,增加了收斂挑戰(zhàn)。在初始數(shù)值實(shí)驗(yàn)中,當(dāng)探索更廣泛的超參數(shù)(\alpha,\beta,\gamma)范圍時,MSE和夏普比率項(xiàng)似乎鼓勵生成器產(chǎn)生非常狹窄的分布。為什么具有高(\gamma)系數(shù)的夏普比率項(xiàng)會導(dǎo)致模式崩潰并不明顯,因?yàn)樗膭頟nL具有低標(biāo)準(zhǔn)差,而不是生成的樣本。然而,包含基于PnL的項(xiàng)有助于緩解模式崩潰問題,這與收斂到尖銳局部最小值有關(guān)(Durall等人,2021)。PnL項(xiàng)幫助生成器逃離損失表面的此類區(qū)域。當(dāng)使用梯度范數(shù)匹配來調(diào)整超參數(shù)(\alpha,\beta,\gamma,\delta)時,無論網(wǎng)絡(luò)權(quán)重的初始化如何,F(xiàn)in-GAN都沒有模式崩潰。然而,我們注意到使用Xavier初始化(Glorot和Bengio,2010)而不是He初始化(He等人,2015)有助于減少ForGAN出現(xiàn)模式崩潰的迭代次數(shù)。使用He初始化時,這種情況在67%的案例中發(fā)生。使用普通Xavier初始化解決了這個問題。

Fin-GAN算法

輸入:生成器的隱藏維度、判別器的隱藏維度、噪聲維度。目標(biāo)大小、條件窗口、滑動窗口。判別器學(xué)習(xí)率、生成器學(xué)習(xí)率。訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)、測試數(shù)據(jù)。梯度匹配的訓(xùn)練周期數(shù)(n_{grad})、訓(xùn)練周期數(shù)(n_{epochs})、小批量大小(n_{batch})、模式崩潰閾值(\alpha)。加權(quán)策略的樣本數(shù)量(B)。
步驟0:從訓(xùn)練數(shù)據(jù)集中取出前(n_{batch})個項(xiàng)目作為數(shù)據(jù)歸一化的參考批次。初始化生成器(gen)和判別器(disc)網(wǎng)絡(luò)。
步驟1:匹配梯度范數(shù)以找到(\alpha,\beta,\gamma,\delta)。

 n_grad 個訓(xùn)練周期 
 將訓(xùn)練數(shù)據(jù)分割成小批量。
  小批量數(shù)量 
 計算關(guān)于
 將它們標(biāo)記為grad0、gradα、gradβ、gradγ、gradδ。
 通過RMSProp和BCE損失更新disc,然后更新gen參數(shù)。
 end 
end 
  mean(grad0/gradα);   mean(grad0/gradβ);
  mean(grad0/gradγ);   mean(grad0/gradδ)

步驟2:訓(xùn)練和驗(yàn)證。
將可能的損失函數(shù)組合((PnL)、(PnL_&STD)、(PnL&MSE)、(PnL_&SR)、(PnL_&MSE&STD)、(PnL&MSE&SR_)、(SR)、(SR&MSE))分別標(biāo)記為(L_i),對于(i = 1,\cdots,8)。

 i = , 
 geni  gen; disci  disc.
  nepochs 
 將訓(xùn)練數(shù)據(jù)分割成小批量。
  小批量數(shù)量 
 通過RMSProp和J(D)更新disc。
 通過RMSProp和Li更新gen。
 end 
 end 
 從驗(yàn)證集中的每一天從geni中取出B個樣本。
 SR_ival  驗(yàn)證集上加權(quán)策略的夏普比率。
end 
i^*  argmax : i = , gen^*  geni^*

步驟3:在測試集上評估。
對于測試集中的每個時間(t),從(geni^*)中取出(B)個獨(dú)立同分布的輸出(\hat{r}_{it}),(i = 1,\cdots,B)。
每個時間的點(diǎn)估計(\tilde{r}_t \leftarrow mean(\hat{r}_{it}))。
(MAE \leftarrow MAE(r\_t,\tilde{r}\_t); RMSE \leftarrow RMSE(r\_t,\tilde{r}\_t));
實(shí)施加權(quán)策略,將天數(shù)配對成兩組。
計算年化夏普比率(SR\_w)和平均每日PnL (PnL\_w)。

if std({hat{r}_{i0}}_{i = 1,cdots,B}) < alpha 或 std({tilde{r}\_t}\_{tin測試集}) < alpha then
 模式崩潰。
else
 無模式崩潰。
end if

上述論文對Fin - GAN損失函數(shù)進(jìn)行了較為全面的闡述,包括其動機(jī)、新穎損失函數(shù)的構(gòu)建、帶來的好處與挑戰(zhàn)以及相關(guān)算法流程等內(nèi)容。在實(shí)際應(yīng)用中,可根據(jù)具體的金融數(shù)據(jù)和需求進(jìn)一步調(diào)整和優(yōu)化相關(guān)參數(shù)與模型結(jié)構(gòu),以達(dá)到更好的預(yù)測和分類效果。

數(shù)據(jù)描述與實(shí)現(xiàn)考量

在本節(jié)中,我們將對所使用數(shù)據(jù)集的主要特征進(jìn)行闡述,介紹ForGAN架構(gòu),討論訓(xùn)練設(shè)置情況,并展示Fin - GAN模型在數(shù)值實(shí)驗(yàn)中的一般行為表現(xiàn)。

數(shù)據(jù)描述

我們選取的是CRSP中提取的每日股票ETF超額收益以及每日原始ETF收益數(shù)據(jù),時間跨度為2000年1月至2021年12月。所有時間序列按照80 - 10 - 10的比例劃分訓(xùn)練 - 驗(yàn)證 - 測試階段,具體而言,訓(xùn)練期是2000年1月3日至2017年8月9日,驗(yàn)證期為2017年8月10日至2019年10月22日,測試期則是2019年10月23日至2021年12月31日。值得注意的是,測試數(shù)據(jù)涵蓋了新冠疫情起始階段,這無疑增加了問題的挑戰(zhàn)性。
在收益考量方面,我們依次關(guān)注開盤 - 收盤和收盤 - 開盤收益,將它們分別視作一個時間單位,也就是說輸入的時間序列交替呈現(xiàn)日內(nèi)收盤 - 開盤以及隔夜開盤 - 收盤收益情況。其中,滑動窗口設(shè)定為一個時間單位,條件窗口設(shè)為十個時間單位(對應(yīng)五個交易日收益,即一個完整交易周),預(yù)測窗口是提前一個時間單位。
以下是用于數(shù)值實(shí)驗(yàn)的股票代碼及對應(yīng)的ETF等相關(guān)信息展示:

data\ = pd.read\()
data\\[\] = pd.\(data\\[\])
data\\[\] = data\\[\] / data_ETFs\[\]
data\\[\] = data\\[\] / data_ETFs\[\]
ETF\ = data\\[\].unique()\[:\]

ETF\ = \[None\] * len(ETF\)

 i  tqdm(range(len(ETF_list))):
    ETF = ETF_list\[i\]
    ETF\\[i\] = data\\[data\.TICKER == ETF\].copy().reset\()
    ETF\\[i\].\(+ETF+)
    plt.figure(ETF + )
    plt.plot(ETF\\[i\]\[\],ETF_dfs\[i\]\[\],label=)
    plt.plot(ETF\\[i\]\[\],ETF_dfs\[i\]\[\],label=)

ForGAN架構(gòu)

針對單只股票/ETF數(shù)值實(shí)驗(yàn),利用LSTM單元構(gòu)建的經(jīng)典ForGAN架構(gòu)。鑒于所使用數(shù)據(jù)集規(guī)模較小,相應(yīng)各層維度以及噪聲維度統(tǒng)一設(shè)置為8。生成器激活函數(shù)選用ReLU,而判別器激活函數(shù)采用sigmoid函數(shù)。

基線算法

除了標(biāo)準(zhǔn)的ForGAN(通過BCE損失訓(xùn)練、具備ForGAN架構(gòu)的GAN)之外,我們還將Fin - GAN模型與更為常見的時間序列預(yù)測監(jiān)督學(xué)習(xí)方法,像ARIMA和LSTM進(jìn)行對比分析。

    sgn_fake = torch.(predicted)
    PnL = torch.(sgn_fake*)
    PnL = *PnL/nsamp
     PnL



上述兩圖用于展示Fin - GAN損失函數(shù)項(xiàng)對生成分布產(chǎn)生影響的情況,圖中所有分布都是基于相同的條件窗口生成,黑色垂直線代表真實(shí)值,也就是目標(biāo)值。


點(diǎn)擊標(biāo)題查閱往期內(nèi)容

MATLAB貝葉斯優(yōu)化混合Bayes-CNN-RNN分析股票市場數(shù)據(jù)與淺層網(wǎng)絡(luò)超參數(shù)優(yōu)化

左右滑動查看更多

01

02

03

04

此圖所使用的數(shù)據(jù)是PFE的ETF超額收益,通過不同損失函數(shù)組合訓(xùn)練后,展示在測試集上生成的樣本外(一步超前)均值情況。比如在該特定實(shí)例中,在驗(yàn)證集上夏普比率性能表現(xiàn)最佳的損失函數(shù)是PnL - MSE - SR。

另外,我們訓(xùn)練了LSTM - Fin,即在(基線)MSE損失、(PnL)、(SR)和STD損失項(xiàng)的合適組合上對LSTM開展訓(xùn)練,目的是更好地與Fin - GAN進(jìn)行對比。訓(xùn)練過程中運(yùn)用和Fin - GAN設(shè)置相同的方法,通過執(zhí)行梯度范數(shù)匹配來確定與新加入的損失項(xiàng)對應(yīng)的超參數(shù)值。

數(shù)值實(shí)驗(yàn)

首先,在單只股票設(shè)置情境下,我們針對特定股票/ETF的ETF超額收益/原始收益對Fin - GAN和各基線模型展開訓(xùn)練。隨后,依照Sirignano和Cont(2019)所提出的思路,在三組不同股票數(shù)據(jù)上探究普遍性概念。我們把單只股票設(shè)置中不同股票代碼對應(yīng)的數(shù)據(jù)進(jìn)行整合,模擬數(shù)據(jù)來自同一數(shù)據(jù)源對Fin - GAN進(jìn)行訓(xùn)練。
不同模型在股票和ETF上的各項(xiàng)性能指標(biāo)總結(jié)如下表所示:

注:SR指年化夏普比率,PnL指平均每日PnL,MAE和RMSE分別表示平均絕對誤差和均方根誤差,表格中突出顯示的是各指標(biāo)下表現(xiàn)最優(yōu)的結(jié)果。

圖呈現(xiàn)的是Fin - GAN不同損失函數(shù)組合在不同股票代碼上達(dá)成的累積PnL情況,其中投資組合PnL是圖中黑色顯示的平均PnL乘以工具數(shù)量。

圖展示的是不同模型的投資組合累積PnL,圖中虛線對應(yīng)的是由合適的Fin - GAN損失函數(shù)組合(僅包含MSE)生成的PnL路徑。

通過上述實(shí)驗(yàn)可知,平均來看,F(xiàn)in - GAN方法在性能上優(yōu)于ForGAN、LSTM、ARIMA以及長期持有這些基線模型。進(jìn)一步分析單個股票代碼層面的夏普比率情況,從各模型和股票代碼對應(yīng)的年化夏普比率性能圖能發(fā)現(xiàn),F(xiàn)in - GAN模型比其他基線模型表現(xiàn)更佳,能夠獲取極具競爭力的夏普比率,尤其考慮到處理的是單只股票投資組合這一情況。Fin - GAN所實(shí)現(xiàn)的夏普比率相較于LSTM更加穩(wěn)定,唯一夏普比率低于 - 1的股票代碼是XLY,這是由于該板塊ETF在新冠疫情初期出現(xiàn)暴跌,而在驗(yàn)證階段又持續(xù)增長所致。在LSTM實(shí)現(xiàn)夏普比率高于1或2的數(shù)據(jù)集上,F(xiàn)in - GAN同樣能達(dá)到相近甚至更高的夏普比率,比如在CL的情況中??傊?,對比其他方法,F(xiàn)in - GAN在夏普比率性能方面優(yōu)勢明顯。

從整體性能角度而言,F(xiàn)in - GAN和LSTM的表現(xiàn)優(yōu)于其他被研究的方法。各投資組合累積PnL情況如圖所示,深度學(xué)習(xí)模型從新冠疫情沖擊中恢復(fù)的速度明顯快于ARIMA和長期持有模型,并且生成的PnL波動大多源于疫情影響。圖中展示的不同F(xiàn)in - GAN損失組合對應(yīng)的累積PnL情況表明,使用驗(yàn)證環(huán)節(jié)來確定損失組合(而非一開始就對各數(shù)據(jù)集使用固定的損失組合)有助于提升整體性能。雖然LSTM的投資組合PnL相對較高,但其波動更大,特別是在2020年3月至6月期間,這也使得其夏普比率低于Fin - GAN。

針對圖展示的平均每日PnL性能,ARIMA和長期持有方法生成的平均每日PnL規(guī)模相近,LSTM平均獲得的PnL最高,不過LSTM的PnL在不同股票代碼間波動明顯較大。GAN方法實(shí)現(xiàn)的平均每日PnL標(biāo)準(zhǔn)差(Fin - GAN為4.85,F(xiàn)orGAN為4.00)明顯低于LSTM(7.48)、LSTM - Fin(7.53)、ARIMA(6.26)和長期持有(5.97),這體現(xiàn)出利用不確定性估計來構(gòu)建動態(tài)規(guī)模加權(quán)策略的優(yōu)勢。

接下來,我們對影響Fin - GAN性能的所選損失函數(shù)組合細(xì)分情況展開探討。

圖展示的是Fin - GAN在測試集上通過不同損失組合得到的SR(年化夏普比率),各股票代碼括號內(nèi)所報告的是在驗(yàn)證集上實(shí)現(xiàn)最高夏普比率的所選損失組合。

圖呈現(xiàn)的是Fin - GAN損失項(xiàng)組合在不同股票代碼上的平均樣本外(測試)PnL相關(guān)性情況。

圖是通用模型中單個股票的夏普比率性能總結(jié),每列代表損失函數(shù)項(xiàng)的不同組合,“單只股票”列展示的是針對特定股票/ETF訓(xùn)練時Fin - GAN的最優(yōu)性能表現(xiàn),其中CCL、EBAY、TROW和CERN在訓(xùn)練階段未被模型涉及。


圖是對XLP板塊股票成分的SR性能總結(jié),每列表示損失函數(shù)項(xiàng)的不同組合,SYY和TSN在訓(xùn)練階段未被模型納入。

圖呈現(xiàn)的是在訓(xùn)練數(shù)據(jù)包含XLP數(shù)據(jù)時,屬于XLP板塊股票的SR性能總結(jié),同樣每列代表損失函數(shù)項(xiàng)的不同組合,SYY和TSN在訓(xùn)練階段未被模型關(guān)注到。
綜上所述,在對Fin - GAN模型的多方面研究中,從數(shù)據(jù)的特征分析、架構(gòu)搭建,再到與其他算法對比等環(huán)節(jié),都為深入認(rèn)識其性能提供了詳實(shí)依據(jù)。數(shù)據(jù)的不同階段劃分、不同板塊股票數(shù)據(jù)運(yùn)用,以及與ARIMA、LSTM等算法在各類性能指標(biāo)對比上,都凸顯出Fin - GAN在金融數(shù)據(jù)處理及預(yù)測領(lǐng)域的獨(dú)特價值與優(yōu)勢。特別是其在夏普比率、平均PnL等關(guān)鍵指標(biāo)的表現(xiàn),還有不同損失函數(shù)組合對最終結(jié)果的影響等內(nèi)容,對于后續(xù)進(jìn)一步優(yōu)化和拓展Fin - GAN模型應(yīng)用有著重要的參考意義。

結(jié)論

在金融數(shù)據(jù)背景下,我們已證明生成對抗網(wǎng)絡(luò)(GANs)可成功應(yīng)用于概率時間序列預(yù)測,尤其是在預(yù)測方向(符號)至關(guān)重要的情況下,如在大幅價格波動前的預(yù)測。我們引入了一種新穎的經(jīng)濟(jì)驅(qū)動生成器損失函數(shù),它包含適當(dāng)加權(quán)的利潤與損失(PnL)、PnL 的標(biāo)準(zhǔn)差、均方誤差(MSE)、基于夏普比率的損失函數(shù)項(xiàng),這使得 GANs 更適用于分類任務(wù),并將其置于有監(jiān)督學(xué)習(xí)環(huán)境中。

通過一系列全面的數(shù)值實(shí)驗(yàn),我們將自己的方法與標(biāo)準(zhǔn) GAN 模型、長短期記憶網(wǎng)絡(luò)(LSTM)、自回歸移動平均模型(ARIMA)以及長期持有策略進(jìn)行了比較,并在實(shí)現(xiàn)的夏普比率方面展示了我們模型的優(yōu)越性能。此外,我們在三種設(shè)定下考慮了通用模型:匯集來自不同板塊股票和板塊 ETF 的數(shù)據(jù);考慮一個板塊,將板塊 ETF 納入訓(xùn)練數(shù)據(jù)以及將板塊 ETF 排除在訓(xùn)練階段之外。盡管股票范圍較小,但我們注意到即使在未見過的股票上也可能有良好表現(xiàn)。并且,當(dāng)板塊 ETF 被納入訓(xùn)練數(shù)據(jù)時,單板塊設(shè)定中的性能有所提升。

我們的工作引出了一些有趣的未來研究方向。探索新?lián)p失函數(shù)項(xiàng)的添加如何影響路徑模擬,以及如何利用跨資產(chǎn)交互、從相關(guān)性中學(xué)習(xí)并在更大的股票范圍內(nèi)探索普遍性概念,可能會帶來深刻見解。超越股票數(shù)據(jù)并探索其他資產(chǎn)類別(如期權(quán)),可能在一個聯(lián)合框架中進(jìn)行,是未來工作的另一個有趣途徑。

參考文獻(xiàn) 

  • Arjovsky, M. and Bottou, L., Towards principled methods for training generative adversarial networks. In International Conference on Learning Representations, 2017.

  • Arjovsky, M., Chintala, S. and Bottou, L., Wasserstein generative adversarial networks. In International Conference on Machine Learning, pp. 214–223, 2017 (PMLR).

  • Assefa, S.A., Dervovic, D., Mahfouz, M., Tillman, R.E., Reddy, P. and Veloso, M., Generating synthetic data in finance: Opportunities, challenges and pitfalls. In Proceedings of the First ACM International Conference on AI in Finance, pp. 1–8, 2020.

  • Bhatia, S., Jain, A. and Hooi, B., ExGAN: Adversarial generation of extreme samples. Proc. AAAI Conf. Artif. Intell., May 2021, 35(8), 6750–6758. doi:10.1609/aaai.v35i8.16834.

  • Box, G.E., Jenkins, G.M., Reinsel, G.C. and Ljung, G.M., Time Series Analysis: Forecasting and Control, 2015 (John Wiley & Sons: Hoboken, NJ).

  • Buehler, H., Gonon, L., Teichmann, J. and Wood, B., Deep hedging. Quant. Finance, 2019, 19(8), 1271–1291.

  • Buehler, H., Horvath, B., Lyons, T., Perez Arribas, I. and Wood, B., Generating financial markets with signatures. Available at SSRN 3657366, 2020.

  • Chen, T. and Guestrin, C., Xgboost: A scalable tree boosting system. In KDD, 2016.

  • Cho, K., van Merri?nboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H. and Bengio, Y., Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724–1734, October 2014 (Association for Computational Linguistics: Doha, Qatar).

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    国产内射一级二级三级| 亚洲伦理中文字幕在线观看 | 一二区不卡不卡在线观看| 麻豆印象传媒在线观看| 国产又猛又黄又粗又爽无遮挡 | 亚洲精品中文字幕一二三| 国产一区二区三区不卡| 欧美激情区一区二区三区| 国产一区二区三区免费福利| 狠狠做五月深爱婷婷综合| 精品少妇人妻一区二区三区 | 国产精品九九九一区二区| 欧美乱视频一区二区三区| 日韩国产亚洲欧美激情| 亚洲欧美日韩中文字幕二欧美| 国产一区二区三区精品免费| 国产欧美一区二区三区精品视| 操白丝女孩在线观看免费高清| 免费观看在线午夜视频| 成人免费观看视频免费| 日本高清视频在线播放| 日本免费熟女一区二区三区| 欧美胖熟妇一区二区三区| 亚洲视频一区二区久久久| 精品精品国产自在久久高清| 男人和女人黄 色大片| 日韩女优视频国产一区| 日韩不卡一区二区视频| 色播五月激情五月婷婷| 69精品一区二区蜜桃视频| 九九视频通过这里有精品| 成人日韩在线播放视频| 暴力性生活在线免费视频| 日韩中文字幕狠狠人妻| 香蕉尹人视频在线精品| 粉嫩国产一区二区三区在线| 护士又紧又深又湿又爽的视频| 日本欧美在线一区二区三区| 亚洲高清亚洲欧美一区二区| 日韩成人中文字幕在线一区| 免费一级欧美大片免费看|