More Related Content More from Philip Zheng (20) 人工智能在量化投资分析中的实践4. 人工智能
1958:
Birth of
Perceptron and
neural networks
1974:
Backpropagation
Late 1980s:
convolution neural
networks and recurrent
neural networks
trained using
backpropagation
2006:
Unsupervised
pretraining for
deep neutral
networks
2012: Distributed
deep learning (e.g.,
Google Brain)
2013: DQN for
deep reinforcement
learning
1997: LSTM-RNN
2015: Open source
tools: MxNEt,
TensorFlow, CNTK
t
人工智能(Artificial Intelligence)
是研究、开发用于模拟、延伸和
扩展人的智能的理论、方法、技
术及应用系统的一门新的技术科
学。AI企图了解智能的实质,并
生产出一种新的能以人类智能相
似的方式做出反应的智能机器。
12. SVM+Adaboost预测证券市场走势
特征 公式
动量 (C(i)/C(i-n))*100
W&R (HH(n)-C(t))/(HH(n)-LL(n))*100
RSI RS/(1+RS)*100
5日均线距离 (C(t)/MA (5))*100
10日均线距离 (C(t)/MA (10))
模型 SVM(Grid Search Best) AdaBoost+SVM
Accuracy 63.3% 61.2%
针对HS300指数 2005.1.4~2016.9.8 共2841个日数据,取后200个数据作为测试集,
之前数据作为训练集和验证集,采用如下特征和标记未来一日的涨跌做分类预测。
13. 遗传算法在量化交易模型中的应用
输出高层次的机器学习
1. 基础交易信号
2. 复杂交易信号
3. 资金和仓位管理
4. 自适应风险调控
5. 目标和止损
输入-遗传指令 输出函数集
遗传编程运算符
参数 内容
Terminals Set 随机数,输入变量(价格序列Pi(分钟、日、周和月线的开盘、最高、最低、收盘、K线数),成交量序列Vi)
数学逻辑函数集 +、-、×、÷、SIN、COS、ASIN、ACOS、 POWER、SQRT、LOG、AND、OR、LT、LE、GT、GE、
MIN、MAX、UP、DOWN
常用技术指标集,
以技术指标数值应用
MA、MACD(DIF、DEA)、DMI(PDI、MDI、ADX、ADXR)、RSI(1、2、3)、BIAS(1、2、3)、
KDJ(K、D、J)、BOLL(BOLL、UB、LB)、WAD(WAD、MAWAD)、WR(WR1、WR2)、SAR、
PSY(PSY、PSYMA)、OBV(OBV、MAOBV)、PVI(PVI、MAPVI)、ATR(ATR、MATR)、ASI
(ASI、MAASI)、MINP、MAXP、MINV、MAXV等
Or
And
LT
MACD(6,26,12) 0
LT
RSI1(12) 50
GT
P4 BOLL(20
)
TREE-GA
14. 目标函数
净利 Net Profit
回撤 Drawdown
胜率 Percent Accuracy
盈亏比 Profit Factor
夏普率 Sharp Ratio
寻优
策略
交易可行 Trade Feasibility
16. 各种适应度5次平均数据对比
胜率 盈亏比 累计收益 夏普比率 累计收益+最大回撤
BETA 0.9545 0.3445 0.556 0.165 0.234
ALPHA 0.114 0.5435 1.325 0.9915 1.017
SHARP 0.017 0.0325 0.0505 0.066 0.058
最大回撤 0.4535 0.339 0.258 0.1315 0.155
模型收益 0.224 0.5835 1.389 1.0105 1.044
基准收益 0.115 0.115 0.115 0.115 0.115
操作次数 52.5 56 111.5 64.5 59.5
盈利次数 47 11.5 49.5 40 32
胜率 0.9005 0.225 0.3945 0.6105 0.5245
单次盈利 0.037 0.133 0.085 0.0305 0.0495
单次亏损 0.141 0.02 0.019 0.0175 0.0155
盈亏比 0.263 6.696 4.138 2.315 3.4955
累积收益 1.7105 1.44 2.329 1.2115 1.367
累计亏损 0.725 0.765 1.1035 0.378 0.4675
最大连赢次数 26 2 4.5 6.5 5.5
最大连亏次数 1.5 13.5 7.5 4 4
19. 递归神经网络RNN
• Model a dynamic system driven by an external signal x
– 𝐴" = 𝑓(𝑈𝑥" + 𝑊𝐴"*+)
– Hidden node 𝐴"*+ contains information about the whole past sequence
– function 𝑓(·) maps the whole past sequence (𝑥𝑡,… , 𝑥1) to current state 𝐴"
21. 人工智能
特征 说明
当日收益率 T日收盘价/T-1日收盘价 - 1
形态特征一 T日最高价/T日开盘价 - 1
形态特征二 T日最低价/T日开盘价 - 1
形态特征三 T日收盘价/T日开盘价 - 1
形态特征四 T日平均价/T日开盘价 - 1
针对HS300指数 2005.1.4~2016.9.8 共2841个日数据,取后200个数据作为测试集,
之前数据作为训练集,判断市场一日涨跌,使用LSTM模型进行机器学习。
28. 防止过拟合的方法
• Early stopping
– 在训练的过程中,记录到目前为止最好的validation accuracy,当连续10次Epoch(或者更多次)没
达到最佳accuracy时,则可以认为accuracy不再提高了。此时便可以停止迭代了(Early Stopping)。
• 数据集扩增
• 正则化方法
– L1 L2
• Dropout/DropConnect
Original network DropOut network DropConnect network
29. 深度学习训练中的技巧
• 数据预处理
– 零均值化(zero-center)和归一化(normalize)
– Shuffling training examples
• 学习速率调整
– decreasing, AdaGrad/AdaDelta
• 避免过拟合
– Early stopping, weight decay or L1/L2 正则,Drop out/Drop connect
• 权重初始化
– 小的权重进行初始化,方差归一化
• 梯度下降优化
– Momentum SGD, Nesterov Acceleration,
– Average SGD, Variance Reduction (SVRG)
31. 主流深度学习的开源框架
• Torch (NYU,2002), Facebook AI, Google Deepmind
• Theano (University of Montreal, ~2010)
• Caffe (Berkeley),卷积神经网络
• TensorFlow (Google)
• CNTK (MicroSoft))
Theano only supports 1 GPU
Achieved with 1-bit gradient
0
20000
40000
60000
80000
CNTK Theano TensorFlow Torch 7 Caffe
speed comparison (samples/second), higher = better
[note: December 2015]
1 GPU 1 x 4 GPUs 2 x 4 GPUs (8 GPUs)