天天看点

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

改进的神经网络股价预测

前文介绍了BP神经网络在股价预测方面的应用,其具有较强的非线性逼近能力以及自学习自适应等特性,对股价预测的研究影响颇深。然而BP神经网络也存在着缺陷,比如容易陷入局部最优解,收敛速度慢等,因此,国内学者针对这些缺陷,通过算法之间的结合运用,有效的优化了BP神经网络预测股价的精度。以下为一些基于改进算法的股价预测模型。

1

LM遗传神经网络

1.1 LM算法

针对BP神经网络存在的一些缺陷,此方案通过LM算法改进BP神经网络里的梯度下降法并利用遗传算法优化网络的初始权值和阈值,进而提高网络的收敛速度以及搜索全局最优值的能力。

传统BP神经网络采用的是最速下降法进行迭代,即

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

其中,η为迭代步长,-gk表示为负梯度方向。梯度下降法在寻找目标函数极小值时,是沿着反梯度方向进行寻找的。梯度的定义就是指向标量场增长最快的方向,在寻找极小值时,先随便定初始点(x0,y0)然后进行迭代不断寻找直到梯度的模达到预设的要求。但是梯度下降法的缺点之处在于:在远离极小值的地方下降很快,而在靠近极小值的地方下降很慢。

高斯—牛顿法是一种非线性最小二乘最优化方法。其利用了目标函数的泰勒展开式把非线性函数的最小二乘化问题化为每次迭代的线性函数的最小二乘化问题,其公式为:

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

其中Jk为Jacobi矩阵。高斯牛顿法的缺点在于:若初始点距离极小值点过远,迭代步长过大会导致迭代下一代的函数值不一定小于上一代的函数值。

LM算法是一种非线性最小二乘算法,其应用相当广泛,其特点是能使每次迭代的过程不仅仅沿着负梯度的方向,而是让误差能够沿着梯度上升的方向搜索,这就能够使得模型不易陷入局部最优解。同时可以通过梯度下降法以及牛顿高斯法之间的自适应调整来优化网络权值,进而提高网络收敛速度。

而LM算法结合了梯度下降法以及高斯—牛顿法的特点,其公式为:

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

其中Jk为Jacobi矩阵,I是单位矩阵。LM算法在高斯牛顿法中加入了因子μ,当μ大时相当于梯度下降法,μ小时相当于高斯牛顿法。在使用LM算法时,先设置一个比较小的μ值,当发现目标函数反而增大时,将μ增大使用梯度下降法快速寻找,然后再将μ减小使用牛顿法进行寻找。LM的权值修正公式为:

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

其中,Wij(t+1)为t+1次迭代时网络的权值,Wij(t)为第t次迭代时网络权值,J为误差对权值微分的Jacobi矩阵,μ为取值大于零的常量,可以自适应调节,e为误差向量。

1.2遗传算法

遗传算法是一种借鉴生物界自然选择以及遗传机制的随机搜索算法,采用群体搜索策略。其思想来源于生物遗传学中适者生存的自然法则,通过群体中个体之间的信息交换,使得本身具有较强的全局搜索能力。将遗传算法与BP神经网络相结合,寻找BP网络的初始权值和阈值,这样能将搜索范围扩至全局,使算法快速高效。遗传算法一般从3个方面优化神经网络:①利用遗传算法训练神经网络的权值和阈值;②利用遗传算法确定神经网络的拓扑结构;③二者结合进行。遗传算法优化神经网络权值的过程如下:

(1)生成初始化种群:初始化种群大小、遗传代数、交叉概率和变异概率

(2)编码:对随机产生的连接权值和阈值进行编码,文中采用实数编码方法。

(3)适应度函数计算和选择:以每个样本的误差函数值的倒数作为适应度函数值,选择适应度大的个体进入下一代。

(4)交叉:对从步骤(3)中选出的个体用一定的交叉概率执行部分基因交换产生新个体。

(5)变异:随机挑选对交叉后的个体,让其子代基因产生小概率的变化来保持群体多样性。

(6)算法结束:完成了预定的进化代数或者种群中的最优个体在连续的若干代中没有改进,则输出新种群中适应度最大的个体作为最优解,算法终止。否 则返回步骤(3)继续计算。

个体编码采用二进制编码,每个个体均是一个二进制数串,由输入层与隐含层连接权值、隐含层阈值、隐含层与输出层连接权值以及输出层阈值4部分组成,本文个体编码长度为:S=R*S1+S1*S2+S1+S2。其中,R为输入层节点个数,S1为隐含层节点个数,S2为输出层节点个数。

适应度函数可自行定义,比如神经网络输出值与目标值间的误差平方和的倒数:

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...

其中yi为BP神经网络第i个节点的实际输出,oi为第i个节点的期望输出。

2

主成分分析法神经网络

2.1 主成分分析法

主成分分析(principalcomponentanalysis,PCA)是一种统计方法,它对多变量表示数据点集合寻找尽可能少的正交矢量表征数据信息特征,在保证信息数据丢失最少的原则下对高维数据进行降维,从而消除数据的冗余信息。其主要的算法步骤如下:

(1)对n*p的X原始数据矩阵进行标准化处理得到数据矩阵Y,消除量纲、正逆指标的影响。

(2)根据标准化矩阵Y计算其相关系数矩阵R,R=Y'Y。

(3)求出相关系数矩阵的特征根及对应的特征向量。

(4)确定主成分,并计算各主成分得分。

2.2 PCA-BP模型

PCA-BP模型是将主成分分析与BP神经网络模型相结合,组成联合模型。运用PCA对原始输入数据进行降维,减少BP神经网络模型的输入变量个数,能够显著提升模型训练速度,减少属性信息之间的相关性,提升模型预测精度。运用PCA-BP组合模型进行股票价格预测的主要步骤如下:

(1)首先对数据进行标准化。

(2)其次对指标数据进行主成分分析,得到各个主成分的因子得分。

(3)选取适当的主成分,将其得分作为BP神经网络的输入值。

(4)构建三层的BP神经网络,设定相关参数,并对输入数据进行训练。

(5)最后,调整相关参数,反复训练几次,得到理性的结果。

(6)运用训练好的PCA-BP模型进行股票价格预测。

3

总结

以上两种BP神经网络改进方案通过实证检验得到的效果比传统的BP神经网络有明显的提升,方案一有效的克服了传统BP神经网络收敛慢,容易陷入局部最优解等问题,方案二中的主成分分析法可以对BP神经网络模型的输入数据进行降维重构,在保留影响因子最大信息量的前提下,有效地降低输入数据的维数,简化了网络结构,很大程度上加快了模型的训练速度,提高了预测精度。

免责信息:本资讯中的信息均来源于公开可获得资料,作者力求准确可靠,但对这些信息的准确性及完整性不做任何保证,据此投资,责任自负。

主笔︱陈伟

指导︱翠山︱安歌︱周一

灰色神经网络的预测算法_数字金融与算法研究(二十一)—改进的神经网络股价预测...