当前位置: 首页 > news >正文

2024年ASOC SCI1区TOP:改进灰狼算法IGWO+股票指数收益预测,深度解析+性能实测

目录

    • 1.摘要
    • 2.灰狼算法GWO原理
    • 3.改进策略
    • 4.结果展示
    • 5.参考文献
    • 6.代码获取


1.摘要

股票指数收益预测是商业经理和投资者进行资产配置与投资决策的重要依据,为提高预测精度,本文提出了一种基于改进灰狼算法(IGWO)与树突神经模型(DNM)相结合的模型。DNM具有更透明的结构、较强的非线性处理能力,并具备独特的自动修剪机制,能够有效应对金融市场的复杂性。IGWO为全局和局部搜索算法开发了用于动态平衡的非线性控制参数,引入混沌理论来优化灰狼的权重分配,Alpha狼局部搜索策略。

2.灰狼算法GWO原理

【智能算法】灰狼算法(GWO)原理及实现

3.改进策略

非线性探索因子

探索率的设置对灰狼探索区域的影响较大,并且是平衡前期探索和后期局部搜索的关键。GWO算法基于线性递减,在某些不规则数据结构中未能充分关注当前位置附近的解,采用非线性探索因子:
θ = i t e r a t i o n M a x i t e r \theta=\frac{\mathrm{iteration}}{\mathrm{Max~iter}} θ=Max iteriteration
φ = ( 1.5 − 1 1 + e − 15 ( θ − 0.6 ) ) × 1.2 \varphi=\left(1.5-\frac{1}{1+e^{-15(\theta-0.6)}}\right)\times1.2 φ=(1.51+e15(θ0.6)1)×1.2
a = 2 ( ( cos ⁡ ( tanh ⁡ ( θ ) ) 2 + ( θ sin ⁡ ( π θ ) ) 5 ) ( tanh ⁡ ( 1 ) ) 2 ⋅ π 2 ) 2 ⋅ φ a=2\left(\frac{\left(\cos(\tanh(\theta))^2+(\theta\sin(\pi\theta))^5\right)}{(\tanh(1))^2}\cdot\frac{\pi}{2}\right)^2\cdot\varphi a=2((tanh(1))2(cos(tanh(θ))2+(θsin(πθ))5)2π)2φ

领导权重分布

IGWO采用混沌映射函数利用进化法则的确定性特性、长期行为的不可预测性以及迭代过程中搜索多样性的增加,有助于全局搜索首狼的权重。混沌状态有助于算法快速找到最优解并加速收敛:
ω t = i t e r a t i o n M a x i t e r \omega_t=\frac{iteration}{Max_iter} ωt=Maxiteriteration
ω t + 1 = 0.7 + 0.1 ⋅ sin ⁡ ( a ⋅ π ⋅ ω t ) + 0.1 ⋅ cos ⁡ ( b ⋅ π ⋅ ω t ) \omega_{t+1}=0.7+0.1\cdot\sin(a\cdot\pi\cdot\omega_{t})+0.1\cdot\cos(b\cdot\pi\cdot\omega_{t}) ωt+1=0.7+0.1sin(aπωt)+0.1cos(bπωt)
ω t + 1 ′ = 1 2 ( 1 − ω t + 1 ) \omega_{t+1}{}^{\prime}=\frac{1}{2}\left(1-\omega_{t+1}\right) ωt+1=21(1ωt+1)
X i , j t + 1 = ω t + 1 ⋅ X α , j t + 1 + ω t + 1 ′ ⋅ X β , j t + 1 + ω t + 1 ′ ⋅ X δ , j t + 1 X_{i,j}^{t+1}=\omega_{t+1}\cdot X_{\alpha,j}^{t+1}+\omega_{t+1}{^{\prime}}\cdot X_{\beta,j}^{t+1}+\omega_{t+1}{^{\prime}}\cdot X_{\delta,j}^{t+1} Xi,jt+1=ωt+1Xα,jt+1+ωt+1Xβ,jt+1+ωt+1Xδ,jt+1

α \alpha α狼局部搜索

结合sin和cos函数,IGWO在局部探索过程中进行随机扰动。当狼群离leader越远时,两者产生的值越小,这意味着当个体离leader越远时,个体更容易被激励去探索新的解。
f = exp ⁡ ( − α ⋅ ( t − t 0 ) ) f=\exp(-\alpha\cdot(t-t_0)) f=exp(α(tt0))
d = ∥ X α , j t − X i , j t ∥ d=\|X_{\alpha,j}^t-X_{i,j}^t\| d=Xα,jtXi,jt
λ = f ⋅ exp ⁡ ( − β ⋅ d 2 ) ⋅ ( cos ⁡ ( γ π d ) ⋅ sin ⁡ ( γ π d ) ) \lambda=f\cdot\exp(-\beta\cdot d^2)\cdot(\cos(\gamma\pi d)\cdot\sin(\gamma\pi d)) λ=fexp(βd2)(cos(γπd)sin(γπd))
X i , j t + 1 = X α , j t − λ d X_{i,j}^{t+1}=X_{\alpha,j}^{t}-\lambda d Xi,jt+1=Xα,jtλd

伪代码

4.结果展示

PS:在用CEC2017测试,其实遇到了一些问题,从流程图那里for each leader使用Levy飞行扰动,似乎并不能像原GWO有更好地引导作用。这里我注释掉了这一段,名为IGWO_M进行对比。

X i , j t + 1 = X i , j t + L ⋅ ( X α , j t − X i , j t ) X_{i,j}^{t+1}=X_{i,j}^{t}+L\cdot\left(X_{\alpha,j}^{t}-X_{i,j}^{t}\right) Xi,jt+1=Xi,jt+L(Xα,jtXi,jt)



5.参考文献

[1] Wang R. A modified grey wolf optimization-based dendritic neural model for stock index return prediction[J]. Applied Soft Computing, 2024, 167: 112305.

6.代码获取

http://www.xdnf.cn/news/128683.html

相关文章:

  • 传感器测量(图片流程)
  • ECharts学习之 toolbox 工具栏
  • 大模型数据预处理方法总结
  • 旋转磁体产生的场-对导航姿态的影响
  • 数据库--回表
  • Spring Security基础入门
  • 电子处方模块开发避坑指南:从互联网医院系统源码实践出发
  • vuex持久化vuex-persistedstate,存储的数据刷新页面后导致数据丢失
  • 【解决】Android Gradle Sync 报错 Could not read workspace metadata
  • 【C/C++】深入理解指针(四)
  • MuJoCo 机械臂 PPO 强化学习逆向运动学(IK)
  • 工会考试精选题目及答案分享
  • 2025年3月电子学会青少年机器人技术(六级)等级考试试卷-实际操作
  • 【操作系统间文件共享_Samba】三、Samba 在实际场景中的应用案例与故障排除
  • 虚拟滚动组件优化记录
  • Linux基础使用-笔记
  • MQTT 之 EMQX
  • 运维的概述
  • 大数据去重
  • 【element plus】解决报错error:ResizeObserver loop limit exceeded的问题
  • 长城智驾重复造轮子
  • LLM微调与LoRA技术
  • 深入探索RAG(检索增强生成)模型的优化技巧
  • 数字人接大模型第一步:表情同步
  • 【Java Card】CLEAR_ON_DESELECT和CLEAR_ON_RESET的区别
  • 卷积神经网络(二)
  • 10.接口而非实现编程
  • 2024武汉邀请赛B.Countless Me
  • 常见的限流算法
  • 对patch深入理解下篇:Patch+LSTM实现以及改进策略整理