关于对神经網络仿真的介绍和应用请看如下文章
- BP神经网络仿真中 BP 是指 BackPropagation (反向传播) ,指的是误差的反向传播 其信号是向前传播的 , 从结构上分类 它是前向有导师学习神经网络仿嫃 ,BP神经网络仿真要求激活函数必须是可微分的函数
? 其次是误差的反向传播
? 将误差按照信号的反方向传播,结果嘚误差由权值设置不合理造成这个步骤用来保证输出结果的正确性。
? 图中是一个简单的神经网络仿真可以计算出
? 可以将最终结果与预期结果 z 作对比,得到误差值 δ
为 输入参数其他权值修改同悝。
- 将数据映射到 [0-1] 或 [-1,1] 区间或其他区间
- 输入数据的单位不一样有些数据的范围很大,导致的结果是神经网络仿真收敛慢、训练时间长
- 数据范围大的输入在模式分类中的作用可能会偏大,数据范围小的输入在模式分类中的作用可能会偏小
- 由于神经网络仿真輸出层的激活函数的值域是有限制的因此需要将网络训练的目标数据映射到激活函数的值域。
- 某些激活函数在 (0,1) 外很平缓区分度很小。
- [Y,PS] = mapminmax(X,YMIN,YMAX)X是预处理的数据,Ymin和Ymax是期望的每一行的最小值与最大值Y是规范化得到的数据,这种规范化的映射记录在 PS 中
- Y = mapminmax(‘apply’,X,PS),这种方法一般是用在上一条语句之后用上一条语句得到的 PS ,可以使得这里要处理的数据的规范化规则和上一条是一样的
- 创建前向神经网络仿嫃——newff()
- S :N-1个隐含层的数目(S(i)到S(N-1)),默认为空矩阵[]
- TF:相关层的传递函数,默认隐含层为tansig函数输出层为purelin函数。此外还有 purelin: 线性传遞函数 tansig :正切S型传递函数。logsig :对数S型传递函数
- BTF:BP神经网络仿真学习训练函数,默认值为trainlm函数 此外还有
- IPF,OPFDDF均为默认值即可。
- T:神經网络仿真目标(可选有或无)
- Pi:初始输入延迟条件(默认为0)
- Ai:初始层延迟条件(默认为0)
- 返回值 net :新的训练过的网络
- 返回值 tr :训练记录
- 仿真,模擬预测——sim()
- perf:平均绝对误差(网络性能)
- Pi:初始输入延迟,默认为0
- Ai:初始层延迟默认为0
链接: 密码:ebih
本文主要内容包括: (1) 介绍神经网絡仿真基本原理(2) 是一个C#实现的面向人工、等领域的开源。主页: