BP_sin.cpp
上传用户:fyx129
上传日期:2013-05-22
资源大小:150k
文件大小:7k
源码类别:

控制台编程

开发平台:

Visual C++

  1. #include "iostream.h"
  2. #include "iomanip.h"
  3. #include "stdlib.h"
  4. #include "math.h"
  5. #include "stdio.h"
  6. #include "time.h"
  7. #include "fstream.h"
  8. #define N 4 //学习样本个数
  9. #define IN 2 //输入层神经元数目
  10. #define HN 3 //隐层神经元数目
  11. #define ON 2 //输出层神经元数目
  12. #define Z 200000 //旧权值保存-》每次study的权值都保存下来
  13. double P[IN]; //单个样本输入数据
  14. double T[ON]; //单个样本教师数据
  15. double W[HN][IN]; //输入层至隐层权值
  16. double V[ON][HN]; //隐层至输出层权值
  17. double X[HN]; //隐层的输入
  18. double Y[ON]; //输出层的输入
  19. double H[HN]; //隐层的输出
  20. double O[ON]; //输出层的输出
  21. double YU_HN[HN]; //隐层的阈值
  22. double YU_ON[ON]; //输出层的阈值
  23. double err_m[N]; //第m个样本的总误差
  24. double a; //输出层至隐层的学习效率
  25. double b; //隐层至输入层学习效率
  26. double alpha;  //动量因子,改进型bp算法使用
  27. //定义一个放学习样本的结构
  28. struct {
  29. double input[IN]; //输入在上面定义是一个
  30. double teach[ON]; //输出在上面定义也是一个
  31. }Study_Data[N];//学习样本
  32. //改进型bp算法用来保存每次计算的权值
  33. struct {
  34. double old_W[HN][IN];  //保存HN-IN旧权!
  35. double old_V[ON][HN];  //保存ON-HN旧权!
  36. }Old_WV[Z];
  37.  
  38. saveWV(int m)
  39. {
  40. for(int i=0;i<HN;i++)
  41. {
  42. for(int j=0;j<IN;j++)
  43. {
  44. Old_WV[m].old_W[i][j] = W[i][j];
  45. }
  46. }
  47. for(int ii=0;ii<ON;ii++)
  48. {
  49. for(int jj=0;jj<HN;jj++)
  50. {
  51. Old_WV[m].old_V[ii][jj] = V[ii][jj];
  52. }
  53. }
  54. return 1;
  55. }
  56. //初始化权、阈值子程序/////
  57. initial()
  58. {
  59. //隐层权、阈值初始化//
  60. srand( (unsigned)time( NULL ) );
  61. for(int i=0;i<HN;i++)
  62. {
  63. for(int j=0;j<IN;j++)
  64. W[i][j]= (double)((rand()/32767.0)*2-1); //初始化输入层到隐层的权值,随机模拟0 和 1 -1
  65. }
  66. for(int ii=0;ii<ON;ii++)
  67. {
  68. for(int jj=0;jj<HN;jj++)
  69. V[ii][jj]= (double)((rand()/32767.0)*2-1); //初始化隐层到输出层的权值,随机模拟0 和 1 -1
  70. }
  71. for(int k=0;k<HN;k++)
  72. {
  73. YU_HN[k] = (double)((rand()/32767.0)*2-1);  //隐层阈值初始化 ,-0.01 ~ 0.01 之间
  74. }
  75. for(int kk=0;kk<ON;kk++)
  76. {
  77. YU_ON[kk] = (double)((rand()/32767.0)*2-1); //输出层阈值初始化 ,-0.01 ~ 0.01 之间
  78. }
  79.   return 1;
  80. }//子程序initial()结束
  81. ////第m个学习样本输入子程序///
  82. input_P(int m)
  83. {
  84. for (int i=0;i<IN;i++)
  85.  P[i]=Study_Data[m].input[i];
  86. //获得第m个样本的数据
  87. return 1;
  88. }//子程序input_P(m)结束
  89. ////第m个样本教师信号子程序//
  90. input_T(int m)
  91. {
  92. for (int k=0;k<m;k++)
  93.  T[k]=Study_Data[m].teach[k];
  94. return 1;
  95. }//子程序input_T(m)结束
  96. //隐层各单元输入、输出值子程序///
  97. H_I_O(){
  98. double sigma;
  99. int i,j;
  100. for (j=0;j<HN;j++){
  101. sigma=0.0;
  102. for (i=0;i<IN;i++)
  103. sigma+=W[j][i]*P[i];//求隐层内积
  104. X[j]=sigma - YU_HN[i];//求隐层净输入,为什么减隐层的阀值
  105. H[j]=1.0/(1.0+exp(-X[j]));//求隐层输出 siglon算法
  106. }
  107. return 1;
  108. }//子程序H_I_O()结束
  109. //输出层各单元输入、输出值子程序///
  110. O_I_O()
  111. {
  112. double sigma;
  113. for (int k=0;k<ON;k++){
  114.  sigma=0.0;
  115.  for (int j=0;j<HN;j++){
  116.  sigma+=V[k][j]*H[k];//求输出层内积
  117. }
  118. Y[k]=sigma-YU_ON[k]; //求输出层净输入
  119. O[k]=1.0/(1.0+exp(-Y[k]));//求输出层输出
  120. }
  121. return 1;
  122. }//子程序O_I_O()结束
  123. //输出层至隐层的一般化误差子程序////
  124. double d_err[ON];
  125. Err_O_H(int m)
  126. {
  127. double abs_err[ON];//每个样本的绝对误差都是从0开始的
  128. double sqr_err=0;//每个样本的平方误差计算都是从0开始的
  129. for (int k=0;k<ON;k++){
  130.   abs_err[k]=T[k]-O[k];
  131. //求第m个样本下的第k个神经元的绝对误差
  132. sqr_err+=(abs_err[k])*(abs_err[k]);//求第m个样本下输出层的平方误差
  133. d_err[k]=abs_err[k]*O[k]*(1.0-O[k]);//d_err[k]输出层各神经元的一般化误差
  134. }
  135. err_m[m]=sqr_err/2;//第m个样本下输出层的平方误差/2=第m个样本的均方误差
  136. return 1;
  137. }//子程序Err_O_H(m)结束
  138. //隐层至输入层的一般化误差子程序////
  139. double e_err[HN];
  140. Err_H_I(){
  141. double sigma;
  142. for (int j=0;j<HN;j++) {
  143.   sigma=0.0;
  144.   for (int k=0;k<ON;k++) {
  145.       sigma=d_err[k]*V[k][j];
  146. }
  147. e_err[j]=sigma*H[j]*(1-H[j]);//隐层各神经元的一般化误差
  148. }
  149. return 1;
  150. }//子程序Err_H_I()结束
  151. //输出层至隐层的权值调整、输出层阈值调整计算子程序//////
  152. Delta_O_H(int m,int n)
  153. {
  154. if(n<=1)
  155. {
  156. for (int k=0;k<ON;k++)
  157. {
  158. for (int j=0;j<HN;j++)
  159. {
  160. V[k][j]=V[k][j]+a*d_err[k]*H[j];//输出层至隐层的权值调整
  161. }
  162. YU_ON[k]+=a*d_err[k];//输出层至隐层的阈值调整
  163. }
  164. }
  165. else if(n>1)
  166. {
  167. for (int k=0;k<ON;k++)
  168. {
  169. for (int j=0;j<HN;j++)
  170. {
  171. V[k][j]=V[k][j]+a*d_err[k]*H[j]+alpha*(V[k][j]-Old_WV[(n-1)].old_V[k][j]);//输出层至隐层的权值调整
  172. }
  173. YU_ON[k]+=a*d_err[k];//输出层至隐层的阈值调整
  174. }
  175. }
  176. return 1;
  177. }//子程序Delta_O_H()结束
  178. //隐层至输入层的权值调整、隐层阈值调整计算子程序/////
  179. Delta_H_I(int m,int n)
  180. {
  181. if(n<=1)
  182. {
  183. for (int j=0;j<HN;j++)
  184. {
  185. for (int i=0;i<IN;i++) 
  186. {
  187. W[j][i]=W[j][i]+b*e_err[j]*P[i];//隐层至输入层的权值调整
  188. }
  189. YU_HN[j]+=b*e_err[j];
  190. }
  191. }
  192. else if(n>1)
  193. {
  194. for (int j=0;j<HN;j++)
  195. {
  196. for (int i=0;i<IN;i++) 
  197. {
  198. W[j][i]=W[j][i]+b*e_err[j]*P[i]+alpha*(W[j][i]-Old_WV[(n-1)].old_W[j][i]);//隐层至输入层的权值调整
  199. }
  200. YU_HN[j]+=b*e_err[j];
  201. }
  202. }
  203. return 1;
  204. }//子程序Delta_H_I()结束
  205. //N个样本的全局误差计算子程序////
  206. double Err_Sum()
  207. {
  208. double total_err=0;
  209. for (int m=0;m<N;m++) {
  210.   total_err+=err_m[m];//每个样本的均方误差加起来就成了全局误差
  211. }
  212. return total_err;
  213. }//子程序Err_sum()结束
  214. GetTrainingData()
  215. {
  216. ifstream GetTrainingData ( "训练样本.txt", ios::in );
  217. for(int m=0;m<N;m++)
  218. {
  219. for(int i=0;i<IN;i++)
  220. {
  221. GetTrainingData>>Study_Data[m].input[i];  //取得输入数据
  222. }
  223. for(int j=0;j<ON;j++)
  224. {
  225. GetTrainingData>>Study_Data[m].teach[j];  //取得输出数据
  226. }
  227. }
  228. GetTrainingData.close();
  229. return 1;
  230. }
  231. void savequan()
  232. {
  233. ofstream outQuanFile( "权值.txt", ios::out );
  234. ofstream outYuFile( "阈值.txt", ios::out );
  235. outQuanFile<<"An";
  236. for(int i=0;i<HN;i++)
  237. {
  238. for(int j=0;j<IN;j++)
  239. {
  240. outQuanFile<<W[i][j]<<"   ";
  241. }
  242. outQuanFile<<"n";
  243. }
  244. outQuanFile<<"Bn";
  245. for(int ii=0;ii<ON;ii++)
  246. {
  247. for(int jj=0;jj<HN;jj++)
  248. {
  249. outQuanFile<<V[ii][jj]<<"   ";
  250. }
  251. outQuanFile<<"n";
  252. }
  253. outYuFile<<"输出层的阈值为:n";
  254. for(int k=0;k<ON;k++)
  255. {
  256. outYuFile<<YU_ON[k]<<"  ";  //输出层阈值写入文本
  257. }
  258. outYuFile<<"n隐层的阈值为:n";
  259. for(int kk=0;kk<HN;kk++)
  260. {
  261. outYuFile<<YU_HN[kk]<<"  ";  //隐层阈值写入文本
  262. }
  263. outQuanFile.close();
  264. }
  265. /**程序入口,即主程序**/
  266. void main()
  267. {
  268. double sum_err;
  269. int num,study;//训练次数
  270. char c;
  271. a = 0.7;
  272. b = 0.7;
  273. alpha = 0.9;  //动量因子
  274. study=0; //学习次数
  275. double Pre_error ; //预定误差
  276. Pre_error = 0.0001;
  277. int Pre_times;
  278. Pre_times = 200;
  279. GetTrainingData();
  280. initial(); //隐层、输出层权、阈值初始化 (1) 
  281. do
  282. {
  283. ++study; 
  284. for (int m=0;m<N;m++) 
  285. {
  286. input_P(m); //输入第m个学习样本 (2)
  287. input_T(m);//输入第m个样本的教师信号 (3)
  288. H_I_O(); //第m个学习样本隐层各单元输入、输出值 (4)
  289. O_I_O(); //第m个学习样本输出层各单元输入、输出值 (5)
  290. Err_O_H(m); //第m个学习样本输出层至隐层一般化误差 (6) 
  291. Err_H_I(); //第m个学习样本隐层至输入层一般化误差 (7)
  292. Delta_O_H(m,study); //第m个学习样本输出层至隐层权阈值调整、修改 (8)
  293. Delta_H_I(m,study); //第m个学习样本隐层至输入层权阈值调整、修改 (9)
  294. } //全部样本训练完毕
  295. sum_err=Err_Sum(); //全部样本全局误差计算 (10)
  296. saveWV(study);  //把本次的学习权值全保存到数组
  297. cout<<"第"<<study<<"次学习的均方误差为"<<sum_err<<endl;
  298. }while (sum_err > Pre_error); 
  299. cout<<"网络已经学习了"<<study<<"次,学习的均方误差为"<<sum_err<<endl;
  300. savequan();
  301. cout<<"是否需要测试?(y,n)";
  302.  cin>>c;
  303.  if(c=='y'){
  304.   cout<<"请输入测试数据个数";
  305.     cin>>num;
  306.    for (int m=0;m<num;m++){
  307. cout<<"请输入第"<<m+1<<"测试数据(0,6.28)"<<endl; 
  308. for (int i=0;i<IN;i++)
  309.    cin>>Study_Data[m].input[i];
  310. input_P(m);
  311.     H_I_O(); 
  312.         O_I_O(); 
  313.     cout<<"BP网络计算结果为:"<<O[0]<<endl;
  314. }
  315.  }
  316.  
  317. }