php 贝叶斯算法,利用php实现贝叶斯算法代码

C++实现

一种C++实现的遗传算法。放在下面,供大家参考

//---------------------------------------------------------------------------------------//

// BP算法例子:用一个五层的神经网络去逼进函数

// f(x1,x2)=pow(x1-1,4)+2*pow(x2,2)

//--------------------------------------------------------------------------------------//

#include

#include

#include

#include

#include

//---------------------------------------------------------------------

#define RANDOM rand()/32767.0 //0~1随机数生成函数

const int Layer_Max=5;//神经网络的层数

const double PI=3.1415927;//圆周率

const int Layer_number[Layer_Max]={2,4,4,2,1};//神经网络各层的神经元个数

const int Neural_Max=4;//神经网络各层最大神经元个数

const int InMax=21;//样本输入的个数

ofstream Out_W_File("All_W.txt",ios::out) ;

ofstream Out_Error("Error.txt",ios::out) ;

//定义类 BP

class BP

{

public:

BP(); //BP类的构造函数

void BP_Print();//打印权系数

double F(double x);//神经元的激发函数

double Y(double x1,double x2);//要逼近的函数

//

double NetWorkOut(int x1 , int x2);//网络输出,他的输入为

//第input个样本

void AllLayer_D(int x1 , int x2);//求所有神经元的输出误差微分

void Change_W(); //改变权系数

void Train(); //训练函数

void After_Train_Out(); //经过训练后,21样本的神经网络输出

double Cost(double out,double Exp);//代价函数

private:

double W[Layer_Max][Neural_Max][Neural_Max];//保存权系数

//规定W[i][j][k]表示网络第i层的第j个神经元连接到

//第i-1层第k个神经元的权系数

double Input_Net[2][InMax];//21个样本输入,约定Input_Net[0][i]

//表示第i个样本的输入x1

//而 Input_Net[1][i]表示第i个样本的输入x2

double Out_Exp[InMax][InMax];//期望输出

double Layer_Node[Layer_Max][Neural_Max];//保存各神经元的输出

//规定Layer_Node[i][j]表示第i层的第j个神经元的输出

double D[Layer_Max][Neural_Max];//保存各神经元的误差微分

//规定D[i][j]表示第i层第j个神经元的误差微分

double Study_Speed;//学习速度

double e;//误差

};

//构造函数,用来初始化权系数,输入,期望输出和学习速度

BP::BP()

{

srand(time(NULL));//播种,以便产生随即数

for(int i=1 ; i

{

for(int j=0 ; j

{

for(int k=0 ; k

{

W[i][j][k] = RANDOM;//随机初始化权系数

}

// Q[i][j] = RANDOM ;//初始化各神经元的阀值

}

}

//输入归和输出归一化

for(int l=0 ; l

{

Input_Net[0][l] = l * 0.05 ;//把0~1分成20等分,表示x1

Input_Net[1][l] = 1 - l * 0.05 ;//表示x2

}

for(i=0 ; i

{

for(int j=0 ; j

{

Out_Exp[i][j] = Y(Input_Net[0][i],Input_Net[1][j]) ;//期望输出

Out_Exp[i][j] = Out_Exp[i][j]/3.000000;//期望输出归一化

}

}

Study_Speed=0.5;//初始化学习速度

e=0.0001;//误差精度

}//end

//激发函数F()

double BP::F(double x)

{

return(1.0/(1+exp(-x)));

}//end

//要逼近的函数Y()

//输入:两个浮点数

//输出:一个浮点数

double BP::Y(double x1,double x2)

{

double temp;

temp = pow(x1-1,4) + 2 * pow(x2,2);

return temp;

}//end

//--------------------------------------------------------

//代价函数

double BP::Cost(double Out,double Exp)

{

return(pow(Out-Exp,2));

}//end

//网络输出函数

//输入为:第input个样本

double BP::NetWorkOut(int x1 , int x2)

{

int i,j,k;

double N_node[Layer_Max][Neural_Max];

//约定N_node[i][j]表示网络第i层的第j个神经元的总输入

//第0层的神经元为输入,不用权系数和阀值,即输进什么即输出什么

N_node[0][0] = Input_Net[0][x1] ;

Layer_Node[0][0] = Input_Net[0][x1] ;

N_node[0][1] = Input_Net[1][x2] ;

Layer_Node[0][1] = Input_Net[1][x2] ;

for(i=1 ; i

{

for(j=0 ; j

{ //神经元个数

N_node[i][j] = 0.0;

for(k=0 ; k

{ //表示与第i层第j个神经元连接的上一层的

//神经元个数

//求上一层神经元对第i层第j个神经元的输入之和

N_node[i][j]+=Layer_Node[i-1][k] * W[i][j][k];

}

N_node[i][j] = N_node[i][j]-W[i][j][k];//减去阀值

//求Layer_Node[i][j],即第i层第j个神经元的输出

Layer_Node[i][j] = F(N_node[i][j]);

}

}

return Layer_Node[Layer_Max-1][0];//最后一层的输出

}//end

//求所有神经元的输出误差微分函数

//输入为:第input个样本

//计算误差微分并保存在D[][]数组中

void BP::AllLayer_D(int x1 , int x2)

{

int i,j,k;

double temp;

D[Layer_Max-1][0] = Layer_Node[Layer_Max-1][0] *

(1-Layer_Node[Layer_Max-1][0])*

(Layer_Node[Layer_Max-1][0]-Out_Exp[x1][x2]);

for(i=Layer_Max-1 ; i>0 ; i--)

{

for(j=0 ; j

{

temp = 0 ;

for(k=0 ; k

{

temp = temp+W[i][k][j]*D[i][k] ;

}

D[i-1][j] = Layer_Node[i-1][j] * (1-Layer_Node[i-1][j])

*temp ;

}

}

}//end

//修改权系数和阀值

void BP::Change_W()

{

int i,j,k;

for(i=1 ; i

{

for(j=0;j

{

for(k=0;k

{

//修改权系数

W[i][j][k]=W[i][j][k]-Study_Speed*

D[i][j]*Layer_Node[i-1][k];

}

W[i][j][k]=W[i][j][k]+Study_Speed*D[i][j];//修改阀值

}

}

}//end

//训练函数

void BP::Train()

{

int i,j;

int ok=0;

double Out;

long int count=0;

double err;

ofstream Out_count("Out_count.txt",ios::out) ;

//把其中的5个权系数的变化保存到文件里

ofstream outWFile1("W[2][0][0].txt",ios::out) ;

ofstream outWFile2("W[2][1][1].txt",ios::out) ;

ofstream outWFile3("W[1][0][0].txt",ios::out) ;

ofstream outWFile4("W[1][1][0].txt",ios::out) ;

ofstream outWFile5("W[3][0][1].txt",ios::out) ;

while(ok<441)

{

count++;

//20个样本输入

for(i=0,ok=0 ; i

{

for(j=0 ; j

{

Out = NetWorkOut(i,j);

AllLayer_D(i,j);

err = Cost(Out,Out_Exp[i][j]);//计算误差

if(err

else Change_W();//否修改权系数和阀值

}

}

if((count%1000)==0)//每1000次,保存权系数

{

cout<

Out_count<

Out_Error<

outWFile1<

outWFile2<

outWFile3<

outWFile4<

outWFile5<

for(int p=1 ; p

{

for(int j=0 ; j

{

for(int k=0 ; k

{

Out_W_File<

<

<

<

}

}

}

Out_W_File<

}

}

cout<

}//end

//打印权系数

void BP::BP_Print()

{

//打印权系数

cout<

for(int i=1 ; i

{

以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值