浅学soap--------4

引入nusoap

Service.php    //运行该文件,在网页中wsdl点击,可浏览生成的wsdl代码;网页提供注册的方法
<?php
require_once ("nusoap/nusoap.php");  
$server = new nusoap_server();  
// 避免乱码  
$server->soap_defencoding = 'UTF-8';  
$server->decode_utf8 = false;  
$server->xml_encoding = 'UTF-8';  
$server->configureWSDL ('names'); // 打开 wsdl 支持,参数随意  
/* 
注册需要被客户端访问的程序 
类型对应值: bool->"xsd:boolean"    string->"xsd:string" 
int->"xsd:int"     float->"xsd:float" 
*/  
$server->register ( 'name', // 方法名  
array ("request" => "xsd:string" ), // 参数,默认为 "xsd:string" ,键值随意,多传入同意string
array ("response" => "xsd:string" ) ); // 返回值,默认为 "xsd:string"  ,键值随意 
//isset  检测变量是否设置  
$HTTP_RAW_POST_DATA = isset ( $HTTP_RAW_POST_DATA ) ? $HTTP_RAW_POST_DATA : '';  
//service  处理客户端输入的数据  
$server->service ( $HTTP_RAW_POST_DATA );  
/** 
 * 供调用的方法 
 * @param $name 
 */  
function name($name,$age) {  
    return $name+$age;  
}
?>


Clint.php
<?php    
require_once ("nusoap/nusoap.php");  
 
/*通过 WSDL 调用 WebService 
参数 1 WSDL 文件的地址 (问号后的wsdl不能为大写) 
参数 2  指定是否使用 WSDL */
//$client = new soapclient('http://localhost/nusoapService.php?wsdl',true); 
  
$client = new nusoap_client('http://localhost/test/web_service/Service.php'); 
$client->soap_defencoding = 'UTF-8';  
$client->decode_utf8 = false;  
$client->xml_encoding = 'UTF-8';  
//参数转为数组形式传递  
$paras = array ('10','21');  //或$paras = array ('name'=>'张三','age'=>'21');   键值随意   输出21
//目标方法没有参数时,可省略后面的参数  
$result = $client->call ('name',$paras);  
//检查错误,获取返回值  
if (! $err = $client->getError ()) {  
    echo " 返回结果: ", $result;  //31
} else {  
    echo " 调用出错: ", $err;  
}
?>

 

转载于:https://www.cnblogs.com/Kqingniao/p/6840038.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Cross-Attention指的是Transformer架构中的一种注意力机制,它用于混合两个不同嵌入序列的注意力。这两个序列必须具有相同的维度,并且可以是不同的模式形态,比如文本、声音、图像等。在Cross-Attention中,一个序列作为输入的Q,定义了输出的序列长度,而另一个序列提供输入的K和V。 Cross-Attention与Self-Attention不同之处在于,Cross-Attention的输入来自不同的序列,而Self-Attention的输入来自同一个序列。但除此之外,它们的基本原理是一致的。在Transformer中,Cross-Attention通常是指编码器和解码器之间的交叉注意力层。在这一层中,解码器会对编码器的输出进行注意力调整,以获得与当前解码位置相关的编码器信息。具体的计算过程包括:编码器输入(通常是来自编码器的输出)和解码器输入(已生成的部分序列)被分别表示为enc_inputs和dec_inputs。解码器的每个位置会生成一个查询向量(query),用来在编码器的所有位置进行注意力权重计算。编码器的所有位置会生成一组键向量(keys)和值向量(values)。通过对查询向量和键向量进行点积操作,并通过softmax函数获得注意力权重。注意力权重与值向量相乘,并对结果进行求和,得到编码器调整的输出。这样,Cross-Attention机制帮助解码器能够有效地建模当前生成位置的上下文信息。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [【科研】Cross-attention?](https://blog.csdn.net/MengYa_Dream/article/details/126688503)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [交叉注意力机制CrossAttention](https://blog.csdn.net/m0_63097763/article/details/132293568)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值