中文WAP浏览器,让您的手机少一些WAP流量费

登陆过移动梦网或联通互动视界的用户都知道,上WAP网一般会有两部分费用产生:一是使用中国移动网络(或中国联通网络)产生的通信费,如流量费。二是使用某项服务产生的信息费,如订购费。
即使是免费的WAP站点,如果用手机登陆,移动或联通也会向您收取一定的通信费,各地可能根据当地政策或优惠措施不同,收取的费用可能也不同,即用手机上WAP网,通信费是无法避免的。
其实,有很多WAP站点,我们不必使用WAP手机就能在电脑上预览个大概,然后有针对性的使用手机访问,这样我们就节省了一部分网络通信费,比如网易、搜狐、雅虎、新浪等大型门户网站的WAP站点。不过要想在电脑上浏览这些门户的WAP站,必须安装一款WAP浏览器,在这我们采用中文WAP浏览器WapDisplayer V1.5作为介绍。
WapDisplayer V1.5是一款利用M3Gate控件开发的中文WAP浏览器,它可以让用户不需要通过无线装置,直接在电脑上链接Internet观看WAP网页的内容。它拥有以下特点:
◆轻松显示隐藏工具栏,方便的快捷键设置,使您浏览、调试WAP页面更加方便。
◆全中文化界面、合理化布局、可缩放窗体,更符合中国人的使用习惯。
◆程序使用完全免费,无任何限制。
当我们根据安装程序提示安装完毕WapDisplayer后,会在开始菜单下产生三个快捷方式,如图一所示:
eNetBlog1127961597.gif
图一

启动WapDisplayer V1.5,我们看到整个界面比较简洁,如图二所示。因为默认情况下工具栏是隐藏的,我们可以选中视图菜单下的显示工具栏项,显示工具栏。
eNetBlog1127961680.gif
图二

在浏览器的地址栏里,已经包含了一些门户站点的WAP地址,您可以直接点击相应地址打开它们的WAP页面。如果您想访问别的WAP站点,可以直接在地址栏里输入该站点的WAP地址,如访问新浪WAP,直接输入wap.sina.com.cn 即可。在您浏览WAP页面时,地址栏自动显示您正在访问的WAP页面的地址。如图三所示。
eNetBlog1127961730.gif
图三

如果您习惯了M3Gate浏览器,那么您可以启动开始菜单中的“中文M3Gate浏览器”,如图四所示为浏览中国被爱可以在线的主界面,并且M3Gate的弹出菜单已经被汉化为中文,它完全同于M3Gate V1.2 Beta英文版本的功能。
eNetBlog1127961794.gif
图四

有时候,我们浏览的WAP页面会出现乱码现象,例如打开wap.21cn.com时,如图五所示,这是因为WAP使用的编码不同于WEB,我们可以通过尝试改变编码方式解决。
eNetBlog1127961896.gif
图五

右击WAP浏览器的显示区域,如图六所示,我们选择Unicode(UTF-8)项,这时WAP页面的编码方式将采用UTF-8,我们再次看到的WAP页面如图七所示,这时我们看到的页面已经正常了。值得提醒大家的是有的WAP页面可能需要选择别的编码方式,如简体中文Chinese Simplified(GB2312),不过对于直接使用手机浏览WAP来说,编码方式一般均为Unicode(UTF-8)。
eNetBlog1127961955.gif
图六

eNetBlog1127962009.gif
图七

WapDisplayer V1.5的功能还很多,在这里我们不面面俱到,还需要您亲自去体验。
有了中文WAP浏览器WapDisplayer,并不是所有的WAP站点都能访问的,因为有些WAP站点是收费网站,它们屏蔽了所有非手机访问,只有具备某种权限或资格的用户才可以浏览。另外某些站点在无法获取终端手机号码或收取费用时,也不允许该终端访问。不过有了它,我们至少可以浏览一些门户站点和免费站点,然后有针对性用的手机去访问,是不是又可以节省一部分手机费用了。
动心了吗,还不赶紧行动?让没有手机或没有使用过WAP服务的您轻松体验一下WAP网络的精彩,让经常使用WAP服务的您少一些WAP流量费。



【相关软件】
■  中文WAP浏览器WapDisplayer V1.5
posted on 2005-10-11 18:41 中国被爱可以在线 阅读( ...) 评论( ...) 编辑 收藏

转载于:https://www.cnblogs.com/bicyle/archive/2005/10/11/252562.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值