刚做项目的时候

刚做项目的时候写了个简单的函数,如下:
Code
 1var chooseids = Array();
 2    function delThisSeat(obj)
 3    {
 4        if(confirm("确定要移除这张票吗?"))
 5        {
 6            document.getElementById("buyNum").innerHTML = (parseFloat(document.getElementById("buyNum").innerHTML)-1);
 7            document.getElementById("buyFee").innerHTML = (parseFloat(document.getElementById("buyFee").innerHTML)-parseFloat(obj.previousSibling.firstChild.innerHTML));
 8            obj.parentNode.parentNode.removeChild(obj.parentNode);
 9            
10            var tempChoo = document.getElementsByName("C_Name");
11            chooseids = Array();
12            for(var i=0;i<tempChoo.length;i++)
13            {
14                chooseids[i] = tempChoo.item(i).value;
15            }

16        }

17    }

一开始在 obj.previousSibling.firstChild.innerHTML这个地方用的是 obj.previousSibling.firstChild.innerText,可在FF下显示的是undefined,原来在FF下 li没innerText这个属性。

网上看到一些详细的介绍,给大家分享一下:
属性  描述 
attributes  如果该节点是一个Element,则以NamedNodeMap形式返回该元素的属性。 
childNodes  以Node的形式存放当前节点的子节点。如果没有子节点,则返回空数组。 
firstChild  以Node的形式返回当前节点的第一个子节点。如果没有子节点,则为null。 
lastChild  以Node的形式返回当前节点的最后一个子节点。如果没有子节点,则为null。 
nextSibling  以Node的形式返回当前节点的兄弟下一个节点。如果没有这样的节点,则返回null。 
nodeName  节点的名字,Element节点则代表Element的标记名称。 
nodeType  代表节点的类型。 
parentNode  以Node的形式返回当前节点的父节点。如果没有父节点,则为null。 
previousSibling  以Node的形式返回紧挨当前节点、位于它之前的兄弟节点。如果没有这样的节点,则返回null。 

 

  Node对象常用方法:

 

方法  描述 
appendChild()  通过把一个节点增加到当前节点的childNodes组,给文档树增加节点。 
cloneNode()  复制当前节点,或者复制当前节点以及它的所有子孙节点。 
hasChildNodes()  如果当前节点拥有子节点,则将返回true。 
insertBefore()  给文档树插入一个节点,位置在当前节点的指定子节点之前。如果该节点已经存在,则删除之再插入到它的位置。 
removeChild()  从文档树中删除并返回指定的子节点。 
replaceChild()  从文档树中删除并返回指定的子节点,用另一个节点替换它。 

  接下来,让我们使用上述的DOM应用编程接口,来试着操作HTML文档。

首先举一个最简单的例子, 用 DOM 动态生成一个 Loading 的 IMG 并加入页面中, 当页面完全载入后, 就移除这个 IMG 对象.

 

属性:

 

Attributes  存储节点的属性列表 (只读)
childNodes  存储节点的子节点列表 (只读)
dataType  返回此节点的数据类型
Definition  以DTD或Xml模式给出的节点的定义 (只读)
Doctype  指定文档类型节点 (只读)
documentElement  返回文档的根元素 (可读写)
firstChild  返回当前节点的第一个子节点 (只读)
Implementation  返回XmlDOMImplementation对象
lastChild  返回当前节点最后一个子节点 (只读)
nextSibling  返回当前节点的下一个兄弟节点(只读)
nodeName  返回节点的名字 (只读)
nodeType  返回节点的类型 (只读)
nodeTypedValue  存储节点值 (可读写)
nodeValue  返回节点的文本 (可读写)
ownerDocument  返回包含此节点的根文档 (只读)
parentNode  返回父节点 (只读)
Parsed  返回此节点及其子节点是否已经被解析 (只读)
Prefix  返回名称空间前缀 (只读)
preserveWhiteSpace  指定是否保留空白 (可读写)
previousSibling  返回此节点的前一个兄弟节点 (只读)
Text  返回此节点及其后代的文本内容 (可读写)
url 返回最近载入的Xml文档的URL (只读)
Xml 返回节点及其后代的Xml表示 (只读)

方法:

 

appendChild  为当前节点添加一个新的子节点,放在最后的子节点后
cloneNode  返回当前节点的拷贝
createAttribute  创建新的属性
createCDATASection  创建包括给定数据的CDATA段
createComment  创建一个注释节点
createDocumentFragment  创建DocumentFragment对象
createElement  创建一个元素节点
createEntityReference  创建EntityReference对象
createNode  创建给定类型,名字和命名空间的节点
createPorcessingInstruction  创建操作指令节点
createTextNode  创建包括给定数据的文本节点
getElementsByTagName  返回指定名字的元素集合
hasChildNodes  返回当前节点是否有子节点
insertBefore  在指定节点前插入子节点
Load  导入指定位置的Xml文档
loadXml  导入指定字符串的Xml文档
removeChild  从子结点列表中删除指定的子节点
replaceChild  从子节点列表中替换指定的子节点
Save  把Xml文件存到指定节点
selectNodes  对节点进行指定的匹配,并返回匹配节点列表
selectSingleNode  对节点进行指定的匹配,并返回第一个匹配节点
transformNode  使用指定的样式表对节点及其后代进行转换
transformNodeToObject  使用指定的样式表将节点及其后代转换为对象


http://www.webajax.cn/ajax/2007-8-4/AJAX-RuMenGeChao-XML-He-DOM.html

转载于:https://www.cnblogs.com/ITzen/archive/2008/04/01/1133426.html

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值