定时器时间数据转换子程序分析 (转)

定时器时间数据转换子程序分析 (转)[@more@]

  定时器时间数据转换子程序分析
 
 
  进日,我在看一时钟TSR程序,分析其中一个把BIOS数据区中的定时器数据转换成HH:MM:SS时间格式的数据(ASCII)的程序片段时,既学到一点东西,又发现了一写自己弄不明白的问题。现在我把自己学到的好东西写出来与大家分享,同时向各路高手请教请教。
  程序片段如下:(汇编语言程序)
...  (省略)
  HMS  db 8 dup(':')
...
time proc
  lea  di,position  ;(1)  --行号
 mov  ax,0  ;(2)
 mov  ds,ax  ;(3)
 mov  al,ds:[46eh]  ;(4)
 call clk1  ;(5)
 mov  ax,ds:[46ch]  ;(6)
 mov  dx,0  ;(7)
 mov  bx,444h  ;(8)
 call clk0  ;(9)
 mov  ax,dx  ;(10)
 mov  cx,3ch  ;(11)
 mul  cx  ;(12)
 
clk0:
  add  di,3  ;(13)
 div  bx  ;(14) 
clk1:
  aam  ;(15)
 add  ax,3030h  ;(16)
 xchg ah,al  ;(17)
 mov  cs:[di],ax  ;(18)
 ret  ;(19)
time endp

  程序片段实现的原理是把BIOS的INT 1CH时钟控制中断在BIOS数据区建立的0040:006CH(低字) 和0040:006EH(高字)单元32位时间数字计数器中的数值用一种比较简明的方式转换成HH:MM:SS时间格式(为ASCII字符),再用另一显示子程序把转换好的字符传显示在屏幕上。
  INT1CH中断每55毫秒发生一次中断,每发出一次中断就把0040:006CH--0040:006EH的32位时间数字计数器中的内容加一,一天24小时,最大的计数值为001800B0H,达到最大值,INT1CH把这个计数器复位为0,然后重新计数,新的一天又开始。
  我搞不明白的是为什么计数器的最大值会是1800B0H(1573040),1573040*55/1000=86517.2(秒)而24小时是86400秒,计数器的值比实际值大。INT1CH每55毫秒中断一次,也就是说1秒钟中断18.1818181818...(无数个18)次,若按每秒中断18.2次的话,一天24小时计数器的数值应为1572480,比1573040少了560(为30.8秒) 。一个小时3600秒中断次数为65520(以18.2计算),比65535(2的16次方为65536)少15次(不足一秒)。一天少360次,与前面少560次又不同。真令我费解。

  现假设一个时间计数器的数值,分析上述程序片段的执行过程。假设[0040:006EH]=0017H,[0040:006EH]=1AA3H。程序片段的执行过程为:
{(1)->(4)}->{(15)->(19)}->{(6)->(8)}->{(13)->(19)}->{(10)->(19)}
(小括号中的数字为行号,大括号中的箭头为顺序指令序列,大括号外的箭头为指令跳转)

  (1)->(3): DS=AX=0,DI=HMS的位移,HMS是用以存储转换后的时间值(ASCII)的内存单元。
  (4):  MOV AL,DS:[46EH]即AL=17H
  (5):  CALL CLK1  ;调用CLK1

  CLK1的执行过程如下: ((15)->(19),此时转换小时值)
  (15):  AAM指令,乘法的ASCII调整指令,把AL中的值调整为非压缩的BCD格式,即把AL除以0AH(10),商放在AH中,余数放在AL中.执行后,AX=0203H.
  (16):  ADD AX,3030H  令AX=3233H,就是2和3的ASCII值.
  (17):  XCHG AH,AL 令AX=3332H.
  (18):  MOV CS:[DI],AX  把转换后的数值(ASCII)存在HMS中.
  (19):  RET 返回.  (返回执行第6条指令)

  此时,HMS为 (高字) ':',':',':',':',':',':','3','2'(低字)

  (6):  MOV AX,DS:[46CH]  AX=1AA3H
  (7),(8):  BX=444H,DX=0
  (9):  CALL CLK0  ;调用CLK0

  CLK0的执行过程如下: ((13)->(19),此时转换分钟值)
  (12):  ADD DI,3  把DI加3,即指向HMS的指针加3.
  (14):  DIV BX  把1AA3H除以444H. 444H=1092,1092/18.2=60(秒).指令执行完后AX=06H(商),DX=10BH(余数)
  (15)...(19):  即执行CLK1,执行过程与以上描述相同,把AX=06H(分钟)转换成能显示的ASCII值.(19)句 RET 返回到第(10)句.

  此时,HMS为(高字) ':',':',':','6','0',':','3','2'(低字)

  开始转换秒数值:

  (10),(11):AX=10BH,CX=3CH.(3CH=60)
  (12):  10BH*3CH=3E94,AX=3E94H
  (13)...(19): 即再次执行CLK0. (14) DIV BX ;3E94H/444H AX=0EH,DX=2DCH.第三次执行CLK1,把AX=0EH(14)转换成可显示的ASCII字符.过程同上.(19) RET 返回调用TIME
子程序处.从(10)到(14) 267*60/1092=267/18.2,(10BH=267)意思是中断267次相当于多少秒.

  最后,HMS为(高字) '4','1',':','6','0',':','3','2'(低字),时间为23:06:14。

  由上可以看出,高字[0040:006EH]为时间值,低字[0040:006CH]为一小时发生中断次数65520次。上述的转换过程已经很清楚了。0040:006EH-0040:006CH中,高字直接调用CLK1转换成可视字符。低字除以444H(次/分)得分钟数值(商),再调用CLK1转换成可视字符。然后把余数(不足一分钟的中断次数)乘3CH,再除以444H,即把余数除以18.2(次/秒)得秒数值(商),最后一次调用CLK1转换成可视字符。所转换得字符存在HMS内存单元中。
  子程序TIME的算法是很易懂的,但INT1CH中断的执行的过程本人还没有不清楚,也没有相应的参考文档,有几个疑问还解不开,特向各位超级大虾(龙虾?)请教。谢谢! 

 


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/10752043/viewspace-990875/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/10752043/viewspace-990875/

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值