python 命令行解析模块_Python命令行解析模块argparse的使用

各个参数的含义:

|

位置参数与可选参数:

可选参数

>>>

parser.add_argument('-f',

'--foo')

-f是--foo的短写形式,在命令行中输入任意一个都可以

2.

位置参数

>>>

parser.add_argument('bar')

action

action关键字参数定义了如何处理命令行参数,默认是保存参数的值,其他的一些action如下:

‘store_const’:保存关键字参数const的值,如图:

a514249d0eef8773b71686bf70040b98.png

请点击此处输入图片描述

5a9a90efc0c39579d9e8da76f2dfeccd.png

请点击此处输入图片描述

此时如果在–echo后面添加上参数的话会出现错误,其将不会被保存,因为已经保存了常量88

2.’store_true’和’store_false’

这两个值是’store_const’的两个特例,用来存储True和False,并且默认值便是True与False

caa4ee815025cd80b542e6a52184a4c8.png

请点击此处输入图片描述

1e08581e009144bb7d973969c04b2195.png

请点击此处输入图片描述

2.’append’将会存储一个列表

67e80b8bb4a829b69e2f83e1b161ba66.png

请点击此处输入图片描述

4d6c40e180ecc909030e11836d39b84e.png

请点击此处输入图片描述

narg

默认的action只处理一个位置的参数,但是narg将改变这种处理方式,让一个action处理多个参数,常用的值包括:

1.N(N为一个整数),N个命令行的参数将被收集到一个列表中

cca37686127f0c6918c6d4e0ea04d85f.png

输入图片描述

122e07ab865e08ab21df7ca8e5d013f2.png

请此处输入图片描述

这只能指定固定数量的参数,如果参数不固定可以使用

‘+’

或者

‘*’

,有一点需要注意,要至少要有一个命令行参数,不然会报错。

919081df5ead697fa36bb978963f90e0.png

请点击此处输入图片描述

eda0d341f90c822644bd30932402c576.png

请点击此处输入图片描述

defaul

默认值,可选参数省略的时候取的值,和const有区别,当flag没有省略的时候取const的值,要配合nargs=’?’(flag后面的参数出现1个或0个)使用。

4d64e40544aedffbf949ea384527d5e6.png

请点击此处输入图片描述

16562ceb91ad8892c18d0fd339ca6649.png

请点击此处输入图片描述

type 命令行中输入的参数都是字符串,如果需要进行数据类型转换使用

type关键字参数,其值有int,float等,其中一个特殊情况是FileType(‘w’),

其将产生一个可写的文件。

2d6b58c28a6662fae47c382bfadad29b.png

请点击此处输入图片描述

e6532ff19fde74d9f3ca7a8c03c31045.png

请点击此处输入图片描述

96bde139156ca71e3b14f1b113d46a9f.png

请点击此处输入图片描述

以上便是常用的一些命令,更多细节请参看官方文档!!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于LSTM的财务因子预测选股模型LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的序列数据。传统的RNN在处理长序列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多序列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时序预测等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值