Hadoop Shell命令(版本:2.7.2)

Hadoop Shell命令(版本:2.7.2)

官方文档2.7.2

官方中文1.0.4

  • 概观
    • appendToFile
    • cat
    • checksum
    • chgrp
    • chmod
    • chown
    • copyFromLocal
    • copyToLocal
    • count
    • cp
    • createSnapshot
    • deleteSnapshot
    • df
    • du
    • dus
    • expunge
    • find
    • get
    • getfacl
    • getfattr
    • getmerge
    • help
    • ls
    • lsr
    • mkdir
    • moveFromLocal
    • moveToLocal
    • mv
    • put
    • renameSnapshot
    • rm
    • rmdir
    • rmr
    • setfacl
    • setfattr
    • setrep
    • stat
    • tail
    • test
    • text
    • touchz
    • truncate
    • usage

概观

文件系统(FS)shell包括各种类似shell的命令,这些命令直接与Hadoop分布式文件系统(HDFS)以及Hadoop支持的其他文件系统交互,例如本地FS,HFTP FS,S3 FS等。FS shell由以下方式调用:

bin/hadoop fs <args>

所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。可以将HDFS文件或目录(例如/parent/child)指定为hdfs://namenodehost/parent/child或简单地指定为/parent/child(假设您的配置设置为指向hdfs://namenodehost)。

大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。

如果正在使用HDFS,则hdfs dfs是同义词。

有关通用shell选项,请参阅命令手册

appendToFile

用法:

hadoop fs -appendToFile <localsrc> ... <dst>

将单个src或多个srcs从本地文件系统附加到目标文件系统。还从stdin读取输入并附加到目标文件系统。

hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.

退出代码:

成功时返回0,错误时返回1。

cat

用法:

hadoop fs -cat URI [URI ...]

将路径指定文件的内容输出到stdout。

例:

hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4

退出代码:

成功时返回0,错误时返回-1。

checksum

用法:

hadoop fs -checksum URI

返回文件的校验和信息。

例:

hadoop fs -checksum hdfs://nn1.example.com/file1
hadoop fs -checksum file:///etc/hosts

chgrp

用法:

hadoop fs -chgrp [-R] GROUP URI [URI ...]

更改文件的组关联。用户必须是文件的所有者,否则必须是超级用户。其他信息在“ 权限指南”中。

选项

  • -R选项将通过目录结构递归地进行更改。

chmod

用法:

hadoop fs -chmod [-R] <MODE [,MODE] ... | OCTALMODE> URI [URI ...]

更改文件的权限。使用-R,通过目录结构递归更改。用户必须是文件的所有者,否则必须是超级用户。其他信息在“ 权限指南”中。

选项

  • -R选项将通过目录结构递归地进行更改。

chown

用法:

hadoop fs -chown [-R] [OWNER] [:[GROUP]] URI [URI]

更改文件的所有者。用户必须是超级用户。其他信息在“ 权限指南”中。

选项

  • -R选项将通过目录结构递归地进行更改。

copyFromLocal

用法:

hadoop fs -copyFromLocal <localsrc> URI

与put命令类似,但源仅限于本地文件引用。

选项:

  • -f 如果目标已存在,则覆盖目标。

copyToLocal

用法:

hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

与get命令类似,但目标仅限于本地文件引用。

count

用法:

hadoop fs -count [-q] [-h] [-v] <paths>

计算与指定文件模式匹配的路径下的目录,文件和字节数。-count的输出列为:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,PATHNAME

-count -q的输出列为:QUOTA,REMAINING_QUATA,SPACE_QUOTA,REMAINING_SPACE_QUOTA,DIR_COUNT,FILE_COUNT,CONTENT_SIZE,PATHNAME

-h选项以人类可读格式显示大小。

-v选项显示标题行。

例:

hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1
```shell
退出代码:

成功时返回0,错误时返回-1。

## cp
用法:
```shell
hadoop fs -cp [-f] [-p | -p [topax]] URI [URI ...] <dest>

将文件从源复制到目标。此命令也允许多个源,在这种情况下,目标必须是目录。

如果(1)源文件系统和目标文件系统支持它们(仅限HDFS),并且(2)所有源和目标路径名都在/.reserved/raw层次结构中,则保留'raw。'命名空间扩展属性。是否保留raw。 namespace xattrs的确定与-p(保留)标志无关。

选项:

如果目标已存在,则-f选项将覆盖目标。
-p选项将保留文件属性[topx](时间戳,所有权,权限,ACL,XAttr)。如果指定了-p且没有arg,则保留时间戳,所有权和权限。如果指定了-pa,则还保留权限,因为ACL是一组超级权限。确定是否保留原始命名空间扩展属性与-p标志无关。

例:

hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

退出代码:

成功时返回0,错误时返回-1。

createSnapshot

请参阅"HDFS快照指南"

deleteSnapshot

请参阅"HDFS快照指南"

df

用法:

hadoop fs -df [-h] URI [URI ...]

显示可用空间。

选项:

  • -h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)

例:

hadoop dfs -df /user/hadoop/dir1

du

用法:

hadoop fs -du [-s] [-h] URI [URI ...]

显示给定目录中包含的文件和目录的大小或文件的长度,以防它只是一个文件。

选项:

  • -s选项将导致显示文件长度的汇总摘要,而不是单个文件。
  • -h选项将以“人类可读”的方式格式化文件大小(例如64.0m而不是67108864)

例:

hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1

退出代码:成功时返回0,错误时返回-1。

dus

用法:

hadoop fs -dus <args>

显示文件长度的摘要。

注意:不推荐使用此命令。而是使用hadoop fs -du -s。

expunge

用法:

hadoop fs -expunge

清空垃圾。有关“废纸篓”功能的详细信息,请参阅"HDFS体系结构指南"

find

用法:

hadoop fs -find <path> ... <expression> ...

查找与指定表达式匹配的所有文件,并将选定的操作应用于它们。如果未指定路径,则默认为当前工作目录。如果未指定表达式,则默认为-print。

识别以下主要表达式:

  • -name pattern
    -iname pattern

如果文件的基名与使用标准文件系统globbing的模式匹配,则求值为true。如果使用-iname,则匹配不区分大小写。

  • -print
    -print0Always

评估为真。使当前路径名写入标准输出。如果使用-print0表达式,则附加ASCII NULL字符。

以下运营商得到承认:

  • expression -a expression
    expression -and expression
    expression expression

用于连接两个表达式的逻辑AND运算符。如果两个子表达式都返回true,则返回true。由两个表达式的并置所暗示,因此不需要明确指定。如果第一个表达式失败,则不会应用第二个表达式。

例:

hadoop fs -find / -name test -print

退出代码:

成功时返回0,错误时返回-1。

get

用法:

hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>

将文件复制到本地文件系统。可以使用-ignorecrc选项复制CRC校验失败的文件。可以使用-crc选项复制文件和CRC。

例:

hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile

退出代码:

成功时返回0,错误时返回-1。

getfacl

用法:

hadoop fs -getfacl [-R] <path>

显示文件和目录的访问控制列表(ACL)。如果目录具有默认ACL,则getfacl还会显示默认ACL。

选项:

  • -R:递归列出所有文件和目录的ACL。
  • path:要列出的文件或目录。

例子:

hadoop fs -getfacl /file
hadoop fs -getfacl -R /dir

退出代码:

成功时返回0,错误时返回非零。

getfattr

用法:

hadoop fs -getfattr [-R] -n name | -d [-e en] <path>

显示文件或目录的扩展属性名称和值(如果有)。

选项:

  • -R:递归列出所有文件和目录的属性。
  • -n name:转储指定的扩展属性值。
  • -d:转储与pathname关联的所有扩展属性值。
  • -e encoding:检索后对代码值进行编码。有效编码为“text”,“hex”和“base64”。编码为文本字符串的值用双引号(“)括起来,编码为十六进制和base64的值分别以0x和0s为前缀。
  • path:文件或目录。

例子:

hadoop fs -getfattr -d /file
hadoop fs -getfattr -R -n user.myAttr /dir

退出代码:

成功时返回0,错误时返回非零。

getmerge

用法:

hadoop fs -getmerge [-nl] <src> <localdst>

将源目录和目标文件作为输入,并将src中的文件连接到目标本地文件。可选地,-nl可以设置为允许在每个文件的末尾添加换行符(LF)。

例子:

hadoop fs -getmerge -nl /src /opt/output.txt
hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt

退出代码:

成功时返回0,错误时返回非零。

help

用法:

hadoop fs -help

返回使用量输出。

ls

用法:

hadoop fs -ls [-d] [-h] [-R] <args>

选项:

  • -d:目录列为纯文件。
  • -h:以人类可读的方式格式化文件大小(例如64.0m而不是67108864)。
  • -R:递归列出遇到的子目录。

对于文件,ls使用以下格式返回文件的stat:

permissions number_of_replicas userid groupid filesize modification_date modification_time filename

对于目录,它返回其直接子节点的列表,如在Unix中。目录列为:

permissions userid groupid modification_date modification_time dirname

默认情况下,目录中的文件按文件名排序。

例:

hadoop fs -ls /user/hadoop/file1

退出代码:

成功时返回0,错误时返回-1。

lsr

用法:

hadoop fs -lsr <args>

ls的递归版本。

注意:不推荐使用此命令。而是使用hadoop fs -ls -R

mkdir

用法:

hadoop fs -mkdir [-p] <paths>

将路径uri作为参数并创建目录。

选项:

  • -p选项行为很像Unix mkdir -p,沿路径创建父目录。

例:

hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir

退出代码:

成功时返回0,错误时返回-1。

moveFromLocal

用法:

hadoop fs -moveFromLocal <localsrc> <dst>

与put命令类似,只是在复制后删除了源localsrc。

moveToLocal

用法:

hadoop fs -moveToLocal [-crc] <src> <dst>

显示“尚未实现”消息。

mv

用法:

hadoop fs -mv URI [URI ...] <dest>

将文件从源移动到目标。此命令允许多个源,在这种情况下,目标需要是目录。不允许跨文件系统移动文件。

例:

hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
hadoop fs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/file3 hdfs://nn.example.com/dir1

退出代码:

成功时返回0,错误时返回-1。

put

用法:

hadoop fs -put <localsrc> ... <dst>

将单个src或多个srcs从本地文件系统复制到目标文件系统。还从stdin读取输入并写入目标文件系统。

hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.

退出代码:

成功时返回0,错误时返回-1。

renameSnapshot

请参阅"HDFS快照指南"

rm

用法:

hadoop fs -rm [-f] [-r | -R] [-skipTrash] URI [URI ...]

删除指定为args的文件。

选项:

  • 如果文件不存在,-f选项将不显示诊断消息或修改退出状态以反映错误。
  • -R选项以递归方式删除目录及其下的任何内容。
  • -r选项等效于-R。
  • -skipTrash选项将绕过垃圾桶(如果已启用),并立即删除指定的文件。当需要从超配额目录中删除文件时,这非常有用。

例:

hadoop fs -rm hdfs://nn.example.com/file /user/hadoop/emptydir

退出代码:

成功时返回0,错误时返回-1。

rmdir

用法:

hadoop fs -rmdir [--ignore-fail-on-non-empty] URI [URI ...]

删除目录。

选项:

  • --ignore-fail-on-non-empty:使用通配符时,如果目录仍包含文件,请不要失败。

例:

hadoop fs -rmdir /user/hadoop/emptydir

rmr

用法:

hadoop fs -rmr [-skipTrash] URI [URI ...]

删除的递归版本。

注意:不推荐使用此命令。而是使用hadoop fs -rm -r

setfacl

用法:

hadoop fs -setfacl [-R] [-b | -k -m | -x <acl_spec> <path>] | [ - set <acl_spec> <path>]

设置文件和目录的访问控制列表(ACL)。

选项:

  • -b:删除除基本ACL条目之外的所有条目。保留用户,组和其他条目以与权限位兼容。
  • -k:删除默认ACL。
  • -R:递归地对所有文件和目录应用操作。
  • -m:修改ACL。新条目将添加到ACL,并保留现有条目。
  • -x:删除指定的ACL条目。保留其他ACL条目。
  • --set:完全替换ACL,丢弃所有现有条目。所述acl_spec必须包括用户,组条目和其他用于与权限位兼容性。
  • acl_spec:以逗号分隔的ACL条目列表。
  • path:要修改的文件或目录。

例子:

hadoop fs -setfacl -m user:hadoop:rw- /file
hadoop fs -setfacl -x user:hadoop /file
hadoop fs -setfacl -b /file
hadoop fs -setfacl -k /dir
hadoop fs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
hadoop fs -setfacl -R -m user:hadoop:r-x /dir
hadoop fs -setfacl -m default:user:hadoop:r-x /dir

退出代码:

成功时返回0,错误时返回非零。

setfattr

用法:

hadoop fs -setfattr -n name [-v value] | -x name <path>

设置文件或目录的扩展属性名称和值。

选项:

  • -b:删除除基本ACL条目之外的所有条目。保留用户,组和其他条目以与权限位兼容。
  • -n name:扩展属性名称。
  • -v value:扩展属性值。该值有三种不同的编码方法。如果参数用双引号括起来,那么值就是引号内的字符串。如果参数的前缀为0x或0X,则将其视为十六进制数。如果参数以0或0S开头,则将其视为base64编码。
  • -x name:删除扩展属性。
  • path:文件或目录。

例子:

hadoop fs -setfattr -n user.myAttr -v myValue /file
hadoop fs -setfattr -n user.noValue /file
hadoop fs -setfattr -x user.myAttr /file

退出代码:

成功时返回0,错误时返回非零。

setrep

用法:

hadoop fs -setrep [-R] [-w] <numReplicas> <path>

更改文件的复制因子。如果path是目录,则命令以递归方式更改以path为根的目录树下的所有文件的复制因子。

选项:

  • -w标志请求命令等待复制完成。这可能需要很长时间。
  • 接受-R标志是为了向后兼容。它没有效果。

例:

hadoop fs -setrep -w 3 /user/hadoop/dir1

退出代码:

成功时返回0,错误时返回-1。

stat

用法:

hadoop fs -stat [格式] <路径> ...

以指定格式打印有关<path>的文件/目录的统计信息。格式接受块(%b),类型(%F),所有者组名(%g),名称(%n),块大小(%o),复制(%r),所有者用户名(%)的文件大小u)和修改日期(%y,%Y)。%y将UTC日期显示为“yyyy-MM-dd HH:mm:ss”,%Y显示自1970年1月1日UTC以来的毫秒数。如果未指定格式,则默认使用%y。

例:

hadoop fs -stat "%F %u:%g %b %y %n" /file

退出代码:成功时返回0,错误时返回-1。

tail

用法:

hadoop fs -tail [-f] URI

显示文件的最后一千字节到stdout。

选项:

  • -f选项将在文件增长时输出附加数据,如在Unix中一样。

例:

hadoop fs -tail pathname

退出代码:成功时返回0,错误时返回-1。

test

用法:

hadoop fs -test - [defsz] URI

选项:

  • -d:f路径是目录,返回0。
  • -e:如果路径存在,则返回0。
  • -f:如果路径是文件,则返回0。
  • -s:如果路径不为空,则返回0。
  • -z:如果文件长度为零,则返回0。

例:

hadoop fs -test -e filename

text

用法:

hadoop fs -text <src>

获取源文件并以文本格式输出文件。允许的格式为zip和TextRecordInputStream。

touchz

用法:

hadoop fs -touchz URI [URI ...]

创建一个零长度的文件。

例:

hadoop fs -touchz pathname

退出代码:成功时返回0,错误时返回-1。

truncate

用法:

hadoop fs -truncate [-w] <length> <paths>

将与指定文件模式匹配的所有文件截断为指定的长度。

选项:

  • 该-w标志的要求,对块恢复命令如有必要,等待完成。如果没有-w标志,则在恢复过程中文件可能会保持未闭合一段时间。在此期间,无法重新打开文件以进行追加。

例:

hadoop fs -truncate 55 /user/hadoop/file1 /user/hadoop/file2
hadoop fs -truncate -w 127 hdfs://nn1.example.com/user/hadoop/file1

usage

用法:

hadoop fs -usage命令

返回单个命令的帮助。

转载于:https://blog.51cto.com/moerjinrong/2344690

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是Hadoop Shell命令大全: 1. hadoop fs -ls:列出HDFS上的文件和目录 2. hadoop fs -mkdir:创建一个新目录 3. hadoop fs -put:将本地文件上传到HDFS 4. hadoop fs -get:从HDFS下载文件到本地 5. hadoop fs -rm:删除HDFS上的文件或目录 6. hadoop fs -cat:查看HDFS上的文件内容 7. hadoop fs -tail:查看HDFS上文件的末尾内容 8. hadoop fs -du:查看HDFS上文件或目录的大小 9. hadoop fs -chmod:更改HDFS上文件或目录的权限 10. hadoop fs -chown:更改HDFS上文件或目录的所有者 11. hadoop fs -chgrp:更改HDFS上文件或目录的所属组 12. hadoop fs -touchz:在HDFS上创建一个空文件 13. hadoop fs -count:统计HDFS上文件或目录的数量和大小 14. hadoop fs -mv:移动HDFS上的文件或目录 15. hadoop fs -cp:复制HDFS上的文件或目录 16. hadoop fs -setrep:更改HDFS上文件或目录的副本数 17. hadoop fs -test:检查HDFS上文件或目录的存在性 18. hadoop fs -expunge:清空HDFS上的回收站 19. hadoop fs -lsr:递归列出HDFS上的文件和目录 20. hadoop fs -checksum:计算HDFS上文件的校验和 希望这些命令能够帮助您更好地使用Hadoop Shell。 ### 回答2: Hadoop是一个开源的分布式处理框架,主要用于处理大规模数据的存储和计算。Hadoop Shell是操作Hadoop集群的命令行工具,它提供了一系列的命令,可以用于管理Hadoop集群、查看HDFS文件系统等操作。下面是Hadoop Shell命令的详细介绍。 1. hdfs命令 hdfs命令可以用于管理HDFS文件系统,包括查看文件、创建文件、删除文件等操作。常用的hdfs命令有: - ls:查看HDFS文件系统的文件列表。 - mkdir:创建HDFS文件系统的目录。 - copyFromLocal:将本地文件复制到HDFS文件系统中。 - copyToLocal:将HDFS文件系统的文件复制到本地。 - rm:删除HDFS文件系统中的文件。 - chmod:修改HDFS文件系统中文件的权限。 - chown:修改HDFS文件系统中文件的所有者。 - cat:查看HDFS文件系统中文件的内容。 2. mapred命令 mapred命令可以用于管理MapReduce作业,包括提交作业、查看作业状态等操作。常用的mapred命令有: - job:查看MapReduce作业的状态。 - jobqueue:查看作业队列的状态。 - jobhistory:查看作业历史记录。 - jobkill:终止运行中的MapReduce作业。 3. dfsadmin命令 dfsadmin命令用于管理HDFS的集群,包括查看HDFS集群的状态、添加或删除节点、重新加载配置等操作。常用的dfsadmin命令有: - report:查看HDFS集群的状态。 - safemode:进入或退出安全模式。 - setSafeMode:设置安全模式阈值。 - refreshNodes:刷新HDFS集群的节点列表。 4. fsck命令 fsck命令可以用于检查HDFS文件系统的完整性和一致性。常用的fsck命令有: - fsck:检查HDFS文件系统的状态。 - list-corruptfileblocks:列出不完整的文件块。 以上就是Hadoop Shell命令的简要介绍,这些命令可以帮助用户管理Hadoop集群、操作HDFS文件系统、管理MapReduce作业等。在实际应用中,还可以结合其他工具,如Pig、Hive、Hadoop Streaming等,来处理大规模数据。 ### 回答3: HadoopshellHadoop命令行工具,可以与Hadoop进行交互。 Hadoopshell命令大全包括以下内容: 1. hdfs dfs -ls : 显示HDFS中指定路径的文件和目录列表。 2. hdfs dfs -mkdir:在HDFS中创建一个新目录。 3. hdfs dfs -put:将本地文件或目录复制到HDFS中。 4. hdfs dfs -get:将HDFS中的文件或目录复制到本地。 5. hdfs dfs -copyFromLocal:将本地文件/目录复制到HDFS中。 6. hdfs dfs -copyToLocal:将HDFS文件/目录复制到本地。 7. hdfs dfs -cp:在HDFS之间复制文件。 8. hdfs dfs -mv:在HDFS中移动文件或目录。 9. hdfs dfs -rm:从HDFS中删除指定的文件或目录。 10. hdfs dfs -du:列出指定目录或文件的大小。 11. hdfs dfs -touchz:在HDFS中创建一个空文件。 12. hdfs dfs -tail:显示HDFS中指定文件的最后几行。 13. hdfs dfs -stat:显示HDFS中指定文件/目录的详细信息。 14. hdfs dfs -chmod:改变HDFS文件/目录的权限。 15. hdfs dfs -chgrp:改变HDFS文件/目录的所属组。 16. hdfs dfs -chown:改变HDFS文件/目录的所属用户。 17. hdfs dfs -count:显示HDFS中指定目录的文件和目录的数量。 18. hdfs dfs -checksum:计算HDFS中指定文件的校验和。 19. hdfs dfs -lsr:递归显示HDFS中指定目录中的所有文件和目录。 20. hdfs dfs -expunge:清除HDFS回收站。 21. hdfs dfs -moveFromLocal:将本地文件移动到HDFS中。 22. hdfs dfs -moveToLocal:将HDFS文件移动到本地。 23. hdfs dfs -tail:显示指定文件的最后几行。 以上是Hadoopshell命令大全,这些命令可以帮助用户管理Hadoop分布式文件系统,并允许他们在Hadoop中进行基本的文件和目录操作。对于Hadoop管理员和Hadoop开发人员来说,Hadoopshell命令是非常有用的工具,在日常工作中可以帮助他们更好地管理和维护Hadoop集群。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值