Linux常用基本命令之文件目录类

文件目录

pwd 显示当前工作目录的绝对路径

基本语法:

pwd (功能描述:显示当前工作目录的绝对路径)

[root@hadoop101 ~]# pwd
/root
[root@hadoop101 ~]# cd /mnt
[root@hadoop101 mnt]# pwd
/mnt
[root@hadoop101 mnt]# 

 

ls 列出目录的内容

基本语法:

ls [选项] [目录或是文件]    list

选项:

-a :all,全部的文件,连同隐藏的文档( 开头为 . 的文件) 一起列出来(常用)

-l :长数据串列出,包含文件的属性与权限等等数据;(常用)

 每行列出的信息依次是: 文件类型与权限 链接数 文件属主 文件属组 文件大小用byte来表示 建立或最近修改的时间 名字

ls -l 命令与ll命令相同,ls -al与这两个命令功能差不多,不过会将隐藏文件也展示出来.


[root@hadoop101 mnt]# ls -l
总用量 17
dr-xr-xr-x. 1 root root 4192 2月  16 11:02 hgfs
drwxr-xr-x. 2 root root 4096 2月  12 10:49 module
drwxr-xr-x. 2 root root 4096 2月  12 10:22 mycdrom
drwxr-xr-x. 2 root root 4096 2月  12 10:50 software
[root@hadoop101 mnt]# ll
总用量 17
dr-xr-xr-x. 1 root root 4192 2月  16 11:02 hgfs
drwxr-xr-x. 2 root root 4096 2月  12 10:49 module
drwxr-xr-x. 2 root root 4096 2月  12 10:22 mycdrom
drwxr-xr-x. 2 root root 4096 2月  12 10:50 software
[root@hadoop101 mnt]# ls -al
总用量 25
drwxr-xr-x.  6 root root 4096 2月  12 10:45 .
dr-xr-xr-x. 27 root root 4096 2月  16 09:52 ..
dr-xr-xr-x.  1 root root 4192 2月  16 11:02 hgfs
drwxr-xr-x.  2 root root 4096 2月  12 10:49 module
drwxr-xr-x.  2 root root 4096 2月  12 10:22 mycdrom
drwxr-xr-x.  2 root root 4096 2月  12 10:50 software

 

mkdir 创建一个新的目录

基本语法:

mkdir [-p] 要创建的目录

选项:

-p:创建多层目录

创建多层目录的时候,一定要加上-p,不然会报错

[root@hadoop101 test]# ll
总用量 0
[root@hadoop101 test]# mkdir dada
[root@hadoop101 test]# ll
总用量 4
drwxr-xr-x. 2 root root 4096 2月  16 11:06 dada
[root@hadoop101 test]# mkdir wawa/dong
mkdir: 无法创建目录"wawa/dong": 没有那个文件或目录
[root@hadoop101 test]# mkdir -p wawa/dong
[root@hadoop101 test]# ll
总用量 8
drwxr-xr-x. 2 root root 4096 2月  16 11:06 dada
drwxr-xr-x. 3 root root 4096 2月  16 11:07 wawa

rmdir 删除一个的目录(了解) remove dir

基本语法:

rmdir 要删除的空目录,remove 即移除

rmdir只能删除目录,不能删除文件,并且只能删除空目录.rm可以删除文件,也可以删除目录.加上-rf可以删除非空目录

[root@hadoop101 test]# rmdir dada
[root@hadoop101 test]# ll
总用量 4
drwxr-xr-x. 3 root root 4096 2月  16 11:12 wawa
[root@hadoop101 test]# rmdir wawa
rmdir: 删除 "wawa" 失败: 目录非空
[root@hadoop101 test]# rm wawa
rm: 无法删除"wawa": 是一个目录
[root@hadoop101 test]# rm -rf wawa
[root@hadoop101 test]# ll
总用量 0

 

touch 创建空文件

基本语法:

touch 文件名称(可以创建一个空的文件)

[root@hadoop101 test]# touch 111.txt
[root@hadoop101 test]# cat 111.txt
[root@hadoop101 test]# 

 

cd 切换目录

基本语法:

  1. cd 绝对路径
  2. cd 相对路径
  3. cd ~或者cd (功能描述:回到自己的家目录)
  4. cd - (功能描述:回到上一次所在目录)
  5. cd .. (功能描述:回到当前目录的上一级目录)
  6. cd . (功能描述:回到当前目录)

.即一个英文点号代表当前目录,..即两个英文点号代表上一级目录。

1.使用 mkdir 命令创建hadoop目录

[root@hadoop101 ~]# mkdir hadoop

2.使用绝对路径切换到hadoop目录

[root@hadoop101 ~]# cd /root/hadoop/
[root@hadoop101 hadoop]#

3.使用相对路径切换到hadoop目录

[root@hadoop101 ~]# pwd
/root
[root@hadoop101 ~]# cd ./hadoop/
[root@hadoop101 hadoop]# 

4.表示回到自己的家目录,亦即是 /root 这个目录

[root@hadoop101 hadoop]# cd ~
[root@hadoop101 ~]# pwd
/root
[root@hadoop101 ~]# 

5.cd- 回到上一次所在目录

[root@hadoop101 ~]# cd -
/root/hadoop
[root@hadoop101 hadoop]# 

6.表示回到当前目录的上一级目录,亦即是 /root 的上一级目录的意思;

[root@hadoop101 hadoop]# pwd
/root/hadoop
[root@hadoop101 hadoop]# cd ..
[root@hadoop101 ~]# pwd
/root
[root@hadoop101 ~]# 

cp 复制文件或目录

基本语法:

  1. cp source dest (功能描述:复制source文件到dest)
  2. cp -r sourceFolder targetFolder (功能描述:递归复制整个文件夹)

注意:r即recursive递归,这里是递归拷贝,将该目录以及所有子目录(包括再多的子目录)下的所有文件即文件夹都拷贝

  复制文件(将111.txt复制到dada目录中)

[root@hadoop101 test]# ll
总用量 8
-rw-r--r--. 1 root root    0 2月  16 11:17 111.txt
drwxr-xr-x. 2 root root 4096 2月  16 11:30 dada
drwxr-xr-x. 3 root root 4096 2月  16 11:31 wawa
[root@hadoop101 test]# cp 111.txt dada
[root@hadoop101 test]# ll
总用量 8
-rw-r--r--. 1 root root    0 2月  16 11:17 111.txt
drwxr-xr-x. 2 root root 4096 2月  16 11:31 dada
drwxr-xr-x. 3 root root 4096 2月  16 11:31 wawa
[root@hadoop101 test]# cd dada
[root@hadoop101 dada]# ll
总用量 0
-rw-r--r--. 1 root root 0 2月  16 11:31 111.txt

 递归复制整个文件夹(将wawa文件夹复制到dada文件夹中,其中wawa文件夹非空)

[root@hadoop101 test]# cp -r wawa dada
[root@hadoop101 test]# ll
总用量 8
-rw-r--r--. 1 root root    0 2月  16 11:17 111.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:32 dada
drwxr-xr-x. 3 root root 4096 2月  16 11:31 wawa
[root@hadoop101 test]# cd dada
[root@hadoop101 dada]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:31 111.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:32 wawa

将wakaka文件夹复制到dada目录中,其中wakaka文件夹为空文件夹

由下图的结果可以看出,即便复制的文件夹是空的,也要加上-r,不然cp:略过目录"wakaka",复制不会成功.

[root@hadoop101 test]# ll
总用量 12
-rw-r--r--. 1 root root    0 2月  16 11:17 111.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:36 dada
drwxr-xr-x. 2 root root 4096 2月  16 11:36 wakaka
drwxr-xr-x. 3 root root 4096 2月  16 11:31 wawa
[root@hadoop101 test]# cp wakaka dada
cp: 略过目录"wakaka"
[root@hadoop101 test]# cd dada
[root@hadoop101 dada]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:31 111.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:32 wawa
[root@hadoop101 dada]# 

总结:复制文件到某个目录,正常操作就行.复制目录到某个目录,就要加上-r,即便要复制的目录是空目录,也要加上-r

rm 移除文件或目录 remove

基本语法

  1. rmdir deleteEmptyFolder (功能描述:删除空目录),缺点:只能删除空目录。
  2. rm -rf deleteFile (功能描述:递归删除目录中所有内容)慎用(这个命令怎么说呢,又强大又危险,谨慎使用.)

案例

删除空目录

[root@hadoop101 test]# rmdir wakaka

递归删除目录中所有内容

[root@hadoop101 test]# rmdir wawa
rmdir: 删除 "wawa" 失败: 目录非空
[root@hadoop101 test]# rm wawa
rm: 无法删除"wawa": 是一个目录
[root@hadoop101 test]# rm -rf wawa

mv 移动文件与目录或重命名

基本语法:

  1. mv oldNameFile newNameFile (功能描述:重命名)
  2. mv /temp/movefile /targetFolder (功能描述:递归移动文件)

案例:

重命名

[root@hadoop101 test]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:17 111.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:36 dada
[root@hadoop101 test]# mv 111.txt 222.txt
[root@hadoop101 test]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:17 222.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:36 dada

移动文件

[root@hadoop101 test]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:17 222.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:36 dada
[root@hadoop101 test]# mv 222.txt dada
[root@hadoop101 test]# ll
总用量 4
drwxr-xr-x. 3 root root 4096 2月  16 11:56 dada
[root@hadoop101 test]# cd dada
[root@hadoop101 dada]# ll
总用量 4
-rw-r--r--. 1 root root    0 2月  16 11:31 111.txt
-rw-r--r--. 1 root root    0 2月  16 11:17 222.txt
drwxr-xr-x. 3 root root 4096 2月  16 11:32 wawa
[root@hadoop101 dada]# 

cat 查看文件内容

查看文件内容,从第一行开始显示。

适合查看小文件,行数比较少的文件,通常用来查看配置文件。

基本语法

cat  [选项] 要查看的文件

选项:

-A :相当于 -vET 的整合选项,可列出一些特殊字符而不是空白而已;

-b :列出行号,仅针对非空白行做行号显示,空白行不标行号!

-E :将结尾的断行字节 $ 显示出来;

-n :列出行号,连同空白行也会有行号,与 -b 的选项不同;

-T :将 [tab] 按键以 ^I 显示出来;

-v :列出一些看不出来的特殊字符

案例

[root@hadoop101 myhomework]# cat para2.sh
#!/bin/bash
for i in "$*"
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"
x=$(($x+1))
done
[root@hadoop101 myhomework]# cat -A para2.sh
#!/bin/bash$
for i in "$*"$
do$
echo "The parameters is:$i"$
done$
$
x=1$
for y in "$@"$
do$
echo "The parameters is:$y"$
x=$(($x+1))$
done$

 

面试题:查看CentOS版本命令

[root@hadoop101 myhomework]# cat /etc/redhat-release 
CentOS release 6.8 (Final)

 

tac查看文件内容

查看文件内容,从最后一行开始显示,按行倒序显示,可以看出 tac 是 cat 的倒着写

基本语法:

tac  [选项参数] 要查看的文件

案例

[root@hadoop101 myhomework]# cat para.sh
#!/bin/bash
echo "$0 $1 $2"
echo "$*"
echo "$@"
echo "$#"
[root@hadoop101 myhomework]# tac para.sh
echo "$#"
echo "$@"
echo "$*"
echo "$0 $1 $2"
#!/bin/bash
[root@hadoop101 myhomework]# 

 

more 查看文件内容

查看文件内容,一页一页的显示文件内容。(查看一些比较长的文件)

基本语法:

more 要查看的文件

功能使用说明:

空白键 (space):代表向下翻一页;

Enter:代表向下翻『一行』;

q代表立刻离开 more ,不再显示该文件内容。

Ctrl+F (注意是大写)向下滚动一屏 front

Ctrl+B 返回上一屏 back

= 输出当前行的行号

可以调用vi编辑器 按下v即可,退出:先按下esc 然后:q  在i编辑器的操作跟我们之前的vi是一样的。

案例

使用more查看小文件

这个指令一般用来查看一些大文件,查看小文件大材小用了,小文件可以用cat来查看(下图是查看小文件,可以看到它根本无法展示自身优势)

[root@hadoop101 myhomework]# more para2.sh
#!/bin/bash
for i in "$*"
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"
x=$(($x+1))
done

使用more查看大文件

此时就可以使用空白键,enter,q等命令,去更加方便灵活的查看大文件的内容.

[root@hadoop101 myhomework]# more setting.xml
<?xml version="1.0" encoding="UTF-8"?>

<!--
Licensed to the Apache Software Foundation (ASF) under one
or more contributor license agreements.  See the NOTICE file
distributed with this work for additional information
regarding copyright ownership.  The ASF licenses this file
to you under the Apache License, Version 2.0 (the
"License"); you may not use this file except in compliance
with the License.  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing,
software distributed under the License is distributed on an
"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
KIND, either express or implied.  See the License for the
specific language governing permissions and limitations
under the License.
-->

--More--(7%)

less 查看文件内容

less 的作用与 more 十分相似,都可以用来浏览文字档案的内容,不同的是 less 允许使用[pageup] [pagedown]往回滚动。

基本语法:

less 要查看的文件

功能使用说明

空白键   :向下翻动一页;

[pagedown]:向下翻动一页;

[pageup] :向上翻动一页;

/字串    :向下搜寻『字串』的功能;n:向下查找;N:向上查找;

?字串    :向上搜寻『字串』的功能;n:向上查找;N:向下查找;

q        :离开 less 这个程序;

(3)案例

查看小文件

[root@hadoop101 myhomework]# less para2.sh






















#!/bin/bash
for i in "$*"
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"
x=$(($x+1))
done
para2.sh (END) 

less查看大文件

[root@hadoop101 myhomework]# less setting.xml






















<?xml version="1.0" encoding="UTF-8"?>

<!--
Licensed to the Apache Software Foundation (ASF) under one
or more contributor license agreements.  See the NOTICE file
distributed with this work for additional information
regarding copyright ownership.  The ASF licenses this file
to you under the Apache License, Version 2.0 (the
"License"); you may not use this file except in compliance
with the License.  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing,
software distributed under the License is distributed on an
"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
KIND, either express or implied.  See the License for the
specific language governing permissions and limitations
under the License.
-->

setting.xml 

这个less有点儿奇怪,无论什么文件,前面都有一片空白不知道为啥

head查看文件内容

查看文件内容,只看头几行,优点:对于大文件不必都加载,只显示头几行即可。

基本语法

head -n 10 文件      (功能描述:查看文件头10行内容,10可以是任意行数)

案例

不加-n默认查看前10行

[root@hadoop101 myhomework]# head para2.sh
#!/bin/bash
for i in "$*"
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"

加上-n 数字 可以修改查看行数

[root@hadoop101 myhomework]# head -n 3 para2.sh
#!/bin/bash
for i in "$*"
do

如果行数超出文档行数,将显示全部文档

[root@hadoop101 myhomework]# head -n 100 para2.sh
#!/bin/bash
for i in "$*"
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"
x=$(($x+1))
done

tail 查看文件内容(与head相反,查看倒着数多少多少行)

不要使用共享文件夹里面的文件做测试,会无法定位(即出现下图所示错误)

查看文件内容,只看尾巴几行,优点:可以查看文件实时追加的内容。

(1)基本语法

  1. tail  -n 10 文件  (功能描述:查看文件头(从末尾开始数)10行内容,10可以是任意行数)
  2. tail  -f  文件 (功能描述:实时追踪该文档的所有更新)
  3. tail -f   文件

    等同于--follow=descriptor,根据文件描述符进行追踪,当文件改名或被删除,追踪停止
  4. tail -F   文件

    等同于--follow=name  --retry,根据文件名进行追踪,并保持重试,即该文件被删除或改名后,如果再次创建相同的文件名,会继续追踪

案例

查看文件头1行内容(tail不加参数,显示后十行)

[root@hadoop103 myhomework]# cat -n para2.sh
     1	#!/bin/bash
     2	for i in "$*"
     3	do
     4	echo "The parameters is:$i"
     5	done
     6	
     7	x=1
     8	for y in "$@"
     9	do
    10	echo "The parameters is:$y"
    11	x=$(($x+1))
    12	done
[root@hadoop103 myhomework]# tail para2.sh
do
echo "The parameters is:$i"
done

x=1
for y in "$@"
do
echo "The parameters is:$y"
x=$(($x+1))
done
[root@hadoop103 myhomework]# tail -n 1 para2.sh
done
[root@hadoop103 myhomework]# 

实时追踪该档的所有更新,可用后边的crontab定时追加内容验证一下

[root@hadoop101 ~]# service crond restart
停止 crond:                                               [确定]
正在启动 crond:                                           [确定]
[root@hadoop101 ~]# crontab -e

*/1 * * * * /bin/echo `date` >> /tmp/test
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
"/tmp/crontab.GiBx3F" 1L, 42C
[root@hadoop101 ~]# tail -f /tmp/test
2020年 02月 22日 星期六 15:06:01 CST
2020年 02月 22日 星期六 15:07:01 CST

重定向命令

(1)基本语法:

  1. ls -l >a.txt文件 (功能描述:列表的内容写入文件a.txt中(覆盖写))
  2. ls -al >>a.txt文件 (功能描述:列表的内容追加到文件aa.txt的末尾)

(2)案例

  1. [root@hadoop003 opt]# ls -l>t.txt
  2. [root@hadoop003 opt]# ls -l>>t.txt
[root@hadoop101 myhomework]# cat helloworld.sh 
-rw-r--r--. 1 root root 129 2月  12 20:17 para2.sh
[root@hadoop101 myhomework]# echo dada > helloworld.sh 
[root@hadoop101 myhomework]# cat helloworld.sh 
dada
[root@hadoop101 myhomework]# echo lalalalalala >> helloworld.sh 
[root@hadoop101 myhomework]# cat helloworld.sh 
dada
lalalalalala
[root@hadoop101 myhomework]# 

3、[root@hadoop003 test1]# echo hello>>test1.java

echo

(1)基本语法:

  1. echo 要显示的内容 >> 存储内容的的文件 (功能描述:将要显示的内容,存储到文件中)
  2. echo 变量 (功能描述:显示变量的值)

(2)案例

[root@hadoop003 test1]# echo $JAVA_HOME

/opt/module/jdk1.8.0_144

ln软链接(相当于创建快捷方式)

(1)基本语法:

ln -s [原文件] [目标文件] (功能描述:给原文件创建一个软链接,软链接存放在目标文件目录)

删除软链接(如果是文件夹的话,要注意没有最后的/): rm -rf hadoop,而不是rm -rf hadoop/

(2)案例:

给文件创建软连接

[root@hadoop003 module]# ln -s /opt/module/test.txt /opt/t.txt

[root@hadoop101 opt]# ll
总用量 16
-rw-r--r--. 1 root root  136 2月  18 10:47 hello.txt
drwxr-xr-x. 4 root root 4096 2月  13 21:30 module
drwxr-xr-x. 2 root root 4096 3月  26 2015 rh
drwxr-xr-x. 2 root root 4096 2月  18 14:11 software
[root@hadoop101 opt]# ln -s /opt/hello.txt /opt/test
[root@hadoop101 opt]# ll
总用量 16
-rw-r--r--. 1 root root  136 2月  18 10:47 hello.txt
drwxr-xr-x. 4 root root 4096 2月  13 21:30 module
drwxr-xr-x. 2 root root 4096 3月  26 2015 rh
drwxr-xr-x. 2 root root 4096 2月  18 14:11 software
lrwxrwxrwx. 1 root root   14 2月  22 15:27 test -> /opt/hello.txt
[root@hadoop101 opt]# 
[root@hadoop101 opt]# vi hello.txt

hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
~                                                                                                     
"hello.txt" [noeol][dos] 12L, 136C
[root@hadoop101 opt]# vi test

hello world
ot@hadoop101 opt]# vi hello.txt

hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
hello world
bigdata bigdata
hadoop
spark
~
~
~
~
~
~
"test" [dos] 36L, 1280C

给文件夹创建一个软链接

[hadoop@hadoop003 opt]$ ln -s /opt/module/hadoop-2.7.2/ /opt/software/hadoop

    1.(需要创建软链接的文件夹,一开始就存在)  2.(创建的软链接一开始不存在,直接写即可)

    3.两者都需要是全路径

cd不加参数进入是软链接的地址

[hadoop@hadoop003 software]$ cd hadoop

[hadoop@hadoop003 hadoop]$ pwd

/opt/software/hadoop

cd加参数进入是实际的物理地址

4.进入物理地址时,也需要写全路径(详情参考下图)

[hadoop@hadoop003 software]$ cd -P hadoop

[hadoop@hadoop003 hadoop-2.7.2]$ pwd

/opt/module/hadoop-2.7.2

[root@hadoop101 opt]# ll
总用量 16
lrwxrwxrwx. 1 root root   12 2月  22 15:36 dada -> /opt/module/
-rw-r--r--. 1 root root 1280 2月  22 15:33 hello.txt
drwxr-xr-x. 4 root root 4096 2月  13 21:30 module
drwxr-xr-x. 2 root root 4096 3月  26 2015 rh
drwxr-xr-x. 2 root root 4096 2月  18 14:11 software
lrwxrwxrwx. 1 root root   14 2月  22 15:27 test -> /opt/hello.txt
[root@hadoop101 opt]# cd dada
[root@hadoop101 dada]# pwd
/opt/dada
[root@hadoop101 dada]# cd ..
[root@hadoop101 opt]# cd -P dada
[root@hadoop101 module]# pwd
/opt/module
[root@hadoop101 module]# 

history查看所敲命令历史

(1)基本语法:

history

(2)案例

[root@hadoop003 test1]# history

[root@hadoop101 myhomework]# history 10
 1033  ll para2.sh >> helloworld.sh 
 1034  cat helloworld.sh 
 1035  ll para2.sh > helloworld.sh 
 1036  cat helloworld.sh 
 1037  echo dada > helloworld.sh 
 1038  cat helloworld.sh 
 1039  echo lalalalalala >> helloworld.sh 
 1040  cat helloworld.sh 
 1041  history
 1042  history 10
[root@hadoop101 myhomework]# 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值