有比较大的项目或者嵌套了比较多子模块的项目,如果我们网速不给力,需要反复多次下载才能成功,并且由于git不支持断点续传,开始新的下载之前要删除掉以前的目录,非常麻烦。我这里写了个简单脚本,反复试探下载某一项目,直到成功。
#!/bin/bash
AUTHOR=$1
PROJECT=$2
INFO=$3
while(true);
do
{
echo "doing..."
git clone --recursive https://github.com/$AUTHOR/$PROJECT
if [ $? -eq 0 ];then
echo "success"
break
else
echo "failed"
fi
rm -rf $PROJECT
sleep 1;
}
done
tar -zcvf $INFO-$AUTHOR-$PROJECT.tar.gz ./$PROJECT
rm -rf $PROJECT
echo "git clone recursive done..."
上述脚本我们命名为my_puill.sh。比如我们要克隆gtihub.com/hexsdr/openwifi项目,则输入
./my_pull.sh hexsdr openwifi ok_20220923
就可以,之后程序自动尝试克隆,不成功就删除目录再次尝试,直到成功clone。
脚本里面加了--recuresive是递归克隆项目涉及到所有子模块。
代码被下载后做成压缩包之后被删除。这个脚本需要输入三个参数,前两个分别是作者和项目名,后一个是自己的备注(比如例子中的ok_20220923就是22年9月23的可用备份),将出现在压缩包里。
执行成功后将有一个 ok_20220923-hexsdr-openwifi.tar.gz的压缩包。
我一直在linux系统使用,也在git for win上测试过,都没有问题。
====================================================================
下面这个脚本是新加的,使用submodule init 和submodule update .并在下载后压缩。
#!/bin/bash#!/bin/bash
AUTHOR=$1
PROJECT=$2
INFO=$3
while(true);
do
{
echo "doing clone ..."
git clone https://github.com/$AUTHOR/$PROJECT
if [ $? -eq 0 ];then
echo "clone success"
break
else
echo "clone failed"
fi
rm -rf $PROJECT
sleep 1;
}
done
cd $PROJECT
while(true);
do
{
echo "doing submodule init ..."
git submodule init
if [ $? -eq 0 ];then
echo "init success "
break
else
echo "init failed"
fi
#rm -rf $PROJECT
sleep 1;
}
done
while(true);
do
{
echo "doing submodule update ..."
git submodule update
if [ $? -eq 0 ];then
echo "update success"
break
else
echo "update failed"
fi
#rm -rf $PROJECT
sleep 1;
}
done
cd ..
tar -zcvf $INFO-$AUTHOR-$PROJECT.tar.gz ./$PROJECT
rm -rf $PROJECT
echo "git clone recursive done..."
代码被下载后做成压缩包之后被删除。这个脚本需要输入三个参数,前两个分别是作者和项目名,后一个是自己的备注,将出现在压缩包里。