使用宏基因组的方法快速鉴定新冠病毒SARS-CoV2

使用宏基因组的方法快速鉴定新冠病毒SARS-CoV2

一、如果不考虑成本,可以使用宏基因组测序的方法来快速鉴定新冠病毒SARS-CoV2,这种方法无需扩增、分析简单、准确度高。原理是直接将测序得到的序列数据与分类物种数据库比对,从而得到鉴定结果。本文使用centrifuge工具来进行物种(病毒)分类鉴定

二、 流程概览图如下,是不是很简单?

流程概览

流程输入SRR10971381_1.fastq.gz SRR10971381_2.fastq.gz

测试数据下载
SRX7636886: Complete genome of a novel coronavirus associated with severe human respiratory disease in Wuhan, China
1 ILLUMINA (Illumina MiniSeq) run: 28.3M spots, 8G bases, 2.6Gb downloads

使用NCBI官方工具sra-toolkit拆分成fastq.gz文件 fastq-dump SRR10971381 --split-3 --gzip
得到SRR10971381_1.fastq.gz SRR10971381_2.fastq.gz

分析流程文件(可一键导入sliverworkspace运行)及报告文件,conda环境文件下载,导入操作
运行环境docker image based on ubuntu21.04 Conda Mamba(默认使用清华源) ssh
分析软件- fastp=0.23.2
- fastqc=0.11.9
- multiqc=1.13
- centrifuge=1.0.4

pavian docker 镜像
- florianbw/pavian:latest
输出结果multiqc_report.html 测序数据trim前后质量数据
SRR10971381.clean.report.tsv 分类鉴定报告文件
SRR10971381.clean.result.tsv 分类鉴定统计结果
SRR10971381.kraken2.report.tsv kraken格式的鉴定报告格式,便于pavian用来图形化交互分析
Uploaded_sample_set-report.html pivian导出的报告

环境搭建: 为了快速完成环境搭建,节省95%以上时间。

本文使用docker + conda (mamba) 作为基础分析环境,镜像获取:docker/docker-compoes 的安装及镜像构建见基于docker的生信基础环境镜像构建,docker镜像基于ubuntu21.04构建,并安装有conda/mamba,ssh服务。并尝试初次运行时初始化安装所需软件下载所需文件(作为代价首次运行时间会较长,切需网络通畅),即实现自动初始化的分析流程。

备注:docker运行的操作系统,推荐为Linux,windows,macOS系统改下docker可能部分功能(网络)不能正常运行

# 拉取docker镜像
docker     pull     doujiangbaozi/sliverworkspace:latest

# 查看docker 镜像
docker     images
基础环境配置,docker-compose.yml 配置文件,可以根据需要自行修改调整
version: "3"
services:
  SarsCov2:
    image: doujiangbaozi/sliverworkspace:latest
    container_name: SarsCov2
    volumes:
      - /media/sliver/Data/data:/opt/data:rw                               #挂载原始数据,放SC2目录下
      - /media/sliver/Manufacture/SC2/envs:/root/mambaforge-pypy3/envs:rw  #挂载envs conda环境目录
      - /media/sliver/Manufacture/SC2/config:/opt/config:rw                #挂载config conda配置文件目录
      - /media/sliver/Manufacture/SC2/ref:/opt/ref:rw                      #挂载reference目录
      - /media/sliver/Manufacture/SC2/result:/opt/result:rw                #挂载中间文件和输出结果目录
    ports:
      - "9024:9024"                                                        #ssh连接端口可以按需修改
    environment:
      - TZ=Asia/Shanghai                                                   #设置时区
      - PS=20191124                                                        #修改默认ssh密码
      - PT=9024                                                            #修改默认ssh端口

基础环境运行

# docker-compose.yml 所在目录下运行
docker-compose up -d

# 或者 
docker-compose up -d -f /路径/docker-compose.yaml

# 查看docker是否正常运行,docker-compose.yaml目录下运行
docker-compose ps

# 或者
docker ps

docker 容器使用,类似于登录远程服务器

# 登录docker,使用的是ssh服务,可以本地或者远程部署使用
ssh root@192.168.6.6 -p9024

# 看到如下,显示如下提示即正常登录
(base) root@SliverWorkstation:~# 

三. 分析流程

  1. 变量设置:

    #样本编号
    export sn=SRR10971381
    #数据输入目录
    export data=/opt/data
    #数据输出、中间文件目录
    export result=/opt/result
    #conda安装的环境目录
    export envs=/root/mambaforge-pypy3/envs
    #设置可用线程数
    export threads=8
    
  2. 数据简单过滤:

    #conda检测环境是否存在,首次运行不存在创建该环境并安装软件
    if [ ! -d "${envs}/qc" ]; then
      mamba env create -f /opt/config/qc.yaml
    fi
    
    source activate qc
    
    mkdir -p ${result}/${sn}/clean
    mkdir -p ${result}/${sn}/qc
    
    fastqc ${data}/SC2/${sn}_1.fastq.gz ${data}/SC2/${sn}_2.fastq.gz -o ${result}/${sn}/qc
    
    fastp -w ${threads} -i ${data}/SC2/${sn}_1.fastq.gz -I ${data}/SC2/${sn}_2.fastq.gz \
      -o ${result}/${sn}/clean/${sn}_1_clean.fastq.gz -O ${result}/${sn}/clean/${sn}_2_clean.fastq.gz \
      -h ${result}/${sn}/qc/${sn}_fastp.html -j ${result}/${sn}/qc/${sn}_fastp.json 
    
    fastqc ${result}/${sn}/clean/${sn}_1_clean.fastq.gz ${result}/${sn}/clean/${sn}_2_clean.fastq.gz \
      -o ${result}/${sn}/qc
    
    multiqc ${result}/${sn}/qc/ -f -o ${result}/${sn}/qc
    
    conda  deactivate
    
  3. Centrifuge 对序列进行物种鉴定

    #conda检测环境是否存在,首次运行不存在创建该环境并安装软件
    if [ ! -d "${envs}/centrifuge" ]; then
      mamba env create -f /opt/config/centrifuge.yaml
    fi
    
    source activate centrifuge
    
    if [ ! -f "/opt/ref/centrifuge-idx/hvc.4.cf" ]; then
    	mkdir  -p /opt/ref/centrifuge-idx
    	aria2c https://zenodo.org/record/3732127/files/h+v+c.tar.gz?download=1 -d /opt/ref/centrifuge-idx
    	tar -zxvf /opt/ref/centrifuge-idx/h+v+c.tar.gz "/opt/ref/centrifuge-idx"
    fi
    
    centrifuge \
      -x /opt/ref/centrifuge-idx/hvc \
      -1 ${result}/${sn}/clean/${sn}_R1.fastq.gz \
      -2 ${result}/${sn}/clean/${sn}_R2.fastq.gz \
      --report-file ${result}/${sn}/${sn}.clean.report.tsv \
      -S ${result}/${sn}/${sn}.clean.result.tsv \
      -p ${threads}
    
    conda  deactivate
    
  4. Centrifuge输出结果转换为kraken格式,便于pavian交互式分析

    source activate centrifuge
    
    centrifuge-kreport \
      -x /opt/ref/centrifuge-idx/hvc \
      ${result}/${sn}/${sn}.clean.result.tsv > ${result}/${sn}/${sn}.kraken2.report.tsv
    
    conda  deactivate
    
  5. pavian docker运行,配置docker-compose.yaml如下

    version: "3"
    services:
      pavian:
        image: florianbw/pavian:latest
        container_name: pavian
        ports:
          - "5000:80"
    

    运行docker镜像:docker-compose.yaml文件相同目录下运行:

    #运行docker镜像
    docker-compose up -d
    
    #查看docker容器运行情况,docker-compose.yaml相同目录下运行
    docker-compose ps
    
    #或者
    docker ps
    

    pavian容器运行起来之后,打开浏览器,地址栏输入http://localhost:5000,可以看到如下图:
    在这里插入图片描述

  6. 点击右侧Browse按钮,上传输出文件SRR10971381.kraken2.report.tsv

在这里插入图片描述

  1. 点击左侧按钮可以看到图形化分析结果,比对上的16.2%;没比对上的83.8%

    在这里插入图片描述

  2. 点击左侧Sample可以看到桑基图如下:Severe acute respiratory syndrome-related coronavirus 59.5k,结果很明显了。

    在这里插入图片描述

  3. 可以点击左侧Generate HTML report导出该报告: Uploaded_sample_set-report.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值