SCENICpySCENIC

pySCENIC的转录因子分析及数据可视化(一)

2022-03-15  本文已影响0人  小熊_wh

参考生信技能树:pyscenic的转录因子分析结果展示之5种可视化pyscenic的转录因子分析结果展示之各个单细胞亚群特异性激活转录因子

本教程复现系列:

pySCENIC的转录因子分析及数据可视化(二)

pySCENIC的转录因子分析及数据可视化(三)

1. 安装pyscenic

对于这些陌生的软件,现在发现最好还是直接给它弄个conda小环境来折腾,不然更难折腾出来教程内容。

这一步是在linux下面操作

# 需要一些依赖,尤其是这个python 3.7版本
conda create -n pyscenic python=3.7 #创建小环境
conda activate pyscenic #激活小环境

conda install -y numpy #安装依赖
conda install -y -c anaconda cytoolz
conda install -y scanpy

# conda install pip #如果没有pip,还要运行conda install pip安装pip
pip install pyscenic -i https://mirrors.aliyun.com/pypi/simple/ #这里用阿里云镜像,嗖嗖快

2. loom 文件制备

以pbmc3k为例,降维聚类,输出csv矩阵文件。
这一步是在R里面操作

library(SeuratData) #加载seurat数据集  
#InstallData("pbmc3k") #安装pbmc3k数据
data("pbmc3k")  
sce <- pbmc3k.final   
library(Seurat)
table(Idents(sce))
p1=DimPlot(sce,label = T) 
p1

write.csv(t(as.matrix(sce@assays$RNA@counts)), file = "pbmc_3k.all.csv")

这一步会生成一个70M的pbmc_3k.all.csv文件

接下来需要在Linux操作了。写一个 Python脚本 ( csv2loom.py )把 csv格式的表达量矩阵 转为 .loom 文件。
这一步是在linux下面操作

import os, sys
os.getcwd()
os.listdir(os.getcwd()) 

import loompy as lp;
import numpy as np;
import scanpy as sc;
x=sc.read_csv("pbmc_3k.all.csv"); ## 曾老师的代码这里是x=sc.read_csv("pbmc_3k.csv");
row_attrs = {"Gene": np.array(x.var_names),};
col_attrs = {"CellID": np.array(x.obs_names)};
lp.create("pbmc_3k.loom",x.X.transpose(),row_attrs,col_attrs);

上面的脚本写了后,就可以 运行 Python脚本 ( csv2loom.py )把 csv格式的表达量矩阵 转为 .loom 文件:

#conda activate pyscenic
python csv2loom.py

这一步会生成一个6.7M的pbmc_3k.loom文件。

3. pyscenic运行

3.1 三大文件下载

但是在这之前需要提前下载好3个重要文件。

文件1:hs_hgnc_tfs.txt,https://github.com/aertslab/pySCENIC/blob/master/resources/hs_hgnc_tfs.txt

文件2: hg19-tss-centered-10kb-7species.mc9nr.feather,https://resources.aertslab.org/cistarget/databases/homo_sapiens/hg19/refseq_r45/mc9nr/gene_based/hg19-tss-centered-10kb-7species.mc9nr.feather

文件3: motifs-v9-nr.hgnc-m0.001-o0.0.tbl,https://resources.aertslab.org/cistarget/motif2tf/motifs-v9-nr.hgnc-m0.001-o0.0.tbl

第1个文件12k,第2个文件1.02G,第三个文件99M,大小一定要正确。下载时用wget,千万别用wget -c (不要问我为什么,因为我用wget -c下载的第三个文件有120M,后面一直失败)。

3.2 run_pyscenic.sh脚本编写
# 不同物种的数据库不一样,这里是人类是human 
dir=/home/data/wangxiong/project/pyscenic #改成自己的目录
tfs=$dir/TF/TFs_list/hs_hgnc_tfs.txt
feather=$dir/hg19-tss-centered-10kb-7species.mc9nr.feather
tbl=$dir/TF/TFs_annotation_motif/human_TFs/motifs-v9-nr.hgnc-m0.001-o0.0.tbl 
# 一定要保证上面的数据库文件完整无误哦 
input_loom=pbmc_3k.loom
ls $tfs  $feather  $tbl  

# pyscenic 的3个步骤之 grn
pyscenic grn \
--num_workers 20 \
--output adj.sample.tsv \
--method grnboost2 \
$input_loom  $tfs 

#pyscenic 的3个步骤之 cistarget
pyscenic ctx \
adj.sample.tsv $feather \
--annotations_fname $tbl \
--expression_mtx_fname $input_loom  \
--mode "dask_multiprocessing" \
--output reg.csv \
--num_workers 20  \
--mask_dropouts

#pyscenic 的3个步骤之 AUCell
pyscenic aucell \
$input_loom \
reg.csv \
--output out_SCENIC.loom \
--num_workers 20 

这一步会得到11M的out_SCENIC.loom文件。
最重要的三个文件如下

11M 3月  15 09:21 out_SCENIC.loom
6.7M 3月  13 20:59 pbmc_3k.loom
14M 3月  15 09:18 reg.csv
70M 3月  13 18:18 pbmc_3k.all.csv

下一步将复现pySCENIC结果初级和高级可视化。

上一篇下一篇

猜你喜欢

热点阅读