學徒跟著B站ATAC-seq視頻5天完成流程

2021-02-24 生信技能樹
最近刷視頻看到了b站jimmy老師又更新了ATAC-seq系列教學指引,趕緊花幾天時間follow了一遍!

而且把我自己學習筆記分享給大家,視頻的話,文末的閱讀原文直達免費學習哈!雖然視頻錄製是兩年前,但是絲毫不影響學習體驗!背景知識 真核生物的核DNA並不是裸露的,而是與組蛋白結合形成染色體的基本結構單位核小體,核小體再經逐步的壓縮摺疊最終形成染色體高級結構(如人的DNA鏈完整展開約2m長,經過這樣的摺疊就變成了納米級至微米級的染色質結構而可以儲存在小小的細胞核)。而DNA的複製轉錄是需要將DNA的緊密結構打開,從而允許一些調控因子結合(轉錄因子或其他調控因子)。這部分打開的染色質,就叫開放染色質,打開的染色質允許其他調控因子結合的特性稱為染色質的可及性(chromatin accessibility)。因此,認為染色質的可及性與轉錄調控密切相關。ATAC則是 原理是通過轉座酶Tn5容易結合在開放染色質的特性,然後對Tn5酶捕獲到的DNA序列進行測序。來源自簡書第1篇:ATAC-seq的背景介紹以及與ChIP-Seq的異同優勢 實驗設計 實戰流程 注意一些黑名單(微衛星序列,重複序列),去除掉不要當做peaks1.數據下載 通過SRP055881 下載原始數據,獲得sraruntable與accession list,找到樣本對應的信息(例如樣本名,分組等)通過ascp下載,因為樣本量太大,這裡只做一部分(4個)

cat >srrlist.txt
/sra/sra-instant/reads/ByRun/sra/SRR/SRR292/SRR2927015/SRR2927015.sra
/sra/sra-instant/reads/ByRun/sra/SRR/SRR292/SRR2927016/SRR2927016.sra
/sra/sra-instant/reads/ByRun/sra/SRR/SRR354/SRR3545580/SRR3545580.sra
/sra/sra-instant/reads/ByRun/sra/SRR/SRR292/SRR2927018/SRR2927018.sra

然後使用下面的命令高速下載(需要注意的是ascp有時候會失效)

nohup /home/xlfang/.aspera/connect/bin/ascp -T -l 200M -P 33001 -i ~/.aspera/connect/etc/asperaweb_id_dsa.openssh -T --mode recv --host  ftp-private.ncbi.nlm.nih.gov --user anonftp --file-list ./srrlist.txt  ./ & ##3803

奇怪的是SRR292開頭的數據沒有對應的下載連結,SRR354有

nohup /home/xlfang/.aspera/connect/bin/ascp -T -P 33001 -i ~/.aspera/connect/etc/asperaweb_id_dsa.openssh -k 1 -l 200m anonftp@ftp-private.ncbi.nlm.nih.gov:/sra/sra-instant/reads/ByRun/sra/SRR/SRR354/SRR3545580/SRR3545580.sra ./ &

cat >fq.txt
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/005/SRR2927015/SRR2927015_1.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/005/SRR2927015/SRR2927015_2.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/006/SRR2927016/SRR2927016_1.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/006/SRR2927016/SRR2927016_2.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/008/SRR2927018/SRR2927018_1.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR292/008/SRR2927018/SRR2927018_2.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR354/000/SRR3545580/SRR3545580_1.fastq.gz
fasp.sra.ebi.ac.uk:/vol1/fastq/SRR354/000/SRR3545580/SRR3545580_2.fastq.gz

cat >fq.command
cat fq.txt|while read id  
do ( ascp -QT -l 300m -P33001 -i ~/.aspera/connect/etc/asperaweb_id_dsa.openssh  era-fasp@$id ./ )
done

ls -lh *fastq.gz|cut -d " " -f 5-
2.5G Apr 10 11:15 SRR2927015_1.fastq.gz
2.4G Apr 10 11:20 SRR2927015_2.fastq.gz
3.2G Apr 10 11:26 SRR2927016_1.fastq.gz
3.5G Apr 10 11:32 SRR2927016_2.fastq.gz
1.1G Apr 10 11:34 SRR2927018_1.fastq.gz
1.2G Apr 10 11:36 SRR2927018_2.fastq.gz
4.1G Apr 10 11:44 SRR3545580_1.fastq.gz
4.6G Apr 10 11:52 SRR3545580_2.fastq.gz

2.質檢 trim

###conda activate rna
###fastqc
nohup fastqc -t 2 -o ./ ./*.fastq.gz &
###multiqc
multiqc ./*zip -o ./
###trim
for i in `ls *_1.fastq.gz`
do
i=${i/_1.fastq.gz/}
echo "trim_galore --phred33 -q 25 --length 35 --stringency 4 -e 0.1 --fastqc --paired -o ../2.clean ${i}_1.fastq.gz ${i}_2.fastq.gz" 
done > trim_galore.command
cat trim_galore.command

3.bowtie2比對 質檢完成後就需要用bowtie2去比對,第一步需要構建索引。官網有構建好的常見物種的索引(人,小鼠,斑馬魚等)就可以直接下載用,如果是非模式生物就需要自己構建(不推薦)

###下載小鼠的mm10基因索引
nohup wget -4 -q ftp://ftp.ccb.jhu.edu/pub/data/bowtie2_indexes/mm10.zip &
ls -lh|cut -d " " -f 5-
#3.2G Apr 11 03:14 mm10.zip 大小為3.2G
unzip mm10.zip ##解壓

第一部分 bowtie2進行比對

cd 2.clean
## 相對目錄需要理解
index=/zju/phf5a/data/bwindex/mm10
## 一定要搞清楚自己的bowtie2軟體安裝在哪裡,以及自己的索引文件在什麼地方!!!
#conda activate rna
for i in `ls *_1_val_1.fq.gz`
do
i=${i/_1_val_1.fq.gz/}
echo "bowtie2 -p 2  --very-sensitive -X 2000 -x  ${index} -1 ${i}_1_val_1.fq.gz -2 ${i}_2_val_2.fq.gz |samtools sort  -O bam  -T ${i} -@ 2 -o - > ${i}.raw.bam"
done > mapping.command

這裡一直報錯。。。(ERR): bowtie2-align exited with value 141後來才發現原來是bowtie2版本問題,升級一下版本,就不會報錯了(https://www.biostars.org/p/229653/);另外samtools排序需要 -T 參數加前綴,不然也會報錯8個樣本居然比對了24小時,看來確實是very sensitive了。。(其實主要是sam文件轉為bam文件的時候非常慢)排序好的bam文件如下

ls -lh *raw.bam|cut -d " " -f 5-
3.7G Apr 11 22:55 SRR2927015.raw.bam
4.6G Apr 12 07:19 SRR2927016.raw.bam
1.7G Apr 12 09:50 SRR2927018.raw.bam
5.4G Apr 12 19:23 SRR3545580.raw.bam

第二部分 sambamba去重對ATAC-seq數據來說,大部分教程都推薦去除PCR重複,所以我們加上這個步驟:

conda activate rna
for i in `ls *.raw.bam`
do
i=${i/.raw.bam/}
echo " samtools index ${i}.raw.bam | bedtools bamtobed -i ${i}.raw.bam  > ${i}.raw.bed|samtools flagstat ${i}.raw.bam  > ${i}.raw.stat|sambamba markdup --overflow-list-size 600000  --tmpdir='./'  -r ${i}.raw.bam ${i}.rmdup.bam |samtools index ${i}.rmdup.bam"
done > rmdup.command

###
## ref:https://www.biostars.org/p/170294/ 
## Calculate %mtDNA:
mtReads=$(samtools idxstats  ${i}.rmdup.bam | grep 'chrM' | cut -f 3)
totalReads=$(samtools idxstats  ${i}.rmdup.bam | awk '{SUM += $3} END {print SUM}')
echo '==> mtDNA Content:' $(bc <<< "scale=2;100*$mtReads/$totalReads")'%'
echo "samtools flagstat  ${i}.rmdup.bam > ${i}.rmdup.stat|samtools view  -h  -f 2 -q 30    ${i}.rmdup.bam |grep -v chrM |samtools sort  -O bam  -@ 2 -o - > ${i}.last.bam|samtools index  ${i}.last.bam|samtools flagstat  ${i}.last.bam > ${i}.last.stat|bedtools bamtobed -i ${i}.last.bam  > ${i}.bed"

8個樣本大概運行了2個小時,結果如下,可以看到去重後的bam文件比原bam文件小得多

cat SRR3545580.raw.stat
# 105342880 + 0 in total (QC-passed reads + QC-failed reads)
# 0 + 0 secondary
# 0 + 0 supplementary
# 0 + 0 duplicates
# 103697403 + 0 mapped (98.44%:-nan%)
# 105342880 + 0 paired in sequencing
# 52671440 + 0 read1
# 52671440 + 0 read2
# 100212070 + 0 properly paired (95.13%:-nan%)
# 103230528 + 0 with itself and mate mapped
# 466875 + 0 singletons (0.44%:-nan%)
# 477956 + 0 with mate mapped to a different chr
# 18927 + 0 with mate mapped to a different chr (mapQ>=5)

QC pass的reads的數量為105342880,未通過QC的reads數量為0,意味著一共有105342880條reads;重複reads的數量,QC pass和failed一對reads都比對到了參考序列上的數量,但是並不一定比對到同一條染色體上;一對reads比對到不同染色體的且比對質量值大於5的數量。見[https://www.biostars.org/p/149883/]第三部分 獲取只比對到常染色體上的高質量序列其實就是去除在chrM染色體的reads,代碼如下:

for i in `ls *.raw.bam`
do
i=${i/.raw.bam/}
mtReads=$(samtools idxstats  ${i}.rmdup.bam | grep 'chrM' | cut -f 3)
totalReads=$(samtools idxstats  ${i}.rmdup.bam | awk '{SUM += $3} END {print SUM}')
echo '==> mtDNA Content:' $(bc <<< "scale=2;100*$mtReads/$totalReads")'%'
echo " samtools flagstat  ${i}.rmdup.bam > ${i}.rmdup.stat|samtools view  -h  -f 2 -q 30 ${i}.rmdup.bam   |grep -v chrM |samtools sort -O bam  -T ${i} -@ 2 -o - > ${i}.last.bam|samtools index ${i}.last.bam|samtools flagstat ${i}.last.bam > ${i}.last.stat"
done > quality.command

可以看到線粒體DNA含量確實很高,差不多佔%20。需要去除掉,不然對結果造成線粒體汙染!

for i in `ls *.raw.bam`
do
i=${i/.raw.bam/}
echo "bedtools bamtobed -i ${i}.last.bam> ${i}.bed "
done > bed.command

ls -lh *.bed|cut -d " " -f 5-
247M Apr 14 16:40 SRR2927015.bed
352M Apr 14 16:41 SRR2927016.bed
211M Apr 14 16:41 SRR2927018.bed
264M Apr 14 16:41 SRR3545580.bed

跟Jimmy老師的結果比起來,平均要大10M。。不知道為什麼4. MACS2找peak 安裝 MACS2這裡注意MACS2只支持python3.6以上版本,注意版本環境!!

conda create -n actc python=3 ###重新創建爬蟲3的環境
conda activate actc
conda install -c bioconda macs2
macs2 -h##能調用就說明沒有問題

運行

conda activate atac
cat >macs2.command
ls *.bed | while read id ;do (macs2 callpeak -t $id  -g mm --nomodel --shift  -100 --extsize 200  -n ${id%%.*} --outdir ../3.macs2/) ;done 
###參數含義

ls -lh|cut -d " " -f 5-
# 644K Apr 14 17:06 SRR2927015_peaks.narrowPeak
# 704K Apr 14 17:06 SRR2927015_peaks.xls
# 441K Apr 14 17:06 SRR2927015_summits.bed
# 1.2M Apr 14 17:07 SRR2927016_peaks.narrowPeak
# 1.3M Apr 14 17:07 SRR2927016_peaks.xls
# 835K Apr 14 17:07 SRR2927016_summits.bed
# 374K Apr 14 17:07 SRR2927018_peaks.narrowPeak
# 409K Apr 14 17:07 SRR2927018_peaks.xls
# 256K Apr 14 17:07 SRR2927018_summits.bed
# 1.1M Apr 14 17:07 SRR3545580_peaks.narrowPeak
# 1.2M Apr 14 17:07 SRR3545580_peaks.xls
# 714K Apr 14 17:07 SRR3545580_summits.bed

其中的excel文件就是結果了,可以看見前幾行是運行命令及信息,後面從左到右分別是染色體,peak的起始終止位置,長度,峰值位置,高度,pvalue值記憶富集程度5.統計indel插入長度的分布 在上一部生成的bam文件的第9列,就是插入indel的長度啦,需要將4個bam的第9列取出來

conda activate rna
ls  *.last.bam >1
ls  *.last.stat >2
paste 1 2 >config_bam
 cat config_bam 
#SRR2927015.last.bam    SRR2927015.last.stat
#SRR2927016.last.bam    SRR2927016.last.stat
#SRR2927018.last.bam    SRR2927018.last.stat
#SRR3545580.last.bam    SRR3545580.last.stat
###bash腳本
cat >length.sh
cat config_bam |while read id;
do
arr=($id)
sample=${arr[0]}
sample_name=${arr[1]}
samtools view $sample |awk '{print $9}'  > ${sample_name}_length.txt
done

ls -lh *last.stat_length.txt
-rw-rw-r-- 1 xlfang xlfang 22M Apr 16 10:48 SRR2927015.last.stat_length.txt
-rw-rw-r-- 1 xlfang xlfang 32M Apr 16 10:49 SRR2927016.last.stat_length.txt
-rw-rw-r-- 1 xlfang xlfang 19M Apr 16 10:49 SRR2927018.last.stat_length.txt
-rw-rw-r-- 1 xlfang xlfang 24M Apr 16 10:49 SRR3545580.last.stat_length.txt

indel_length_distribution.R
cmd=commandArgs(trailingOnly=TRUE); 
input=cmd[1]; output=cmd[2]; 
a=abs(as.numeric(read.table(input)[,1])); 
png(file=output);
hist(a,
main="Insertion Size distribution",
ylab="Read Count",xlab="Insert Size",
xaxt="n",
breaks=seq(0,max(a),by=10)
); 

axis(side=1,
at=seq(0,max(a),by=100),
labels=seq(0,max(a),by=100)
);

dev.off() 

ls *last.stat_length.txt >3
ls *last.stat_length.txt|cut -d "." -f 1-3>4
paste 3 4 >config.indel_length_distribution
cat config.indel_length_distribution
# SRR2927015.last.stat_length.txt    SRR2927015.last.stat_length
# SRR2927016.last.stat_length.txt    SRR2927016.last.stat_length
# SRR2927018.last.stat_length.txt    SRR2927018.last.stat_length
# SRR3545580.last.stat_length.txt    SRR3545580.last.stat_length

cat >indel_length_distribution.sh
cat config.indel_length_distribution  |while read id;
do
arr=($id)
input=${arr[0]}
output=${arr[1]}
Rscript indel_length_distribution.R $input $output
done

但是我還是用不慣linux的R,還是用windows吧。

a=read.delim("SRR2927015.last.stat_length.txt")
a=abs(as.numeric(a[,1]))
png(file=output)
hist(a,
     main="SRR2927015_Insertion Size distribution",
     ylab="Read Count",xlab="Insert Size",
     xaxt="n",
     breaks=seq(0,max(a),by=10)
)

axis(side=1,
     at=seq(0,max(a),by=100),
     labels=seq(0,max(a),by=100)
);

dev.off() 

可以很直觀的看到,插入片段在150-300之間是counts數最大,隨著長度增大,counts越不斷縮減6.FRiP值的計算 FRiP 是 The fraction of reads in called peak regions的縮寫,指的是mapping到peak裡的reads 除以總mapped reads

conda activate rna
for i in `ls *.narrowPeak`
do
i=${i/_peaks.narrowPeak/}
bed=../2.clean/${i}.bed
Reads=$(bedtools intersect -a ${bed} -b ${i}_peaks.narrowPeak |wc -l|awk '{print $1}')
totalReads=$(wc -l $bed|awk '{print $1}')
echo $Reads  $totalReads 
echo '==> FRiP value:' $(bc <<< "scale=2;100*$Reads/$totalReads")'%'
done > frip.command

cat frip.command 
148214 5105856
==> FRiP value: 2.90%
320405 7292136
==> FRiP value: 4.39%
90854 4399724
==> FRiP value: 2.06%
258981 5466470
==> FRiP value: 4.73%

7.樣本間peaks值交集 比較粗狂的辦法,這裡我默認了4個樣本都是重複樣本(其實不是。。)

library(ChIPseeker)
library(ChIPpeakAnno)
setwd("E://desktop/sept/ATAC-seq_practice/find_peaks_overlaping/")
list.files('./',"*.narrowPeak")
tmp = lapply(list.files('./',"*.narrowPeak"),function(x){
  return(readPeakFile(file.path('./', x)))
  })
tmp
ol <- findOverlapsOfPeaks(tmp[[1]],tmp[[2]],tmp[[3]],tmp[[4]]) 
png('overlapVenn.png')
makeVennDiagram(ol)
dev.off()

##安裝IDR
conda activate atac
conda isntall -y idr 
ls -lh *narrowPeak|cut -d " " -f 9|tr -s "\n" " "
#SRR2927015_peaks.narrowPeak SRR2927016_peaks.narrowPeak SRR2927018_peaks.narrowPeak SRR3545580_peaks.narrowPeak
###2個樣本的overlap peaks IDR只能對於2個重複樣本進行比較,所以分為2組
idr --samples SRR2927015_peaks.narrowPeak SRR2927016_peaks.narrowPeak \
--input-file-type narrowPeak \
--rank p.value \
--output-file group1-idr \
--plot \
--log-output-file group1.idr.log


idr --samples SRR2927018_peaks.narrowPeak SRR3545580_peaks.narrowPeak \
--input-file-type narrowPeak \
--rank p.value \
--output-file group2-idr \
--plot \
--log-output-file group2.idr.log

 ls -lh group*|cut -d " " -f 5-
# 740K Apr 19 22:00 group1-idr
#  205 Apr 19 22:00 group1.idr.log
# 341K Apr 19 22:00 group1-idr.png
# 315K Apr 19 22:00 group2-idr
#  202 Apr 19 22:00 group2.idr.log
# 218K Apr 19 22:00 group2-idr.png

cat group1.idr.log
# Initial parameter values: [0.10 1.00 0.20 0.50]
# Final parameter values: [0.59 1.05 0.62 0.79]
# Number of reported peaks - 5869/5869 (100.0%)
# Number of peaks passing IDR cutoff of 0.05 - 1571/5869 (26.8%)

cat group2.idr.log
# Initial parameter values: [0.10 1.00 0.20 0.50]
# Final parameter values: [0.35 1.06 0.47 0.50]
# Number of reported peaks - 2505/2505 (100.0%)
# Number of peaks passing IDR cutoff of 0.05 - 38/2505 (1.5%)

idr.log指通過IDR的0.05的共有peaks數,可以看到比之前用narrowPeak結果直接取交集少了很多peaks左上:Rep1 peak ranks vs Rep2 peak ranks, 沒有通過特定IDR閾值的peaks顯示為紅色。
右上:Rep1 log10 peak scores vs Rep2 log10 peak scores,沒有通過特定IDR閾值的peaks顯示為紅色。
下面兩個圖:Peak rank vs IDR scores,箱線圖展示了IDR值的分布,默認情況下,IDR值的閾值為-1E-6。8.deeptools可視化 介紹主要看Jimmy老師的推文如何使用deeptools處理BAM數據

###安裝deeptools
conda activate atac ###激活小環境
conda install -y deeptools ###安裝
cd ../../zju/phf5a/atac/
mkdir deeptools
cd deeptools/
ln -s ../2.clean/*.last.bam ./
###構建索引
ls  *.bam  |xargs -i samtools index {}
###將最終的bam轉換成bigwig文件
ls *last.bam |while read id;do
nohup bamCoverage -b ${id} -p 5 --normalizeUsing RPKM  -o ${id%%.*}.last.bw &
done
###將去重的bam轉換成bigwig文件
ls *rmdup.bam |while read id;do
nohup bamCoverage --normalizeUsing CPM -b $id -o ${id%%.*}.rm.bw & 
done

curl 'http://genome.ucsc.edu/cgi-bin/hgTables?hgsid=646311755_P0RcOBvAQnWZSzQz2fQfBiPPSBen&boolshad.hgta_printCustomTrackHeaders=0&hgta_ctName=tb_ncbiRefSeq&hgta_ctDesc=table+browser+query+on+ncbiRefSeq&hgta_ctVis=pack&hgta_ctUrl=&fbQual=whole&fbUpBases=200&fbExonBases=0&fbIntronBases=0&fbDownBases=200&hgta_doGetBed=get+BED' >
###16m大小下載了18min。。

cut -f 1-3 mm10.refseq.bed > ref.bed
computeMatrix reference-point  --referencePoint TSS  -p 15  \
-b 10000 -a 10000    \
-R ./ref.bed  \
-S ./*.bw  \
--skipZeros  -o matrix1_test_TSS.gz  \
--outFileSortedRegions regions1_test_genes.bed

相關焦點

  • 超能餅乾|SnapATAC分析單細胞ATAC-seq數據(三)
    簡介在本教程中,我們將對PBMC的兩個scATAC-seq數據集(5K和10K)和一個scRNA-seq數據集進行整合分析。這三個數據集均來自10X genomics測序平臺產生的數據,可以直接在10x官網下載使用。
  • 超能餅乾|SnapATAC分析單細胞ATAC-seq數據(一)
    SnapATAC簡介SnapATAC (Single Nucleus Analysis Pipeline for ATAC-seq) 是一個能夠快速、準確和全面分析單細胞ATAC-seq數據的R包,它可以對單細胞ATAC-seq數據進行常規的數據降維、聚類和批次校正分析,鑑定遠端調控元件並預測其調控的靶基因,調用chromVAR軟體進行motif分析
  • ATAC-Seq Motif 富集分析
    本文是《ATAC-Seq 分析流程》的 Motif 分析部分,本文 PWM 部分有許多公式,公眾號對公式支持很不友好,我乾脆那部分截圖放上來了
  • 聊個天就把生存分析給做了?
    前些天我和我的學徒們在生信技能樹分享了教程:人人都可以學會生存分析(學徒數據挖掘),提到根據公共資料庫(比如TCGA)的信息來檢查具體的某個或者某幾個基因的生存意義已經是非常簡單了,只需要很簡單的資料庫網頁工具認知,或者一點點代碼能力。
  • lncRNA-seq數據分析之新lncRNA鑑定和注釋視頻課程眾籌
    前面我系統性的總結了:lncRNA的一些基礎知識 ,和lncRNA晶片的一般分析流程 ,還有LncRNA-seq的一般分析流程 ,裡面提到了一個目前非常小眾的分析方向
  • 綜述科普|染色質調控區域的研究:對CHIP-seq和ATAC-seq發展的深入思考
    (圖1) CHIP-seq和ATAC-seq的工作流程。a.在CHIP-seq中,染色質用甲醛交聯並超聲處理,得到200-600個鹼基對的DNA片段。然後,目標DNA-蛋白質複合體可以被抗體免疫沉澱。文庫製備步驟:末端修復、A-尾和接頭連接、文庫測序。
  • RNA-seq的3的差異分析R包你選擇哪個
    在2010-2015年間,RNA-seq本身就是跟現在的單細胞差不多的當紅炸子雞的地位,無數的軟體工具,網頁資料庫,測評文章湧現出來。
  • 一文讀懂表觀遺傳學研究利器——ATAC-seq技術及應用丨深度長文
    但是,成功FAIRE-seq對於甲醛的固定效率具有很高的依賴性。FAIRE-seq相比於其他染色質可及性分析手段最主要的問題是信噪比過低,過高的背景信號對數據的分析解讀產生非常大的幹擾[5]。ATAC-seq 峰值與基因的生物信息學關聯分析[9] 5.
  • 五分鐘帶你了解ATAC-seq測序
    ATAC-seq利用DNA轉座酶技術實現染色質可及性分析。DNA轉座酶可以將自身結合的一段序列隨機插入到基因組中。在ATAC-seq試驗中,細胞或組織樣本在核質分離後,將細胞核單獨收集在一起,並通過轉座酶對核內的染色質進行打斷。緊密包裹的染色質DNA不會受到轉座酶的打斷,而開放區域的染色質DNA會被轉座酶隨機插入並打斷。
  • B站首發硬核視頻!中文喊話:素質三連走一發!
    嗶哩嗶哩(bilibili),一個喜歡網上衝浪的年輕人都懂的國內知名視頻彈幕網站! 眾所周知,現在的b站已經不再是最初的貼著二次元標籤的小眾網站了,而是一個可以追番、玩鬼畜、嗑CP,還能搞學習漲知識的神仙網站!
  • RNA-seq 檢測變異之 GATK 最佳實踐流程
    RNA-seq 序列比對對 RNA-seq 產出的數據進行變異檢測分析,與常規重測序的主要區別就在序列比對這一步,因為 RNA-seq 的數據是來自轉錄本的
  • Chip-seq簡介
    染色質免疫共沉定技術,可以研究生物體內DNA與蛋白質的相互作用,首先在活細胞內固定DNA與蛋白結合的複合體,然後用蛋白特異性的抗體,通過抗原抗體特異性結合的免疫學手段捕獲該複合體,然後洗脫蛋白質,得到與目的蛋白結合的DNA片段,將富集到的DNA片段進行上機測序,即形成了一套成熟的分析流程,稱之為chip-seq, 就是將傳統的chip技術和高通量測序結合起來,對應的英文如下
  • 微流控自動化技術革新RNA-Seq文庫構建流程 --- FLUIDIGM發布更...
    該方案利用微流控自動化技術,為RNA-seq二代測序文庫製備流程帶來突破性的變革,不但極大提高了中高通量實驗室的工作效率,同時也大幅降低了實驗成本。Advanta™ RNA-Seq NGS Library Prep Kit基於Fluidigm® Juno™微流控系統進行優化,為實驗室提供了完整的解決方案,使得全長方向性文庫的構建成本降低50%。
  • ...學院張強鋒課題組利用深度學習人工智慧算法分析單細胞ATAC-seq...
    生命學院張強鋒課題組利用深度學習人工智慧算法分析單細胞ATAC-seq數據清華新聞網10月12日電 10月8日,清華大學生命學院的張強鋒課題組在《自然·通訊》(Nature Communications)上發表題為「SCALE方法基於隱特徵提取進行單細胞ATAC-seq數據分析」(SCALE method for
  • b站對視頻審核度的梗了解一下
    b站對視頻審核度的梗了解一下時間:2019-12-11 16:46   來源:小雞詞典   責任編輯:沫朵 川北在線核心提示:原標題:血是綠色的什麼意思什麼梗? b站對視頻審核度的梗了解一下 b站對於血腥暴力視頻審核度的梗。
  • b站評分前5的動漫,其中有3部是京阿尼的,為什麼它那麼吃香
    b站作為國內最大的二次元網絡平臺,雖然它現如今放棄了動漫中心化的策略,逐漸將動漫作為平臺下的一個部分而不是最中心的部分,但是不可否認在國內動漫圈子裡,b站還是沒有能夠相提並論的對手,而作為b站尋找動漫最關鍵的一個功能,動漫在b站的評分非常重要,而在b站評分前5的動漫中,竟然有3部是京都動畫的作品,京都動畫為什麼在b站那麼吃香?
  • Direct-seq:單細胞水平分析CRISPR基因編輯篩選實驗
    西湖大學近期在開放獲取期刊Genome Biology 上發表了一項研究成果Direct-seq,該研究開發了一種將CRISPR遺傳篩選與單細胞RNA-seq結合的新技術,通過改造gRNA序列,在單細胞水平將細胞的「基因型-基因表達譜-表型」關聯起來,從而克服了上述兩點局限性。
  • IF10+發文攻略——轉錄組+ATAC
    這些區域可以與其他蛋白分子(例如轉錄因子)接近並結合,以完成轉錄、DNA複製、DNA修復等工作。因此這些開放區域的變化,就會引起相關基因轉錄調控的變化。那ATAC技術,其實就是我們常說的ATAC測序,就是針對染色質開放區域進行測序的新技術。
  • 緊急支援任務完成攻略[多圖]
    怎麼才能完成這次的任務?緊急支援任務的玩法遊戲鳥小編會分享在下面,玩家可以先來看看在哪裡能找到這個任務,成功接取了任務之後才能去做緊急支援任務,下面就是緊急支援任務的詳情攻略。天諭手遊緊急支援任務攻略【緊急支援】任務是天諭手遊中亡命島地區日常的前置任務,需要玩家達到59級後才能解鎖