国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出開源工具DeepVariant,用深度神經(jīng)網(wǎng)絡(luò)識(shí)別基因變異

人工智能和機(jī)器人研究院 ? 2017-12-07 15:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Google今天推出了一個(gè)名叫DeepVariant的開源工具,用深度神經(jīng)網(wǎng)絡(luò)來從DNA測序數(shù)據(jù)中快速精確識(shí)別堿基變異位點(diǎn)。

學(xué)科研究的革命性進(jìn)展,特別是基因?qū)W上,需要依賴于新技術(shù)的出現(xiàn)。比如桑格發(fā)明了測序法之后,才實(shí)現(xiàn)了人類基因組的測序。

再比如DNA(微陣列)芯片技術(shù)的誕生,使得大規(guī)模的基因測序成為可能。這些技術(shù)讓我們能夠獲得大量遺傳信息,可以更廣泛地應(yīng)用于健康、農(nóng)業(yè)和生態(tài)上。

基因測序領(lǐng)域里,最革命性的技術(shù)當(dāng)屬2000年初首次商用的高通量測序(縮寫為HTS)了。HTS可以大規(guī)模、低成本、快速地獲得任何生物的基因序列。

不過,HTS有個(gè)致命的問題在于,測序出來的結(jié)果不是完整的,而是碎片化的片段信息。

比如測的是人的基因序列的話(也就是說,信息量級(jí)為23對(duì)染色體上的30億對(duì)堿基排序),那么得到的測序結(jié)果是不到10億個(gè)短序列片段,一般每個(gè)短序列片段我們稱為讀取單位(reads)。

每個(gè)讀取單位含有100個(gè)堿基對(duì)(不同讀取單位的信息需要重疊,才能最后拼全),而每個(gè)堿基的錯(cuò)誤率范圍是0.1%到10%。所以,一直以來,對(duì)于HTS來說,最大的挑戰(zhàn)是把碎片化的結(jié)果信息拼成一整段完整的序列信息。

瓶中基因組聯(lián)盟Genome in a Bottle Consortium(GIAB),和精準(zhǔn)FDA平臺(tái)(美國藥監(jiān)局做的基因組信息學(xué)社區(qū)和共享數(shù)據(jù)平臺(tái))一樣,致力于提高基于HTS基因測序結(jié)果。他們能提供高精度的人體基準(zhǔn)基因組序列信息。

把測序結(jié)果與基準(zhǔn)基因序列一比對(duì),就可以得到很多個(gè)堿基變異位點(diǎn)(就是上圖打星的地方),這些位點(diǎn),可能是SNP單核苷酸多態(tài)性導(dǎo)致的,也可能是測序過程中復(fù)制出錯(cuò)造成的。

今天,Google Brain團(tuán)隊(duì),聯(lián)合同屬于Alphabet旗下的生命科學(xué)兄弟公司Verily,用了兩年多時(shí)間,研發(fā)出了一個(gè)名叫DeepVariant的開源工具,專門用深度神經(jīng)網(wǎng)絡(luò)來識(shí)別HTS結(jié)果中DNA測序數(shù)據(jù)里這些堿基變異位點(diǎn)。這個(gè)工具在準(zhǔn)確率上和精確度上,比傳統(tǒng)的比對(duì)拼接方法都高出一大截。

DeepVariant,把工作量巨大的拼接問題(HTS碎片化的結(jié)果拼接成完整的基因序列),轉(zhuǎn)變成了一個(gè)典型的圖像分類問題。而圖像分類正是谷歌擅長的技術(shù)。

2016年,DeepVarient還在PrecisionFDA Truth Challenge中贏得了最高SNP性能獎(jiǎng)(Highest SNP Performance)。在那之后,Google Brain團(tuán)隊(duì)又將錯(cuò)誤率降低了50%。

下面的四幅圖,分別代表實(shí)際測序的片段和基準(zhǔn)序列的比對(duì)結(jié)果。

△A:單核苷酸多態(tài)性造成的堿基變異位點(diǎn);
B:一條染色體上少了一個(gè)堿基;
C:兩條染色體上都少了一個(gè)堿基;
D:復(fù)制錯(cuò)了的堿基變異位點(diǎn)。

在比對(duì)過程中,要回答的一個(gè)關(guān)鍵的問題是,怎么判斷比對(duì)后得到的堿基變異位點(diǎn),是存在于兩條染色體中,還是只在一條里,還是都沒有。造成堿基變異位點(diǎn)的原因不只一種,最常見的三種可能是單核苷酸多態(tài)性,或多插了一個(gè)堿基,或少復(fù)制了一個(gè)堿基。

這些變異位點(diǎn)如果用視覺識(shí)別的算法就能快速找出來。大大提高HTS后的比對(duì)拼接的效率。

因?yàn)槠恐谢蚪M聯(lián)盟Genome in a Bottle Consortium(GIAB)提供的人體基準(zhǔn)基因組序列信息是高精度可信的,或者更嚴(yán)謹(jǐn)?shù)卣f,是最接近真實(shí)序列的信息。

通過這個(gè)基準(zhǔn)序列得到的復(fù)制數(shù)據(jù),谷歌團(tuán)隊(duì)可以拿它們來訓(xùn)練基于Tensor Flow的圖像分類模型,所得到的DeepVariant,最后可以區(qū)別真實(shí)序列數(shù)據(jù)和復(fù)制數(shù)據(jù)。

盡管DeepVariant根本不懂什么是基因組序列,也不懂HTS,但是只用了一年,就已經(jīng)贏得了PrecisionFDA Truth Challenge中的最高SNP性能獎(jiǎng)(Highest SNP Performance)。而且到目前為止,把已有最優(yōu)異的方法拼接錯(cuò)誤率降低了50%多。

在發(fā)布開源代碼的同時(shí),Google Brain還發(fā)布Google Cloud上的DeepVarient工作流,方便開發(fā)者用它來處理大型數(shù)據(jù)集。

最后,附上相關(guān)鏈接:

Google Research Blog介紹:https://research.googleblog.com/2017/12/deepvariant-highly-accurate-genomes.html

開源代碼:https://github.com/google/deepvariant

Google Cloud版:https://cloud.google.com/genomics/deepvariant


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6254

    瀏覽量

    111405
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265395

原文標(biāo)題:谷歌推出開源工具DeepVariant,用深度學(xué)習(xí)識(shí)別基因變異

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機(jī)器學(xué)習(xí)問題的強(qiáng)大工具。然而,這種能力往往伴隨著模型規(guī)模和計(jì)算復(fù)雜度的增加。當(dāng)輸入維度較大(例如長時(shí)序窗口、高分辨率特征空間)時(shí),模型需要
    的頭像 發(fā)表于 02-24 15:37 ?4779次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b>解析

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?330次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因?yàn)閳D像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2077次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1224次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長等
    的頭像 發(fā)表于 09-17 13:31 ?1129次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概念對(duì)非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?901次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3472次閱讀

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    MATLAB/SIMULINK工具對(duì)該方法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法在全程速度下效果良好。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究.pdf
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1215次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?1182次閱讀