15億語料94億參數強化訓練!Facebook開源全球最強聊天機器人Blender

2020-12-05 環球網

來源:【快科技】

如今,我們對虛擬語音助手已經十分熟悉。無論是蘋果 Siri、微軟小冰、百度小度,小米小愛還是阿里巴巴天貓精靈,在提供幫助之餘,還經常扮演著被無聊人類調戲的對象。而這些語音助手也練就了一身反調戲的本領,時不時給你一些驚喜!

儘管聊天機器人和虛擬助手已經取得了很大的進步,但市面上的聊天機器人大多數是以任務為導向的。你提出要求,機器人就會服從,但它們似乎從來沒有真正理解人的語言,缺乏人類的感情,也不能隨機應變。

現在 Facebook 開源了一個新的聊天機器人Blender,它聲稱自己擅長所有領域的聊天,並且更有人情味。Blender 不僅幫助虛擬助手解決了許多聊天機器人的固有缺點,也標誌著人工智慧的新進展: 可複製的智能。

Facebook 研究人員稱,Blender 是迄今為止「最先進的」聊天機器人,可以以有趣和連續互動的方式討論幾乎所有內容。在人-人和 Blender-人的對話比較測試中,有 49% 的測試者把 Blender 的對話記錄誤認為是人和人的對話,67% 的測試者認為 Blender 和人的對話更像是人和人的對話。

Blender的最終完成的對話模型有三個版本,分別擁有 9 千萬、27 億和 94 億參數。參數越多,性能越強,其中94參數中使用了15億個對話作為訓練語料,因此Blender幾乎能理解所有你說的話。相比之下,谷歌 Meena 最多擁有 26 億參數。

不過,94 億參數的 Blender 需要至少兩塊英偉達 32GB V100 GPU 才能運行,27 億參數版本也至少需要一塊 16GB P100 GPU。Facebook 目前沒有開放網頁版互動界面,因此想在家用電腦上體驗頂級版本的 Blender 暫時是不太可能的了。

相關焦點

  • Facebook 開源聊天機器人 Blender,號稱全球最強
    Facebook AI 和機器學習部門 FAIR 發布博客宣布,經過多年研究,其已經構建和開源了一個新的聊天機器人 Blender。並稱,這是有史以來最大的開放域(Open-Domain)聊天機器人。據介紹,Blender 是第一個將各種對話技能(包括同理心、知識和個性)融合在一個系統中的聊天機器人。據人類評估者稱,在參與度方面,它比別人更出色,也感覺更人性化。同時,Blender 包括改進的解碼技術、新穎的技能融合以及具有 94 億個參數的模型,比最大的現有系統(谷歌聊天機器人 Meena)高出 3.6 倍。
  • Facebook 開源聊天機器人 Blender,更具「人情味」
    不久前,Facebook 開源了號稱是全球最強大的聊天機器人 Blender,它標誌著 Facebook 在 AI 領域的新進展:不僅解決了此前聊天機器人的原有缺點,新的聊天機器人更是擁有史無前例的 94 億個參數!
  • Facebook開源聊天機器人,人們為何對聊天機器人如此痴迷
    4月29日,Facebook開源了一個新的聊天機器人 Blender。Facebook是全球最大的社交網絡,擁有最大的聊天資料庫,可供機器人學習。Blender可以說是目前最人性化的聊天機器人。比1月份Google發布的Meena效果更好。
  • Facebook將其Blender聊天機器人作為開源項目發布
    由於Facebook今天早上發布了一個令人驚訝的栩栩如生的聊天機器人,它被稱為Blender,作為人工智慧研究的開源資源,Facebook很快就會變得更加靈活。幾年來,Facebook一直在為其自然語言處理技術傾注資金和資源,這些努力似乎得到了回報。
  • Facebook 推出最強聊天機器人
    猜猜我是真人仍是 AI場景描繪:Facebook 近來開源了新的談天機器人 Blender,表現優於現有對話機器人,更具特性化。關鍵詞:Facebook 談天機器人 Blender4 月 29 日,Facebook AI 和機器學習部分 FAIR 發布博客宣布,通過多年研討,他們已近構建並開源了一個新的談天機器人 Blender。
  • Facebook AI推出最先進聊天機器人:一句「恭喜」隱藏哪些玄機?
    」可以說,Blender是AI聊天先進功能的集大成者,它最近也獲評「最先進聊天機器人」,勢頭勝過Apple和Google等研發的虛擬小助理。不僅僅會講笑話——有問必答,會跟你談天說地的機器人海量的訓練數據是Blender開啟順暢聊天模式的動力源泉。
  • 陳根:當AI 講人話,你知道陪你聊天的是機器人嗎?
    文/陳根Facebook AI和機器學習部門 FAIR 發布博客宣布,經過多年研究,其已經構建和開發了一個新的聊天機器人 Blender。並稱,這是有史以來最大的開放域(Open-Domain)聊天機器人。
  • 每天調用達80億次的小米MiNLP平臺,近期又開源了中文分詞功能
    在語料預處理階段,分詞作為其中一個環節,其作用也是非常重要,但也受不同語言的限制,因而採取的方法有所不同,如中文和英文。中文分詞是將一個漢字序列進行切分,得到一個個單獨的詞,如「我住在朝陽區」,分詞後的結果為「我 / 住在 / 朝陽區」。如果分詞效果不好的話,可能會出現其他情況,比較極端的結果是全部分錯「我住 / 在朝 / 陽區」。
  • 機器之心年度盤點:2018年重大研究與開源項目
    更詳細的論文解讀可以查看:谷歌終於開源 BERT 代碼:3 億參數量,機器之心全面解讀 此外,BERT 的開源項目非常有誠意,谷歌研究團隊開放了好幾種預訓練模型,它們從英語到漢語支持多種不同的語言。很多開發者在這些 BERT 預訓練語言模型上做二次開發,並在不同的任務上獲得很多提升,BERT 開源項目將放在文章後面,並與其它開源庫一起介紹。
  • 感覺自已像機器人作文_rviz中的機器人模型怎麼跟著自己的機器人...
    然後,介紹了目前較為常用的生成型聊天機器人的模型以及評估方法,其中,對作為很多模型基礎的Encoder-decoder模型做了詳細介紹和分析,以及在此基礎上完成的幾個優化模型系統。最後,給出了一些參考的開源框架以及可使用的數據以供讀者使用。研究背景目前市面上主要的智能聊天機器人可以分為如下兩類:目標驅動型聊天機器人和無目標驅動型聊天機器人。
  • 聊天機器人再受追捧?Facebook押注下一代交互界面
    在對M和其他聊天機器人的熱情爆發之後,隨之而來的是一波失望(微軟執行長納德拉曾說「機器人是新的應用」)。聊天機器人不像機器人那麼愛聊天,那是因為他們被訓練只談論一小部分事情,執行特定的、有限的任務。它們無法與人進行自然的對話,無法根據對單詞及其含義的一般理解產生自己的反應。它們只能提供一般性的答覆。
  • 他死後,被朋友做成了一個聊天機器人
    這只是一段跟聊天機器的對話,當你下載了這個叫 Luka (iOS)的應用後,它跟普通聊天機器人一樣會用文字回答你的各種問題。但不一樣的是,正在回答你的這個機器人,它的所有信息和語氣來自一個已經過世的人—— Roman Mazurenko。Roman Mazurenk因為一場意外的車禍,出生於 1981 年的 Roman 在去年 2 月去世。
  • Facebook 100種語言互譯模型原始碼公開!機器翻譯再也不用英語當...
    智東西(公眾號:zhidxcom)編 | 子佩智東西10月23日消息,Facebook近期開源其M2M-100原始碼,這是首個可以不依賴英語數據而可以實現100個語言對互相翻譯的機器翻譯模型(如中文-法文互譯為一個語言對)。
  • 重現AlphaGoZero 風採,Facebook 開源 ELF OpenGo
    近日,Facebook AI Research(FAIR)在其官方博客宣布開源他們開發的曾打敗專業圍棋棋手的 AI 圍棋機器人 ELF OpenGo,包括原始碼和訓練好的模型。
  • 養老、問診、心理諮詢,和聊天機器人聊聊未來醫療
    此外,需要注意的是,雖然這種模式沒有運用智能回應技術,但是由於這種服務本質上是基於聊天界面來解決用戶需求的,因此從定義上來看也屬於chatbot。在國內,微信和微博都是可以運用聊天機器人的平臺。在國外,facebook messenger、Slack、telegram這一類平臺居多。
  • 微軟發布史上最大AI模型:170億參數,將用於Office套件
    170億參數量,是此前最大的語言模型英偉達「威震天」(Megatron)的兩倍,是OpenAI模型GPT-2的10多倍。「隨著更大的自然語言模型導致更好結果的趨勢,微軟引入了Turing-NLG,」微軟在研究博客中寫道。
  • 網際網路原子彈,算力吞噬者:1750 億參數的 AI 模型 GPT-3 引爆矽谷
    1750 億參數組成的訓練模型言歸正傳,OpenAI 的研究人員在上個月發表了一篇論文,描述了 GPT-3 的開發,正式發布了這個由 1750 億個參數組成的 AI 語言模型。第一個階段,先利用大量未標註的語料預訓練一個語言模型,接著,在第二個階段對預訓練好的語言模型進行微改,將其遷移到各種有監督的 NLP 任務,並對參數進行 fine-tuning。簡而言之,在算法固定的情況下,預訓練模型使用的訓練材料越多,則訓練好的模型任務完成準確率也就越高。那麼 1750 億是什麼概念?
  • Facebook AI聊天機器人研究新突破,可根據用戶改變機器人性格
    自進入大數據時代後,AI也學會了聊天這門藝術。儘管AI聊天機器人已經屢見不鮮了,但是 Facebook 人工智慧研究實驗室(FAIR)依然在該領域努力鑽研。最近他們又有了新成果,這是一種通過自然語言處理、對話、神經模型等技術構造的全新 AI 聊天技術。
  • 速度、準確率與泛化性能媲美SOTA CNN,Facebook開源高效圖像...
    研究人員僅用一臺 8-GPU 的伺服器對 DeiT 模型進行 3 天訓練,該方法就在 ImageNet 基準測試中達到了 84.2% 的 top-1 準確率,並且訓練階段未使用任何外部數據,該結果可以與頂尖的卷積神經網絡(CNN)媲美。
  • 保護隱私快速訓練,Facebook開源Opacus,用差分隱私訓練PyTorch
    那麼,如何方便地使用差分隱私來訓練機器學習模型呢?近日,Facebook 開源了 Opacus 庫,支持以這種方式訓練 PyTorch 模型。近日,Facebook 開源了一個新型庫 Opacus,它支持使用差分隱私來訓練 PyTorch 模型,擴展性優於目前的 SOTA 方法。