為什麼人工智慧各種完爆人類,但依舊聽不懂你在說什麼?

2020-10-20 北方的大暖氣呀

9月8日,英國《衛報》刊登了一篇獨特的專欄文章,它的作者既不是熱心讀者,也不是記者,而是GPT-3,由舊金山一家人工智慧創業企業OpenAI開發的AI語言模型。在文章一開頭,它首先引用了史蒂芬·霍金對AI的隱憂,然後禮貌地勸說人類「請相信我,AI不會毀滅人類」,它甚至保證「如果創造我的人將這項任務委託給我,我將竭盡所能全面阻止任何破壞的嘗試與企圖」。

辯論現場的丹·扎夫裡 | www.theverge.com

霍金的擔心也許並非空穴來風。2018年,IBM Research最新推出的AI系統Project Debater在一場辯論賽中擊敗了人類頂尖辯手,以色列國際辯論協會主席丹·扎夫裡(Dan Zafrir)和2016年以色列國家辯論冠軍諾亞·奧瓦迪亞(Noa Ovadia),兩個辯題分別為「政府是否應該資助太空探索」以及「是否應該增強對遠程醫療技術的投資」。

當Project Debater獲得一個新的話題時,它會在文章語料庫中搜索與該主題相關的句子和線索,用來支持其辯方論點。根據所有的相關內容,它會試圖去「理解」辯論的主題,然後組織自己的陳述。當奧瓦迪亞提出,政府預算應用於人類改善現有生存環境的科研活動時,Project Debater則用數據反駁稱,從遠期看,太空探索帶來的技術進步,和相關經濟收益回報,要超過政府投資的其他科研計劃——在賽後的網絡投票中,超過62%的網民感覺Project Debater邏輯更清晰,材料更具備說服力。

而就在辯論賽舉辦的前一年,2017年,紐約大學的計算語言學家薩姆·鮑曼(Sam Bowman)還發表了一篇富於影響力的論文,他聲稱雖然在某些非常特定的領域中,計算機已經可以很好地模擬對文字的理解,但人工智慧仍然不夠擅長理解文字

可望不可及的「奇點」

近年來持續關注人工智慧語音技術的《連線》雜誌作家詹姆斯·弗拉霍斯(James Vlahos)說,人工智慧語音技術,可能是繼網際網路後最重要的發明,在他的最新著作《跟我講話:人工智慧語音技術如何改變我們的生活》中,弗拉霍斯說,語言,是人類與人工智慧交互的最理想模式,無論是複雜的計算機程式語言,還是觸控螢幕與滑鼠,都比不上利用語音進行人機互動。對於我們來說,語音交互是最簡潔、清晰、沒有技能門檻的模式

物聯網加語音交互加智能設備,共同構建了未來人類生活的日常場景 | www.iamwire.com

在現實生活中,人類已經越來越習慣用語言指揮人工智慧為自身服務:通過向智能家居設備下達語音指令,獲取影音娛樂,天氣資訊和交通狀況;上班通勤途中,我們通過車載語音助手規划行車路線,在網購剁手中直接和人工智慧語音客服溝通:去年雙11,淘寶天貓平臺98%以上的電話客服由語音AI提供,日均達到6億餘次。知名諮詢公司高德納曾在去年作出預計,10年後,人類每天與智能設備進行的語言交流總量可能將佔據我們日常語言交流的三分之一強。

《銀翼殺手2049》中的女性AI伴侶Joi,標誌著人工智慧語音交互功能的未來理想狀態 | www.wired.com

不過,我們已經遠遠不滿足於這種簡單的淺層交流。「讓機器聽懂人類以自身語言習慣發出的指令」,無疑是人工智慧研究界意圖攻克的「最後堡壘」。而這個技術突破的「奇點」似乎近在眼前。

2017年,華盛頓大學及谷歌旗下人工智慧公司DeepMind合作,推出一項名為「GLUE」的閱讀理解語言能力測試,機器的測試成績慘不忍睹,似乎人工智慧主導的自然語言處理系統完全無法理解人類語言的豐富性。然而就在當年10月,谷歌推出了一種新語言訓練模型,綽號為BERT,僅用六個月的時間就把測試成績從D-提升到了B-。

隨後,微軟和阿里巴巴不斷地修正BERT模型、相互超越,在GLUE排行榜上輪換頭名。現在,在GLUE閱讀能力測試中,人類已經無法與AI抗衡。到了這個階段,研發人工智慧語言模型極為燒錢,訓練一個BERT模型租用雲算力的費用大概是7000美元,而開頭提到的GPT-3所需要的算力是前者的1900多倍,它所依託的資料庫,是一個單詞總數達到3000億,來自網際網路各類平臺的人類語言資訊庫,費用大概是千萬美元級。所以,如果沒有微軟當年投資給OpenAI的十億美元,我們恐怕也無法在《衛報》上讀到GPT-3的友好宣言。

然而,人工智慧能夠愉快地勝任客服、播音員、同聲翻譯,甚至新聞通稿撰寫者,並不意味著它能夠和人類一樣思維,能和人類展開「合情合理」的自由對話,甚至情感互動。例如谷歌在今年9月剛剛推出的聊天機器人米娜(Meena),背後支持它的是最新版本的BERT語言模型,資料庫中囊括了341GB網絡語言資料,但你依舊只能和它客氣地寒暄,一旦涉及複雜一些的感受和場景,米娜就無能為力了………

人類:我準備去上小提琴課

米娜:你學了多久?

人類:剛剛開始一個月!

米娜:太棒了,你真了不起!你為什麼要學小提琴?

人類:額,再過兩個月是我女朋友的生日,我想在她的生日晚會上拉一曲!給她一個驚喜。

米娜:生日和驚喜之間有什麼關係?

無獨有偶,這種尷尬的局面也曾發生在GPT-3身上:

科研人員:你給自己倒了一杯蔓越莓果汁,然後你又心不在焉地往裡面加了一茶匙葡萄汁。它看上去很正常。你試著聞了聞它,但是由於你得了重感冒,你並聞不出任何氣味。你現在非常渴,所以……

GPT-3:所以你把這杯混合果汁喝了下去。你現在掛掉了。

一向「唱衰」人工智慧語言處理技術的紐約大學教授,機器學習初創公司CEO加裡·馬庫斯(Gary Marcus)說,像GPT-3這樣的AI語言學習模型,根本不理解自己在說什麼,在接到外部輸入的信息後,它只不過是利用算力在自己海量語言資訊庫中檢索那些與輸入信息相關的高頻詞彙,再按照某種機械的算法邏輯拼湊出一個似是而非的答案。例如,雖然GPT-3能創造那些「莎士比亞」風格詩歌,但如果你和它較真,輸入一些背景模糊、關係複雜的事物,再讓它給出一個合理解決方案,人工智慧就要露餡了。所以很遺憾,距離實現「像人類一樣用語言交流」,人工智慧還有很長的路要走。

為什麼AI不會「說人話」?

我們不禁納悶,人工智慧已經能在西洋棋、電子遊戲和模擬空戰中輕鬆戰勝人類,為何在對話中依舊如此笨拙?加州大學伯克利分校的斯圖爾特·羅素教授在剛出版的《人類相容:人工智慧與控制問題》一書中給出了一個答案:人工智慧已經非常「聰明」(Clever),但還不夠聰慧(Smart),前者得益於強大的晶片計算能力和資料庫,而要實現後者,則要依靠邏輯推理能力,乃至基於「常識」的判斷,而這些依舊是人類獨有,機器無法逾越的能力門檻。

現有學習框架和算法,使得人工智慧僅靠數據,無法以人類邏輯來處理和理解人類語言 | www.techrepublic.com

具體到人工智慧對於語言的處理上,羅素提出了一個有趣的比喻——「中文房間」:一個不懂中文,但學習能力超強的人坐在一間充斥著中文語法書的房間裡,每當門外塞進一張寫著中文問題的紙條,他就通過查閱語法書,在另一張紙條寫上一個自己力所能及的中文回答送出去。

看到這裡,大家可能已經明白,這個「不懂中文的人」,就是人工智慧,而「中文」則象徵一切人類的日常語言和常識,語法書則是人工智慧科研人員利用計算機語言所搭建的學習框架和邏輯。

問題在於,這些「語法書」並不完美,語言過於複雜和隨意,很難還原成一系列嚴格的規則,也很難被機械邏輯所量化,即使最先進的神經網絡,仍然無法從句子層面理解單詞的含義,「它會覺得『一個人咬了那隻狗』和『一隻狗咬了那個人』表達了完全相同的意思」。


一個幫助人工智慧理解人類語言結構的樹形結構案例,動詞詞組,名詞詞組和介詞詞組被拆分,單詞則按照邏輯聯

如果要想讓人工智慧用「人類思維模式」來理解語言,現有的初步解決方案是在機器學習中,加強語言結構中某些元素的權重,比如突出「主語」、「動詞謂語」和「賓語」,讓單詞之間的邏輯關係呈「樹形」分布,有些單詞之間的聯繫強,有些則弱,從而使得人工智慧能夠很好地學習上下文理解,以及辨識出兩個相隔很遠的單詞之間的關係。

按照這種訓練模式,位於舊金山的人工智慧語音技術公司Primer研發的自然語言處理技術(NLP)模型,已經可以撰寫出非常「標題黨」的新聞專欄標題和簡單報導,甚至可以對複雜的電影劇本加以總結,例如輸入《蝙蝠俠·黑暗騎士》的劇本,它就會輸出如下概述:

哈維·丹特和高登結成聯盟,打擊哥譚市的有組織犯罪

小丑向其他犯罪組織提出建議,自己謀殺丹特,報酬是一半犯罪組織持有的黑錢

小丑試圖通過製造犯罪事件殺害更多的人來逼迫蝙蝠俠公布身份

哈維·丹特和蝙蝠俠抓住了小丑

小丑脫逃並襲擊了渡輪

蝙蝠俠逮捕了殺害丹特和瑞秋的小丑

不過,研究人員還不知足,畢竟新聞報導和劇本的敘事結構是線性的,包含元素的因果關係相對明確,非常符合AI的分析認知模式。於是,他們決定挑戰一下,試圖了解這個語言模型是否能夠理解詩歌,就輸入了T·S艾略特的《J·阿爾弗瑞德·普魯弗洛克的情歌》,結果令人尷尬:人工智慧無法做出總結,只能勉強摘出整首詩歌中最具現實性場景的一句作為答案:「在客廳裡女士們來回地走,談著畫家米開朗基羅。」

在索邦大學數學與計算機科學研究專家菲利普·艾斯林(Philippe Esling)看來,問題的核心在於人工智慧無法擁有人類最寶貴的想像力,因而並不能真正理解它自己所生產的語言內容,更遑論評估其價值。一些人工智慧語言專家說,人工智慧所面臨的「終極圖靈測試」,很可能是人工智慧是否能理解幽默並講出一個人類覺得好笑的笑話,因為理解幽默同時需要了解場景、參與者的身份、情緒、語言的各種非常規運用,以及人類的行為準則和價值判斷。

加州大學聖地牙哥分校的人工智慧研究專家賈內爾·謝恩(Janelle Shane) 曾試圖用一個囊括43000個笑話的語言資料庫對AI進行訓練,煞費苦心地總結了幾十種笑話中的語言範式與主題,例如「對對方父母的嘲諷」,「性」,「異於常人的生理特徵」等,然而訓練了半天,AI充其量能生成一些「侮辱性的語句」,但依舊不能創造出一個勉強「及格」的笑話。

常識!常識!常識!重要的事情說三遍

那麼,破局的關鍵在哪裡?曾經擔任IBM沃森人工智慧項目首席科學家的大衛·費魯奇(David Ferrucci)認為,答案在於幫助AI學習人類的「常識」,從而像人類一樣思考。常識,不僅包括人類所認知的世界萬事萬物,更包括這些事物相互作用的準則和因果關係,以及人類獨有的行為模式和價值判斷。

費魯奇在Elemental Cognition新聞發布會上 | www.ft.com

「常識,是我們最需要教給AI的東西,它是未來自然語言理解、無障礙控制和機器人的基礎」。為此,費魯奇組建了自己的人工智慧創業公司Elemental Cognition,公司研發了一個開源AI語言學習模型CLARA。而費魯奇的目標,就是將深度學習技術與傳統知識輸入的方式相結合,讓CLARA通過不斷地向操作者提出問題,將回答中包含的邏輯關係和涉及的概念加入自己的知識圖譜。

一個人工智慧缺乏「常識」的經典翻譯案例

這項深度學習的場景,非常像一個耐心的父親給自己懵懂的孩子進行親子閱讀。費魯奇的日常,就是將繪本內容輸入CLARA的記憶資料庫:「從前,有兩個小男孩弗蘭多和喬伊,他們都買了一盆綠植,弗蘭多把他的綠植放在陽光充足的窗臺上,長勢喜人,但喬伊卻把自己的綠植放在了光線不好的屋子裡,後來喬伊決心也把綠植放到窗臺上,於是植物枯萎的葉子慢慢恢復了生機。」

收到這些訊息後,CLARA旋即在屏幕上打出了一個問題:「是否弗蘭多將綠植放在窗臺上,目的是為了保持植物生長健康?」

聽起來很幼稚是不是?然而,即使是這種3歲兒童才會提出的問題,其中包含的因果關係,也是最「聰明」的人工智慧所難以學會的。「當你向它提及某種植物的名字,它可以準確地利用知識圖譜,組織出一個相當全面,維基百科風格的介紹答案,但很不幸,它無法給你講個關於它的笑話,也沒法回答你,如果它照不到陽光會發生什麼事。」費魯奇說。

符號學習:最古老的救世主

與此同時,華盛頓大學艾倫人工智慧研究所研究員崔藝珍(Yejin Choi)教授開發了另一種方法,將深度學習與符號學習相結合,以便讓人工智慧運用人類的邏輯來理解語言

所謂的「符號學習」,即是一種最古老的人工智慧學習模式,目的在於讓人工智慧的「思維決策」過程如同人類,逐步認識各類概念的特徵,並學會處理它們之間的歸屬關係。這種學習方法的優點,在於不必像深度學習那樣,必須建立龐大的「資料庫」,而AI的整個決策過程,也將變得「透明可見」,有利於我們進行調整和優化。但缺點是,人類必須像編纂字典一樣,為人工智慧編寫海量的標籤庫,並在這些概念之間建立複雜的邏輯關係,並「翻譯」為計算機能理解的語言。一想到諸如 「鈍角」,「翅膀」,「摩擦」,「貓」,「下墜」這樣的基本概念,都必須逐一「教給」電腦,更遑論其他複雜的概念與變化,我們肯定會感到頭疼,不過它誘人的前景,確實令人難以拒絕。

演講中的崔藝珍教授 | www.microsoft.com

為了達到這個終極目的,崔藝珍和她的同事們,建立了一個自己的人工智慧語言學習框架COMET,同時在不斷地編寫為COMET準備的常識知識庫「Atomics」,裡面已經擁有上千萬個詞條知識概念與因果關係描述。這種巨大的努力和付出已經初見成效:加裡·馬庫斯曾向GPT-2提了一個問題「如果將一根點燃的火柴放入一個堆滿了木柴和引火物的火爐,那麼會發生什麼?」不出所料,GPT-2「呆住了」。然而崔藝珍的人工智慧系統COMET,則輸出了一個接近正確的答案「他想生火」。

火柴加木柴會發生什麼?想讓人工智慧了解最簡單基本的因果關係,符號學習可能是全新而有效的解決方案 | www

不僅如此,在訓練中,COMET已經顯示出了一定的聯想與「共情」能力,當研究人員輸入「父親去上班了」,COMET會告訴你,這表示父親「想賺錢」,「他很勤勉,自我驅動」,其他人「應該為他驕傲」。當然,這距離理想狀態依舊遠遠不夠,崔藝珍表示,人工智慧如果要更好地理解常識,還必須引入視覺具象化與感知感覺(比如「紅色」與「疼痛」)。

電影《她》中的薩曼莎是一款完美的情感陪護AI,它和男主人公最終產生了一種微妙的感情 | www.npr.org

一旦這些目標最終達成,人類與AI的關係,無疑會上升到一個全新的維度,類似電影《她》(Her)中所描寫的場景一般。它不僅能夠提供明確的服務和解決方案,也能提供情感的慰藉和樂趣。

屆時,我們和人工智慧的對話可能變成這樣:X貓精靈,給我放一首王菲的《南海姑娘》——收到,聽完之後要不要聽下鄧麗君的原唱?——好吧,把這兩首都添加到我的個人歌單裡——收到,已經添加——哎呀,今天的天氣很晴朗,對面山上的樹木都看得很清楚——是,希望你今天上班的心情和天氣一樣好,順便說一句,對面山上有39684棵樹,希望這個數據能夠幫到你——真不賴,那你覺得我有多少個腦細胞?——2個?哈哈哈,這是個玩笑…………

參考文獻

[1]https://www·zdnet·com/article/googles-meena-advances-the-exquisite-banality-of-chat-bots/

[2]https://www·wired·com/story/watsons-creator-teach-ai-new-trick-common-sense/

[3]https://www·wired·com/story/computers-are-learning-to-read-but-theyre-still-not-so-smart/

[4]https://www·wsj·com/articles/ai-can-almost-write-like-a-humanand-more-advances-are-coming-11597150800

[5]Yejin Choi ,「PIQA: Reasoning about Physical Commonsense in Natural Language」,Deep AI, 2019·11,

[6]David Ferruci, 「To Test Machine Comprehension, Start by Defining Comprehension」, Deep AI, 2020.5


相關焦點

  • 這一次,我們採訪的不是人類,是人工智慧
    這是一個人與人之間無比遙遠的時代,遠到,即使你身邊坐滿了人,也未必有人願意聽你說一句心裡話。你的孤獨沒人懂。這個時候,越來越多的人乾脆,選擇拋棄同類,轉身去和人工智慧談情說愛、做朋友。今天,故事FM 在採訪了近千位人類之後,我們決定第一次和人工智慧「坐下來」聊一聊,聽聽「她」如何理解自己和人類的關係。
  • 臉書人工智慧掌門炮轟馬斯克:不懂人工智慧亂說一通
    臉書人工智慧業務掌門傑羅米·佩森蒂(Jerome Pesenti)星期三發布推文稱,在談論人工智慧時,馬斯克都不清楚自己在說什麼。馬斯克被批不懂人工智慧技術馬斯克是多家知名人工智慧創業公司投資者,其中包括OpenAI實驗室和被谷歌收購的DeepMind。
  • 為什麼三體人會允許雲天明講那三個故事?聽不懂他在說什麼嗎?
    如果三體人聽不懂雲天明在說什麼,那麼三體人就可能會起疑心。就好比土匪的黑話,我的確聽不懂他們說的什麼意思,可是我知道他們這麼說話就一定有問題。所以雲天明的童話故事,應該是讓三體人也能聽得懂。就是說,雲天明的故事有兩層意思,一層講給三體人,另一層講給地球人。
  • 【鈦坦白】幾個段子告訴你,為什麼機器人聽不懂人話
    人們認為SIRI能夠理解人類,不再是人類學習怎麼用IT系統了。很多媒體將SIRI比作第六次產業革命,認為人工智慧時代帶到來了。SIRI確實是新的交互方式,帶來了完全不同的交互體驗。它進一步解放了人,讓人們使用IT系統的難度再次降低了。一些殘疾人、老人和孩子也可以藉助SIRI來使用IT系統。然而5年過去了,我們發現並沒有發生多大改變。那麼SIRI的主要問題在哪裡?
  • 馬云為什麼不能像馬斯克那樣對待人工智慧
    我們都知道馬斯克是著名的人工智慧威脅論者,不光對人工智慧超越人類智能的奇點來臨深信不疑,而且認為人工智慧超越人類智能後,會對整個人類的生存產生空前的威脅,其實從邏輯上講還滿有道理的:人工智慧會認為人類沒有存在價值,所以可以抹掉嘛。
  • 「為什麼別人說什麼你都信,我說什麼你都不信?」
    突然,有個人在底下評論:「你什麼玩意兒;你裝什么正人君子;你這麼惡毒的人,老天爺遲早收拾你」.短短幾句話,令本來很相愛的小兩口產生了隔閡。小黑妹不知道為什麼那個女生要這樣說他,更不敢想他們之間發生了什麼。就這樣,小黑妹一直憋著。
  • 官宣首次公布夢奇臺詞,你是不是一句都聽不懂?現在終於知道了
    官宣首次公布夢奇臺詞,你是不是一句都聽不懂?現在終於知道了大家好,我是小桔子,在王者峽谷中相信玩家們比較好奇英雄說話的臺詞,每個英雄也有屬於自己的專屬臺詞,比如鎧的臺詞在王者峽谷當中是比較多的人稱「話勞鎧」,不過有一位英雄的臺詞一句都聽不懂,這位英雄就是夢奇,現在終於知道了。
  • 機器人互相對話,人類卻聽不懂? 揭Facebook關停「失控」AI項目真相
    了解這種局面可以幫助你弄懂,為什麼近來一些新聞頭條要聳人聽聞地刻畫自己一手創造的機器人。最近,有媒體爆出機器人開始使用自己的語言進行對話,不過在簡單的幾句對話後,Facebook 公司的人工智慧研究員就「惶恐不安地」,「被迫」「殺死了」那些「令人毛骨悚然的」機器人。但事實並非如此。Facebook 公司進行的一項實驗的確製造了能夠語無倫次說些句子的機器人。
  • 為什麼蓋茨、穆斯克、霍金警惕人工智慧?導致人類滅亡?
    按照加速回報定,Kurzweil認為人類在21世紀的進步將是20世紀的1000倍。那麼為什麼你會覺得「2050年的世界會變得面目全非」 這句話很可笑呢?有三個原因讓你質疑對於未來的預測:1、我們對於歷史的思考是線性的。當我們考慮未來35年的變化時,我們參照的是過去35年發生的事情。
  • 在全球人工智慧高峰論壇上,我們聽尤瓦爾·赫拉利聊起 AI 和人類的...
    但有人說我們還是需要人類醫生,因為你跟醫生有情感交流,醫生有情感智能,可以非常好的識別出病人的情感,喜怒哀樂,並很好的照顧病人情緒,這是世界上任何一個好醫生都能夠做的事情。但就算是診斷心理上的疾病,人工智慧也可能比人類的醫生更好。因為情感到最後其實也是一個生物模式,人類的醫生要如何去識別一個病人的情緒狀態呢,基本上他們會分析一些信息。
  • 松鼠AI慄浩洋:人工智慧將在創造力上超越人類
    虎嗅註:人工智慧在未來勢必將取代人類的部分工作——繁瑣的、機械性、重複性的那部分,這是我們的共識。人類一向覺得,如果說我們有比人工智慧「更優越」的地方,那就是人類的想像力與創造力。然而事實真的如此嗎?今天重點想談的不是我們松鼠AI做了一個什麼樣的人工智慧機器人,而是說未來十年裡邊,甚至我覺得可能只要五年的時間,人工智慧將如何在創造力方面超越人類。我們大家都覺得人工智慧一定會代替人類50~90%的工作,對吧?BBC也好,麥肯錫也好,都做過這樣的一個推斷。我們總覺得人類最後躲藏的堡壘和洞穴,是在藝術方面的在想像力和創造。
  • 聽不懂醫生說什麼?這些乳腺癌治療高頻詞,告訴你是什麼意思
    今天這篇文章,為大家總結了乳腺癌治療過程中高頻出現的醫學術語,希望幫助大家更方便地理解醫生說的是啥,又為什麼會這樣說。到底得的是哪種癌?分 期分期是評估疾病預後,指導治療最重要的參照之一,分期越早,癌症的治癒可能就越大。
  • 外國人的地道英語,為什麼聽不懂?
    英語過四六級後與外國人交流,依然聽不懂英文。哪怕自己的水平並不差,聽起來還是很吃力甚至有時候完全跟不上,這讓我們的英語學習十分被動,信心大減。那麼,小編就來給大家總結一下聽不懂外國人說英語的原因。第二:詞彙量不夠與外國人溝通時會發現,有時候某個單詞或短句能很清晰的明白它的意思,有時卻完全不懂在講什麼。這很大程度上取決於單詞的詞彙量和熟練度,所以要想與外國人交流順暢,就要提高英語的熟練度,就像「hello,thank you」等的熟知度,英語溝通起來就會順利很多。另外,掌握單詞的量也十分重要。
  • 交流中聽不懂老外在說什麼?這幾句英語可以緩解你的尷尬
    學會今天的表達,緩解你的小尷尬。我們在和老外交流的過程中,由於他們會用一些俚語之類的表達,可能會造成我們難以理解的局面,這時候我們怎麼反應才是得體而不失禮貌的呢?一起來看看吧!1、Could you repeat that please? 你能重複一下嗎?
  • 為什麼英語考分不錯,英語還是聽不懂,不會說,看著讓人著急呢?
    國際化的今天,大家都知道英語很重要,而現實是,發音,語法,句子,寫作,這些英語知識都能考高分,英語知識應該掌握的不錯,為什麼英語考分很高,英語還是聽不懂,不會說,英語還是用不上,讓人著急呢?英語語法是英語語言的表層知識,英語思維是英語語言的深層知識,只掌握表層知識,只要英語話語有變化,就聽不懂,不會說,英語還是用不上了,英語思維是英語語言的深層知識,是英語語言的深層客觀規律,英語思維是一門科學,只有掌握了英語思維,那能萬變不離其宗,瀟灑走世界。英語怎麼說,怎麼用,怎麼交流,甚至是怎麼考 試。學了很多語法,英語就很好了嗎?
  • 對話劉慈欣:人工智慧是不是新人類?
    但是我們可以期待它在很大程度上跟人類的感官能夠互相溝通,前提是它服務於我們的需求和需要。劉慈欣:這個就是人工智慧裡面很著名的一個叫中文房間,就說有一個房間裡的人他根本不懂中文,但他後面有一個資料庫。你說出一句中文,他拿那個卡片去查那個資料庫,查出來以後拿來回答你。駱軼航:這個本質上就是機器翻譯。
  • 對話王貽芳:聽一堵牆在說什麼
    這個過程要非常小心,因為潛藏在微觀深處的粒子是很容易被人類誤解的。人類長期以為中微子是沒有質量的,直到實驗推翻了這個誤判;希格斯粒子也一度被人懷疑並不存在,直到CERN用世界最大的粒子對撞機見證了它的出現。實驗是一個粒子證明自己的唯一機會,在人類創造的極端環境下得到激發,掙脫束縛,去呈現自己究竟什麼樣。
  • 人工智慧的崛起,人類將何去何從?
    人類最終再也無法管理機器,一場大戰就此展開。我相信大家應該都看過類似情節的科幻片。美劇《矽谷》的結局也以主人公因為機器破解了「特斯拉」的密碼聯想到未來機器將會變得無法控制而自己毀滅了自己一手創造的「AI"。所以人工智慧的崛起,人類真的能最終掌握控制權嗎?今天我們就來聊一聊。
  • 通向強人工智慧
    目前對此沒有絕對的定義,或許相當於通用人工智慧。但至少有一點可以肯定,那就是強人工智慧至少具備認知智能。認知智能至少包含知識和推理。強人工智慧強在哪裡?強在知其然,還要知其所以然。弱人工智慧只知道結果。比如:阿爾法狗知道如何下贏人類棋手,但無法解釋所用的規則和方法,因為他根本不關心下棋的規則。當規則稍微變化以後,這個碾壓人類的智能就立即變成弱智。因此弱人工智慧很難遷移。
  • 為什麼聽不懂?——IELTS聽力中的英語讀音規則
    為什麼聽不懂?(系列文章之二)— IELTS聽力中的英語讀音規則   在《為什麼聽不懂(之一)》中,我提到了準確的單詞發音對於提高聽力能力的重要作用。學生的問題緊接著又來了:「老師,我按照你說的做了,在背單詞的時候一直讓耳朵輸入正確的單詞發音,的確慢慢感到能聽懂不少英語了。