這個概率建模過程其實有很多複雜的名字,咱們這些沒有專業背景的人其實很難搞得懂。但是它的本質卻挺簡單的就是只要為給計算機相當數量的已經標註好的數據,讓計算機去學習計算機會根據標註的數據自動學習。最終就可以識別出數據對應的是哪個標註,這裡面有一些不同的人叫旭東的音頻數據。
還有一些不同的人叫梓琳將溫水中的音頻數據。我們把這些音頻數據都標註好之後輸入計算機,他就會把同樣標註的音頻數據進行概率統計。找出他們最大概率的相似度,當然我們會給他的數據量越大標註越準確。計算機的學習成績就會越好相應的對語音的識別度,也就越高最後無論誰對著他叫旭東或者紫菱將溫水中他都會正確無誤地給識別出來。這就是前面提到的家裡尼克教授提出的統計語音識別的框架結構,接下來就是第二個關鍵詞蒜粒這背後對應的是計算機處理速度的日新月異。
想要人工智慧像人腦般聰明,他的運算能力至少要比人腦相當用來描述運算能力的單位,也就是靠collection process and每秒計算次數前面提到人腦的c ps,大約是每秒一億億次運算按也就是十的16次方。當然了還有一個說法是十的27到30次方,光是讓我算道數學題比如說67減45是多少?這個所花的時間或許就要超過一秒的,這怎能和超級計算機比其實這裡所謂的人腦運算次數是這樣得來的。人腦裡有上百億個神經元對吧?每個神經元彼此又連接著數百個其他的神經元,而這些連接中又蘊藏著數百個突觸每個突觸。又對應著幾百到幾千個蛋白質如果用人腦袋比計算機的話,那咱們的人可是一個超級巨大的並行運算系統。
所有突觸以及每個突觸上的所有蛋白質都可以瞬間,同時運動蛋白質之間又只有幾納米距離。電流在這一距離上一秒可以運行幾千億次,所以從這一點來看人腦運行速度的數量級。那就大得沒法形容了,那麼如今世界上運行最快的超級計算機有多快。現在看來他是2018年6月美國剛剛正式對外公布的新一代超級計算機some meat,它的運算速度峰值是每秒20億次。這個數量級已經和人腦相當了,而之前排名第一的則是我國的省委太湖之光。
它的運算峰值其實也已經達到了每秒12.5435億次,不過不像人腦袋小巧玲瓏一個龐然大物他可是有4608臺計算伺服器所組成戰地。足足有兩個網球場那麼大這臺超讚每分鐘需要4000加侖的水來冷卻,而她所需要的電力供應已經抵得上8100個美國普通家庭。所以你看這就是為什麼我們無法依靠模仿人腦的工作原理來製造人工智慧,因為按照現有的計算機管理他實在太耗能了再看看我們幾百卡的食物。
有了數據之後再經過系統性的整理這就變成了信息,信息再經過更簡潔抽象的加工那就變成了知識。舉個例子:比如通過測量星球之間的相對位置和時間那就得到了數據,通過數據我們則能夠得到星球的運動軌跡。這就是信息通過信息就能總結出克卜勒三定律,就是知識所以數據信息和知識是層層地生的關係一層比一層高。人工智慧通過機器學習變得更聰明,而大數據則是她的學習樣本要理解大數據。還得再看看他的幾個基本特徵,首先是數據的體量大。
城市管理者也通過在一些快速路或者是主幹道安置一些傳感器,這樣的監測設備並且將這些設備連上網這的確可以在一定程度上彌補剛才的問題。但是由於成本等原因依然沒有辦法覆蓋全部的路段,可是到了能定位的智慧型手機全面普及之後情況就大不一樣了。由於大部分用開放的自己實時的位置信息做地圖服務的公司就能夠實時掌握海量的人員流動信息,並且根據流動速度和所在位置區分步行的人群和汽車然後提供實時的交通路況。這的確也給用戶帶來了極大的便利,這邊是大數據時效性帶來的一個顯而易見的好處了。還記得咱們在前面說的人工智慧。60多年前就已經萌芽了可是為什麼突然在這幾年爆發,這就是因為網際網路的發展讓數據量指數級的增長。再加上我們對數據的挖掘方式比過去高明得多相應的機器的智能水平也就隨著數據量的增長,而獲得了突飛猛進的發展。
資訊時代一舉進入的第1t時代就是所謂的that the technology數據時代,再來總結一下機器學習電腦的運算能力和大數據。所謂的算法算例和數據這三方面的三足鼎立,對於人工智慧來說缺一不可。而只有這三個方面的發展都到了硬的程度才最終讓這一波人工智慧一飛沖天起來,當然在未來人工智慧又是否真的會發展成諸如終結者黑客帝國西部世界等等描述的那種駭人的模樣。
發生徹底的改變比如計算機、科學金融貿易、醫藥種、工業運輸、通訊、法律、遊戲甚至玩具和音樂等等,而且這種改變的時態,那可不是什麼將來時恰恰是現在進行時或許再過60年。當咱們回頭再看今天的這些科技是你會輕描淡寫地說:這不過就是人工智慧的萌芽,但是站在如今這個節點我們往前看從蒸汽到電氣從電器到電子一次又一次的技術革命帶來了一個又一個的新時代,而信息革命的衝擊波還沒完。大數據和人工智慧的革命友誼。毫無疑問的是每一次技術革命又都會把原來的社會經濟結構摧毀掉,在重新構建只是在可能得更美好的未來到來之前。對於那些舊時代的職業與崗位來說陣痛或許是必然的。