人工智慧是對人的意識、思維的信息過程的模擬

2021-01-16 愛書如銘

人工智慧是對人的意識、思維的信息過程的模擬。人工智慧不是人的智能,但能像人那樣思考、也可能超過人的智能。

從AlphaGo開始,人工智慧走入大眾的視野。媒體競相報導,將人工智慧的熱度炒到非常高的高度。如今人工智慧雖然還是很熱,但是熱度已經被區塊鏈奪了走。但是無論是世界上有能力的各個國家,還是國際上的有實力的科技巨頭,都在布局人工智慧領域,例如谷歌收購了與人工智慧相關的十幾家公司,其中就包括被谷歌收購了的研發了AlphaGo的DeepMind公司。

無疑,人工智慧未來必然是我們發展的方向,那麼在人工智慧發展的過程中有哪些痛點需要解決呢?Innov100平臺分析認為有以下10個痛點。

1.人才稀缺

人工智慧在人才方面極度稀缺。據領英數據顯示,全球在人工領域的人才不足25萬人,其中在美國的人才最多。其餘主要分布在歐洲,印度,中國,加拿大等。其中有10年以上工作經驗的不足30%。所以那個國家,企業想在人工智慧領域做出成績,首先就是人才的爭奪。如最近中興被美國制裁,引起對「國芯「的發問,首先出現的問題就是人才稀缺,人才的優秀程度,人才的聚集程度,決定了一個企業走向欣榮還是衰敗。

2.道德價值觀判定

當人工智慧遇到傷害事件發生的時候應該如何抉擇。

例如無人駕駛如今也在如火如荼的發展。人工智慧很有可能將首先應用到無人駕駛領域。但是在無人駕駛領域有時候會出現這樣的情況,當無人駕駛汽車行走在道路上,正前方忽然衝出來一個人,左右兩邊也正好有人,無論車輛如何操作都無法避免的會造成傷害,那麼這個時候人工智慧該如何抉擇。

在計算機的世界,是一個概率的世界,如果正前方是老人,左右是小孩的話,是不是會分析小孩比老人更有價值,然後完成所有的最優解。但是這很明顯是違背道德常識的。

3.莫拉維克悖論

人工智慧,簡單理解就是像人類一樣的智能。那麼人工智慧所遵循的邏輯或者方法應該是類人類的才對。可是實際上人工智慧與人類智能完全不同。

莫拉維克悖論(Moravec'sparadox) 是由人工智慧和機器人學者所發現的一個和常識相佐的現象。和傳統假設不同,計算機完成人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理。但是完成無意識的技能和直覺卻需要極大的運算能力。這個理念是由漢斯·莫拉維克、布魯克斯(Rodney Brooks)、馬文·閔斯基等人於1980年代所闡釋。

4.算力限制

目前進行人工智慧算力平臺的搭建,需要大量的CPU和GPU。而谷歌公司的AlphaGo使用的TPU,類似與GPU的一種算法晶片,能耗功效比非常高。訓練AlphaGo需要的算力相當於我們市面上常見的消費級1080TI 大約12000塊,至少千萬級別的開支。

對於谷歌,Facebook,騰訊等這樣的巨頭公司,這樣的開銷也許不算什麼。但是對於一些規模較小的公司,這將是非常大的一個問題。畢竟人工智慧想要步入成熟期,必須解決算力成本問題。

5.隱私安全問題

隱私安全問題在很多行業都是非常重要的話題,為什麼說人工智慧行業的隱私安全會成為制約他的痛點。

因為如果要利用人工智慧來提高人們的生活效率和品質,那麼必須儘量多的獲取個人信息,因為AI模型需要訓練,所以很可能需要將個人信息上傳到雲端。另外,目前沒有辦法依靠本地的算力支撐人工智慧。隱私與便利常常矛盾,但是人工智慧如果想有好的發展,必須兩者兼顧。

最近,Facebook因為洩漏了多達8000萬的用戶信息,扎克伯格被美國政府要求出席美國國會聽證會,並被詢問的總時長達10小時。並在聽證會中多次提到用人工智慧來解決部分業務需求。

6.需要大量的數據標記

目前現有的AI模型都需要大量的數據標記,因為模型大多數是監督學習模型。大量的數據標記,不僅僅會要求更多的人力資源,同時人的參與難免會為數據帶來一定程度的誤差。

目前可以很好解決這一問題是利用強化學習,進行無監督學習。谷歌公司的AlphaGo就是利用無監督學習進行訓練的。

7.數據稀缺

AI模型不僅僅目前不僅需要進行人工對信息標記,同時也需要巨量數據才可以達到人類正確識別的程度。以AlphaGo為例,在擊敗李世石的那個版本AlphaGo進行了3000萬次圖譜學習。擊敗柯潔的那個版本,進行了400多萬次,自我對弈。

除了對數據量的需求極大,對數據的維度也要求儘可能的全面。總之就是,能有最好都給我,越全面越好。但是實際情況就是,結構性的全面的數據在現實生活中很難獲得,而且也很難獲得比較準確的數據。

8.黑匣子問題

在人工智慧設計之初,賦予其相應的發展方向是,根據人為制定的規則和人為製造的邏輯執行相應的任務。但是實際發現這樣的並沒有辦法使得人工智慧有非常讓人滿意的實際應用。

一直到如今非常熱門深度學習,通過一定程度人為幹預,AI模型經過數據訓練和結果乾預,會自己生成一個擬合算法,生成人類預期的結果。但是由於是AI模型自動生成,會存在不可解釋的問題。如果有一天AI 模型得出或者做出出乎我們意料之外的事情,我們卻沒有能力來解釋這個時間背後的原因。

9.模型可移植性差

AI模型的可用性是隨著訓練的數據量增大而增高。但是所需要的數據量是個非常大的量級,但即使是重複度很高的模型,也沒有辦法從上一個模型中獲得其一些經驗,只能自己從頭開始訓練。

這樣會帶來一些問題,比如會增加數據獲取成本,時間成本,能耗成本等,這將給發展中的企業帶來極大的困擾。模型的可移植性差,勢必影響技術的發展傳播速度,也會增加傳播成本,這對於一個需要快速發展的新興科技,確實是一個非常重要的問題。

10.可信任性

這個一個複合的問題。AI模型在處理可評測結果的應用中可能表現非常出色,比如在圖像識別領域,我們可以用一個確定的概率來評價AI模型的正確識別度,也可以說是可信任度是明確可見的。

但是,如果在未來的應用場景中,需要AI模型提供一定的商業決策,或者給出一些建議。我們並沒有很好的參照體系來評價AI模型的決策和建議是否是準確的,是否是最優解。這將影響決策的方向和準確,也會為很多商業人士帶來不必要的困擾。

目前,生活中已經有很多智能模型輔助決策了,但是這樣的模型都是可以解釋的,只對決策起到一定的參考作用。但是AI模型,我們是無法解釋其得出結論的原因的,那麼其可信任度將是一個無法逃避的問題。

人工智慧從概念誕生之起,到如今已經有60年的歷史。如今其已經在一些領域開始發揮其重要的作用了,雖然有很多痛點有待解決,但是哪一個新技術從開始到成熟沒有經歷過各種問題。而且,人工智慧未來的潛力十分巨大,相信未來可以有更好的發展和突破。

相關焦點

  • 人工智慧的自我意識與信息進化論(二):人工智慧是否會具有自我意識?
    所以「人工智慧應用」共享「人工智慧載體」,並且可能存在於特定的任意範圍內。人的生命由身體和意識組成,意識部分包括了智能。「人工智慧應用」之所以還不是一種生命,是因為其沒有意識。意識並不是人類所獨有的,任何生物,包括動物、植物、細胞都有意識。是否具有自我意識是生命體和非生命體的區分標誌。那麼「人工智慧應用」有可能產生「自我意識」嗎?即便是其特有的意識形式。
  • 人工智慧能否產生意識?模擬人類的心靈是AI的終極目標
    意識在人工智慧問題的爭論中扮演著重要的角色。人工智慧方法(AIS)是信息領域公司承擔的分布式工程項目,人工智慧長期以來的目的是在真實的世界裡模擬人類的心靈,讓世界充滿人工意識和人工智慧。在人工智慧進入發展階段之前,人們已經通過調查發現,大腦中的知識創造機制等同於人工智慧。某個公司項目的第一個目標是重建的最大brair模型,模擬1000億個神經元的作用,使用集群27 3兆赫處理器來模擬大腦處理問題方式。然而項目也推斷大腦的實時模型是無法實現的,這項工作的目的是要證明這一推論是錯誤的,機器暫時無法模擬人腦。
  • 強弱AI的辯論:關於人工智慧意識的奇妙理論
    儘管這些問題看起來很相似,但大多數說英語的人都會同意,飛機實際上可以飛行,但潛艇不會遊泳。這是為什麼?這種比較的基本觀點是,如果沒有對思維的統一定義,那麼對機器是否可以思考的痴迷似乎無關緊要。  在對高性能AI的主要反對意見中,從本質上講,不可能確定機器是否能夠真正思考。該論證源於有史以來最著名的數學定理之一。
  • ​人工智慧哲學:機械意識理論批判
    作者首先反對以圖靈為首的傳統人工智慧預設,即人的思維過程本質上類似於一個機器的決策過程。他認為人是一個有意識的存在,不能被簡化為任何物質的模式;人在性質上與自然界的其他部分不同。如果我們把它變成物質,我們就失去了它作為人的價值。
  • 我們需要打造有意識的人工智慧嗎?
    新浪科技訊 北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?而一名人工智慧專家對此的回應是,這主要取決於我們自己是否希望讓機器擁有意識。  這聽上去可能太大膽了些。意識的內在機制——我們為何對世界有著這般生動而直接的體驗——一直是神經科學領域的一大未解之謎。甚至有人認為,這個謎團將永遠都無法解開。
  • 人工智慧能否具有自己的意識,都取決於我們自己
    北京時間8月13日消息,據國外媒體報導,很多人都有這樣的疑問:人工智慧最終是否能具有自己的意識?而一名人工智慧專家對此的回應是,這主要取決於我們自己是否希望讓機器擁有意識。這種能力是意識的主要功能之一。神經科學家在測試人或動物是否有意識時,尋找的便是這種能力。例如,自信作為後設認知的基本形式之一,意識體驗越清晰明了、自信水平便越高。如果大腦是在不知不覺中處理信息,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,便會感覺自信許多,比如「我剛才肯定看見了紅色。」
  • 朱強博士:人工智慧、大數據能揭示生命信息嗎?
    來源微信公眾號:計算機大學生人工智慧、大數據能揭示生命信息嗎?我們有幸生活在資訊時代,看到計算機影響著生活的方方面面,不僅影響我們的社交出行,甚至影響著我們解決問題的思維方式。賈伯斯曾說過:「Everyone in the country should learn to program a computer, because it teaches you to think.」當前,計算機或人工智慧與其他學科的交叉是創新的熱點。
  • 人工智慧是什麼意思?人工智慧的未來趨勢
    隨著網際網路的飛速發展,人工智慧越來越走近人們的生活了,那麼人工智慧是什麼意思呢?人工智慧發展前景怎麼樣?下面人工智慧網小編帶領大家一起來了解一下人工智慧以及人工智慧的未來趨勢人工智慧是什麼?人工智慧(Artificial Intelligence)是研究、開發用於模擬、延伸和擴展人智能的理論、方法、技術及應用系統的一門新技術科學。人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。
  • 應從小培養信息意識和計算思維
    高中信息技術是一門以提升學生信息素養為基本任務,以全面培養學生「信息意識、計算思維、數位化學習與創新、信息社會責任」四大核心素養為目標的課程。中國計算機學會(以下簡稱CCF)是中國計算機及相關領域的民間學術團體,是全國性計算機專業人士的學術共同體,7月9日,CCF中小學計算機教育發展委員會工作會舉行。
  • 科學三大領域——思維科學
    其研究方法大致有:通過對 大腦的研究認識思維機制,從研究思維 過程及其歷史發展,通過 語言來研究思維,由 內省法研究思維,據對思維的模擬研究思維的模式,以及在方法論層次上的歷史和邏輯相一致的方法、系統方法、綜合方法等。思維科學是從 心理學、人工智慧、計算機科學、 生理學、文學藝術等方面研究人思維過程的規律。
  • 將大腦意識上傳雲端,實現思維永生,你願意嗎?-虎嗅網
    雖然長生不老這種美好的願景幾乎不可能實現,但如今,隨著網際網路、雲計算和人工智慧等前沿技術的發展,圍繞思維永生的相關研究不斷引得眾多科學家關注。也許就在不久的某天,我們真的可以將自己的思維上傳至雲端,而獲得永生。
  • 人造意識是否能夠實現?否則還談什麼人工智慧
    請不要糾結於技術層面的區別和難度差異,我們只討論原則上面的可行性,因為如果大腦的模擬在理論上都達不到「完全」,那麼「機械戰警」式的永生即便可以實現,也一定是不完全的。 而關於以上這個「計算機到底有沒有可能完全模擬人腦」的爭論,雖然可能在很長時間內都無法定論,但是每次的探討與思索,都會給人一些新的啟發。至少,無論大小,我們又向著真理的方向邁進了一步。
  • 非連續性文本閱讀:人工智慧
    1936年,英國數學家阿蘭·麥席森·圖靈從模擬人類思考和證明的過程入手,提出利用機器執行邏輯代碼來模擬人類的各種計算和邏輯思維過程的設想。1950年,他發表了《計算機器與智能》一文,提出了判斷機器是否具有智能的標準,即「圖靈測試」。「圖靈測試」是指一臺機器如果能在5分鐘內回答由人類測試者提出的一系列問題,且超過30%的回答讓測試者誤認為是人類所答,那麼就可以認為這機器具有智能。
  • 人工智慧具有意識嗎?聽聽哲學怎麼說
    那麼,隨著人工智慧的飛速發展,一個亟待探討的問題也浮出水面——人工智慧是否具有意識?是否存在超越人類的「奇點」?要想弄清這個問題,先得知道什麼是「意識」。按照馬克思主義辯證唯物主義的觀點,世界是物質的,世界的根本統一性在於其物質性,物質決定意識,意識是對客觀存在的反映,可見意識是相對於物質而存在的,二者是對立統一的。
  • 將大腦意識上傳雲端,實現思維永生,你願意嗎?
    雖然長生不老這種美好的願景幾乎不可能實現,但如今,隨著網際網路、雲計算和人工智慧等前沿技術的發展,圍繞思維永生的相關研究不斷引得眾多科學家關注。也許就在不久的某天,我們真的可以將自己的思維上傳至雲端,而獲得永生。今年上半年,一部新的影視作品 UPLOAD (上載新生)就將我們帶入一個奇怪的雲端 「 來世 」 。
  • AI人工智慧能產生自主意識嗎?
    單純的從技術層面去實現,還是很容易的,最難的是如何給人工智慧注入靈魂,讓他們可以通人性,和人一樣有感情,會有喜怒哀樂。實際上即使是複製再生人,情感認知上可能都會有缺失,因為複製的過程中,基因可能有發生變異或者丟失。
  • 人工智慧應該有「意識」嗎?這是一個錯誤的問題
    編者按:人工智慧技術的快速發展,它會具備人類意識嗎?它應該具備人類意識嗎?成了人們討論的話題。但在丹尼爾·丹尼特(Daniel C. Dennett)看來,人工智慧會具備人類意識,是一個錯誤的問題。即使不是今天,也是明天,還要添加上人工智慧。 維納預見到了這種初期狀態存在的幾個問題,而艾倫·圖靈(Alan Turing)和其他早期對人工智慧持樂觀態度的人,基本上忽視了這些問題。 他說,真正的危險在於: 儘管這些機器本身是無能為力的,但它們可能被一個人或一群人用來加強對其他種族的控制。
  • 如何讓 AI 產生意識?
    然而,他對機器思維和人類思維之間的相似之處持有濃厚的興趣。他曾試圖通過機器人來模擬與自閉症相關的神經反應。全世界最著名的人工智慧之一專家,魁北克人工智慧研究所Mila的創始人Yoshua Bengio同樣對AI的意識非常著迷。他用駕駛的類比來描述有意識和無意識行為之間的轉換。
  • 如何讓 AI 產生意識?
    他表示,我們可以通過一個比喻來描述他的機器人所經歷的「意識」。也就是說,這些機器人實際上並沒有按照我們知道的方式進行思考,它們只是表現出結構上相似的行為。然而,他對機器思維和人類思維之間的相似之處持有濃厚的興趣。他曾試圖通過機器人來模擬與自閉症相關的神經反應。
  • 人工智慧意識的定義,測試和分級
    比如網絡使得它們擁有了群體級別的意識。如果人工智慧是如此的陌生以至於我們很難識別它們怎麼辦?我們的機器會不會在我們毫不知情的情況下產生了自我意識?解決這些問題的巨大障礙就在於沒人能夠非常確定什麼是意識,就別提當我們看到就會知道這種話了。