其實,ai不止是一項科技,更是一種文化,一種觀念。自2016年alphago在圍棋系列賽中戰勝職業棋手以來,ai已經開始在某些領域中取得進展,並且在某些問題上實現了突破。在最近的新聞中,谷歌發布的兩張miranda照片不僅僅是事實,還再次為我們揭開了ai正在開始各領域進行科學研究的新面貌。
人類理解ai的門檻日益提高儘管ai正在取得突破性的進展,但對於人類來說,它們依然是個未知的門檻。谷歌為我們展示了一個非常好的例子,他們把ai圖像分類任務(imageclassificationproblem)的結果分享給了google的imagenetclassificationai競賽委員會(iclr2018),這裡聚集了世界最頂尖的訓練數據集,其中包括1499萬張圖片。大家都認為,當有人工智慧能夠像人類一樣理解圖像的時候,科技已經非常發達了。
但如果ai分得更多的圖片,人類就需要訓練更多的機器才能得到這樣的結果。如果要實現這樣的目標,最好就是,在學習的過程中,不斷地將一組圖片數據訓練集合併成為一組由3000多萬張不同類別的圖片數據組成的數據集。這對於研究人員來說也是個複雜的任務,雖然有這樣的數據集,但是實現人工智慧對專家來說依然是個無法迴避的問題。那麼,未來ai的主要方向有哪些呢?
儘管那些讓人們擔心人工智慧是否能夠自己做研究的人們擔心自己手上的機器太笨,但是他們仍然認為我們還有更好的技術能夠獲得改進。他們的擔心和擔心的人工智慧技術結合起來,提醒我們需要有更好的辦法。這是ai的機遇,也是最大的挑戰。正如在此次miranda的發布會上,作為谷歌的首席科學家,seanye提到:「這是一個從100萬幅圖片中識別出25萬張最佳的圖片數據集。這是一個未來,這也是我們人類自己可以做的非常好的一個主意。」目前主要集中在語音處理領域的人工智慧算法在圖像分類上也表現不佳,這其中一個原因可能就是ai做不到將算法應用到中文裡。
這並不難理解,我們從小就是背著乘法口訣表在計算機中進行學習。這是很重要的習慣,甚至讓我們懷疑那些高水平的人工智慧算法是否就是為我們人類設計的。人工智慧很難理解具有一定程度英文讀音特徵的中文。在某些情況下,甚至無法獲得或識別一個中文單詞,這可能是因為,人工智慧無法在它們處理英文或德語單詞時理解它們的發音特徵,而這與中文的語言規律和語音特徵還有相當大的差距。谷歌正在利用googletranslate工具將其在英語中識別的英文單詞轉換為中文進行識別。