新冠狀毒席捲全球,2021年已經到來,公眾和監管機構都更加關注人工智慧的影響,如何讓它變得有意義?以下是在未來一年對人工智慧的五個希望:
1、降低公司在研究方面的影響力
科技巨頭對人工智慧研究的方向有著不成比例的控制,這使整個領域的方向轉向越來越多的大數據和大模型並帶來了一些後果。例如,它誇大了人工智慧進步對氣候的影響,將資源有限的實驗室拒之門外,忽視了其他可能的方法,導致科學研究更加遲緩。科技巨頭們具備很容易限制其他調查成果的能力。
但企業影響力的大小往往與資金和替代性融資是否缺乏有關。實驗室項目最初只尋求獨立、富有的捐贈者。事實證明,這種押注是不可持續的。希望看到更多政府介入這一空白,為研究人員提供相關的資金選擇。這雖然不是完美的解決方案,但這是一個開始。政府是對公眾負責,而不是對底線負責。
2、重新關注常識性理解
對更大、更壞模型的過度關注,已經掩蓋了人工智慧研究的一個核心目標——創造出不僅能匹配模式,而且能真正理解意義的智能機器。雖然企業影響力是造成這一趨勢的主要原因,但也有其他的罪魁禍首。研究會議和同行評議出版物非常強調取得「最先進」的結果,但這種技術的現狀往往無法通過更多數據和更大的模型來衡量。
並不是說大規模模型永遠無法達到常識的理解,這仍是一個懸而未決的問題。但是,還有其他的研究途徑值得更多的投資。例如神經符號人工智慧,這是一種將深度學習與符號知識系統相結合的技術。還有一些人在試驗使用更少數據的概率技術,其靈感來自於人類孩子從很少的例子中學習的能力。
2021年,希望該領域將重新調整其動機,將理解優先於預測。這不僅會帶來技術上更健全的系統,這些改進也會產生重大的社會影響。例如,當前的深度學習系統容易上當受騙,破壞自動駕駛汽車的安全性,並為自動武器帶來危險的可能性。系統無法區分相關性和因果關係也是算法識別的根源。
3、賦予邊緣化研究人員權利
如果算法是將其創造者的價值觀和觀點進行編碼,那麼在開發算法時就應該有更廣泛的人性層面的人參與其中。如果這些人沒有能力把他們的生活經驗運用到他們的工作中,那麼數量上的多樣性就毫無意義。目前,潮流正在改變,希望這種勢頭能帶來持久的、系統性的變革。
4、關注受影響社區的觀點
去年,最令人興奮的趨勢之一是參與式機器學習的出現。重新設計AI開發過程,將最終受制於算法的人納入其中也是一種挑戰。學界建議包括:徵求社區反饋的新治理程序,告知公眾參與的審計方法並提議重新設計人工智慧系統,讓用戶對自己的設置有更多的控制。希望2021年能看到更多這樣的想法被認真探索和採納。Facebook已經邁出了第一步:如果它允許外部監督委員會對該平臺的內容審核政策進行約束性更改,那麼該治理結構可能會成為一個值得效仿的反饋機制。
5、法規化
到目前為止,草根階層的努力已經引領了這場運動,減輕了算法帶來的危害,並追究科技巨頭的責任。不過,建立更為永久性的法律護欄取決於各國和國際監管機構。好消息是,世界各地的立法者一直在關注並起草立法。例如:美國國會議員已經提出了解決面部識別、人工智慧偏見和深度造假的法案。希望2021年,我們能看到其中一些法案獲得通過。
聲明:本文版權歸原作者所有,轉載請註明出處,請勿轉至外網或用於商業用途。