史丹福大學的一位科學家創造了人工智慧一詞。大學的其他人又創造了它的一些最重要應用,例如第一輛自動駕駛汽車。
但是,隨著矽谷面臨著技術如何改變社會的問題,斯坦福希望走在不同創新類型的前沿,這種創新將人類和道德置於人工智慧蓬勃發展領域的漩渦中心。
周一,史丹福大學啟動以人為本人工智慧研究所(HAI),將由李飛飛和史丹福大學教務長約翰·埃切曼迪共同領導。這也是一個龐大的智囊團,旨在成為政策制定者、研究人員和學生的跨學科中心,他們將攜手構建未來的技術。他們希望能夠向下一代灌輸比迄今為止所表現出來的更為世俗和人道的價值觀,並指導政治家對技術所帶來的具有挑戰性的社會問題作出更複雜的決定。
李飛飛在開幕儀式上介紹,HAI的誕生來源於三個簡單而有力的理念:人工智慧的發展應該以其對人類社會的影響為指導;人工智慧應該增強人類技能,而不是取代人類;人工智慧應該更多融入人類智慧的多樣性、差異性和深度。
「我無法想像,我自己感興趣的學科會在十年半之後成為人類將要經歷變革的驅動力之一。」 李飛飛表示,「這種認識演變成了一種巨大的責任感。」
以人為本人工智慧研究所獲得了該領域最大的領導者和行業參與者的支持,雖然並不是第一次做出這樣一個學術努力,但它是迄今為止最雄心勃勃的:目標是籌集超過10億美元。其諮詢委員會由矽谷知名人士組成的,包括前谷歌執行主席埃裡克·施密特,LinkedIn聯合創始人裡德·霍夫曼,前雅虎執行長瑪麗莎·梅爾和聯合創始人楊致遠,以及著名投資人吉姆·布雷耶。微軟聯合創始人比爾·蓋茨周一也出席首屆研討會,並發表主題演講。
籌集的資金不僅用於研究資助和學術集會,還用於購買數據處理能力,並吸引一些近年來逃離學術界、投身高回報行業工作的人才回歸。新研究所坐落在史丹福大學校園中心一座佔地200,000平方英尺的新建築內。
「我們認識到,在技術開發早期做出的決定會產生巨大的影響。」哲學家,前史丹福大學教務長,人工智慧研究所的第二所長約翰·埃切曼迪說,「我們需要考慮這種可能是什麼,為此,我們不能僅僅依靠技術專家。」
以人為本AI研究所的想法始於2016年李飛飛和埃切曼迪之間的一次對話,當時走在大學的校道上,只花了五分鐘時間。
最近,埃切曼迪買下了李飛飛隔壁的房子,兩人成為鄰居。偶然的鄰居閒聊很快走向更重要的方向,關於社會未來和人工智慧爆炸領域出現的問題。初創公司們致力於商業化前的小眾學術技術,從而拿到了數以十億美元計的投資。Facebook、蘋果和谷歌這樣的科技公司正在招聘世界頂級的人工研究人員,以及許許多多的應屆畢業生,他們被安置在新的部門,致力於機器人技術、自動駕駛汽車和家用設備的語音識別。
「對於人工智慧中幾乎所有東西,正確答案比比皆是。」谷歌前主席施密特說,「這一代人比我們更有社會意識,更廣泛地關注他們所做的一切的影響,所以你會看到樂觀主義和現實主義的結合。」
校道上那次五分鐘談話後,幾年時間過去了,人工智慧的危險和弊端變得更加明顯。似乎每天都有關於這項技術造成失業浪潮的新統計數據,從長途卡車司機到農場工人再到皮膚科醫生。埃隆·馬斯克稱AI為「人類生存威脅」,並將其比作「召喚惡魔」。
對於傑出的、有權勢的、以男性為主的科技領袖作出的這種AI警告,李飛飛去年在雷伯恩大樓作證時表示,這些擔憂被給予了太多的重視和關注。她關注的是一個不那麼戲劇化但更重要的問題:人工智慧將如何影響人們的工作和生活方式。它必然會改變人類的體驗,但不一定會變得更好。「我們還有時間。」李飛飛說,「但我們現在必須行動。」李飛飛認為,如果我們對人工智慧的工程方式以及誰來設計人工智慧做出根本性的改變,這項技術將成為一種永久的變革力量。如果沒有,我們就把很多人性因素排除在外。
在那次聽證會上,李飛飛表示,「人工智慧受人類的啟發,由人類創造,最重要的是,它影響著人類。它是一個強大的工具,我們才剛剛開始理解,需要承擔極大的責任。」
回到2017年,多倫多大學研究員傑弗裡·辛頓利用李飛飛的ImageNet資料庫訓練了一種深度神經網絡人工智慧,證明計算機識別圖像錯誤率從5年前的15%下降到不足3%,歷史開始改變。與此同時,正在休產假的李飛飛開始思考同齡人中有多少是女性。
在那一刻,李飛飛強烈地感覺到,這種差距將越來越成為一個問題。大多數構建人工智慧算法的科學家都是男性,而且通常都是有著類似背景的男性。他們有一種獨特的世界觀,這種世界觀滲透到他們所從事的項目中,甚至滲透到他們所預見的危險中。許多人工智慧的創造者都是有著科幻夢想的男孩,他們會想到《終結者》和《銀翼殺手》中的場景。李飛飛認為,擔心這樣的事情沒有什麼錯。但這些想法暴露了對人工智慧潛在危險的狹隘看法。
李飛飛堅信,雖然驅動人工智慧的算法可能看起來是中立的,但影響這些算法結果的數據和應用程式卻不是。重要的是建造它的人以及他們為什麼要建造它。李飛飛在國會指出,如果沒有一個多樣化的工程師團隊,可能會有偏見的算法做出不公平的貸款申請決策,或者只根據白人面孔來訓練神經網絡,創建一個對有色人種面孔表現不佳的模型。李飛飛說,「我認為,如果我們在20年後醒來,看到我們的技術、領導者和從業者缺乏多樣性,那才是末日場景。」
如今,研究人員和記者已經展示了人工智慧技術(主要由白人和亞洲人設計)如何以危險的方式重現和放大社會偏見。內置於相機中的計算機視覺技術難以識別有色人種的面孔。語音識別很難分清非主流英語口音。為預測違反假釋規定的可能性而建立的算法充斥著種族偏見。
並且存在政治影響:旨在針對感興趣的消費者投放廣告的推薦軟體,被別國加以利用幹涉選舉,放大虛假信息和虛假敘述。
「問題的關鍵在於,這場人工智慧革命——以及今天的機器學習技術——是否會促進人類的進步。」該研究所顧問委員會主席霍夫曼說。他稱史丹福大學的研究所是一個潛在的「關鍵槓桿」,可以作為「催化劑」,值得信賴的顧問,以及行業、政府和公眾的情報來源。 (去年有報導稱,霍夫曼在阿拉巴馬州選舉期間資助了Facebook上的一場虛假信息宣傳活動,之後陷入麻煩。他說他不知道他的錢被濫用了)
雖然大學近年來因籌集大筆資金而受到批評,而史丹福大學赫然在列最大的籌款機構之中,但麥肯錫全球研究所所長及諮詢委員會成員James Manyika認為,如果大學想要在人工智慧領域保持競爭力,資金尤為必要。這筆資金不僅可用於留住人才,還可用於資助昂貴的數據處理機器,這些機器可以大規模運行人工智慧應用程式。
「我們的目標是擁有能夠使斯坦福具有競爭力的資源。」Manyika說,「如果你給史丹福大學的研究人員提供計算機,那麼這將大大減緩人才流失對這些企業實驗室的影響。」
施密特表示他在過去一年左右發現了一個「臨界點」,全美國各地的計算機科學課程正在增加人工智慧道德課程,谷歌等大公司正在宣布人工智慧原則並制定內部計劃,以試圖在構建的軟體中消除偏見。施密特表示,史丹福大學的計劃將提升和集中這些特別的努力,但也有助於整個領域的發展。
HAI尚未回答的一個更大問題是,它將在多大程度上對當前最棘手的問題採取政策立場,其中李飛飛和其他HAI成員直接涉及其中。去年,李飛飛擔任Google Cloud人工智慧首席科學家時,谷歌因與五角大樓籤訂一份Maven項目合同而捲入了一場爭議。該程序使用人工智慧來解釋視頻圖像,這些圖像可以用於無人機打擊目標;而谷歌聲稱,它是出於「使用人工智慧識別低解析度對象」和「拯救生命為首要意圖」。
然而,許多員工反對在軍用無人機上使用其技術。其中約4000人籤署了一份請願書,要求「一項明確的政策,聲明谷歌及其承包商永遠不會製造戰爭技術」,甚至有人辭職以示抗議。
雖然李飛飛沒有直接參與這筆項目,但她所在的部門負責管理Maven項目。當李飛飛寫的電子郵件被洩露給《紐約時報》時,就成了這場爭議的公眾人物。據《紐約時報》報導,李飛飛證實,由於該主題的敏感性,李飛飛提醒同事在討論合同時不要使用人工智慧一詞。
雖然這些郵件看上去像是在幫助公司避免尷尬,但在公開場合,這似乎讓人困惑,因為李飛飛一直在該領域以道德規範的化身而聞名。事實上,在公眾強烈抗議之前,她認為這項技術「相當無害」,沒有想到這會引起員工的反感。
李飛飛後來也思考矛盾爆發的原因,「這並不是問題的實質。它關乎當下——我們的集體責任感、人工智慧的新興力量、矽谷需要參與的對話。Maven只是成為了一種匯聚點。」她說,「『不作惡』不再是一個足夠強硬的立場。」
對於這種類似立場問題,埃切曼迪則表示,HAI不會偏袒任何一方,也不會向其他組織發號施令。
埃切曼迪說,來自法律和人類學等部門的200名教師已經向研究所申請資金。已經有55個人獲得了種子基金,用於研究人工智慧對醫療決策、性別偏見和難民重新安置等問題的影響。他說,以人為本AI研究所最大的優勢之一就是,致力於提升專業內部的多樣性,並從傳統上與AI無關的領域招募專家。
本文來源前瞻網,轉載請註明來源。本文內容僅代表作者個人觀點,本站只提供參考並不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯繫:service@qianzhan.com) 品牌合作與廣告投放請聯繫:0755-33015062 或 hezuo@qianzhan.com