這是一個由四部分組成的系列文章的第二部分,該系列文章利用哈佛社區的專業知識,研究了人工智慧和機器學習時代的發展所帶來的希望和潛在的陷阱,以及如何使其人性化。
幾十年來,人工智慧一直是高級STEM研究的引擎。大多數消費者通過Google和Facebook等網際網路平臺以及零售商Amazon意識到了該技術的力量和潛力。如今,人工智慧在醫療保健,銀行,零售和製造業等眾多行業中至關重要。
但是,隨著人們擔心這些複雜,不透明的系統可能對社會造成的危害大於對經濟的好處,它改變了遊戲規則的諾言,諸如提高效率,降低成本,加速研發等。在幾乎沒有美國政府監督的情況下,私人公司使用AI軟體來確定健康和醫療,就業,信譽度,甚至刑事司法,而不必回答他們如何確保程序不會被有意識或無意識地編碼。結構性偏見。
不可否認的是它不斷增長的吸引力和實用性。根據技術研究公司IDC在8月發布的預測,即使在因COVID-19大流行引起的全球經濟衰退之後,今年全球人工智慧業務支出預計將達到500億美元,到2024年每年將達到1100億美元。零售和銀行業是今年支出最多的行業,每個行業的支出都超過50億美元。該公司預計,媒體行業以及聯邦和中央政府將在2018年至2023年之間投入最大的資金,並預測AI將是「在未來十年改變整個行業的顛覆性影響」。
「幾乎每一個大公司目前擁有多個AI系統和計數AI的部署組成自己的策略,說:」約瑟夫·富勒,在哈佛商學院管理實踐教授,誰共同領導管理工作的發展前景,一個研究項目在商業和工作世界中部分研究AI的開發和實施,包括機器學習,機器人技術,傳感器和工業自動化。
在早期,人們普遍認為AI的未來將涉及需要低級決策的簡單重複任務的自動化。但是,由於功能更強大的計算機和海量數據集的彙編,人工智慧的發展日趨成熟。機器學習是一個分支,以其排序和分析大量數據以及隨著時間的推移而學習的能力而著稱,它改變了包括教育在內的無數領域。
公司現在使用AI管理來自供應商的材料和產品的採購,併集成大量信息以幫助進行戰略決策,並且由於其能夠如此快速地處理數據的能力,AI工具正在幫助減少昂貴的試驗中的時間富勒說,產品開發會出錯,這對於像製藥這樣的行業來說是至關重要的進步,製藥行業需要花費10億美元才能將新藥推向市場。
衛生保健專家看到了AI的許多可能用途,包括計費和處理必要的文書工作。醫療專業人員期望最大,最直接的影響將是數據分析,成像和診斷。他們說,想像一下,有能力將對疾病可用的所有醫學知識帶入任何給定的治療決策。
在就業方面,人工智慧軟體會挑選和處理簡歷,並分析和分析求職者的聲音和面部表情,以僱用和推動所謂的「混合」工作的增長。AI不會替代員工,而是承擔其工作中的重要技術任務,例如包裹運送卡車的路線安排,這有可能使工人解放出來專注於其他職責,從而使他們更具生產力,從而對僱主更具價值。
富勒說:「這使他們能夠更好地做更多的事情,或減少錯誤,或獲取他們的專業知識,並在組織中更有效地傳播它。」研究了迷失或最可能失去工作的工人的影響和態度的富勒說。將工作丟給AI。
史蒂芬妮·米切爾(Stephanie Mitchell)/哈佛大學檔案照片
「智能機器能超越我們,還是人類的某些判斷因素在決定生活中某些最重要的事物時必不可少?」
—政治哲學家麥可·桑德爾(Michael Sandel)以及安妮·T·貝斯(Robert M. Bass)政府教授
富勒認為,儘管自動化將繼續存在,但消除所有工作類別(如因AI的普及而被傳感器取代的高速公路收費站)的可能性不大。
他說:「我們將要看到的工作需要人與人之間的互動,同理心,並且需要對機器正在創造的東西進行判斷(將)具有魯棒性。」
卡倫米爾斯(Karen Mills'75)和MBA '77於2009年至2013年間擔任美國小企業管理局的負責人,他說,雖然大企業已經有了巨大的領先優勢,但小企業也有可能被AI改造。從長遠來看,在COVID-19大流行之前,這可能會對國民經濟產生重大影響。
該技術不會妨礙小型企業,而是可以為所有者提供實時的銷售趨勢,現金流,訂單和其他重要財務信息的詳細的新見解,從而使他們可以更好地了解企業的運作方式以及問題區域可能隱隱而無須米爾斯說,每周要僱用任何人,成為金融專家或花費數小時在帳面上做工。
人工智慧可以「完全改變遊戲規則」的領域是放貸,在這一領域很難獲得資本,部分原因是銀行經常難以準確地了解小企業的生存能力和信譽。
她說:「比評估一個人要困難得多,要深入了解業務運作並了解正在發生的事情」。
信息不透明使得潛在的借款人和放款人的借貸過程既繁瑣又昂貴,而且應用程式旨在分析大型公司或已經借款的公司,這對於某些類型的企業和歷史上服務欠缺的借款人來說是固有的劣勢,哈佛商學院高級研究員米爾斯說,像婦女和少數族裔企業主一樣。
但是,藉助AI驅動的軟體從企業的銀行帳戶,稅收和在線簿記記錄中提取信息並將其與數千家類似企業的數據進行比較,即使小型社區銀行也將能夠在幾分鐘內做出明智的評估,而無需進行繁瑣的文書工作和延誤,就像音樂家的盲目試音一樣,不用擔心任何不公平現象會影響決策。
她說:「所有這些都消失了。」
客觀的單板
但是,並非所有人都能看到藍天。許多人擔心,即將到來的AI時代是否會帶來新的,更快的,無摩擦的方式來進行大規模區分和劃分。
政治哲學家Michael Sandel,Anne T.和Robert M. Bass政府教授說:「算法決策的部分吸引力在於,它似乎提供了一種克服人類主觀性,偏見和偏見的客觀方法。」 「但是我們發現,許多算法決定誰應該假釋,或者應該給誰提供就業機會或住房……複製並嵌入我們社會中已經存在的偏見。」
喬恩·蔡斯/哈佛大學檔案照片
「如果我們不考慮周全和謹慎,我們將再次以紅色重新編排。」
—卡倫·米爾斯(Karen Mills),商學院高級研究員,2009年至2013年擔任美國小企業管理局負責人
桑德爾說,人工智慧代表了社會對道德的三個主要關注領域:隱私和監視,偏見和歧視,也許是這個時代最深刻,最困難的哲學問題,人類判斷的作用。以及新技術的政治意義。
「關於隱私保護措施以及如何克服量刑,假釋和僱傭實踐中算法決策中的偏見的辯論,現在已經很熟悉了,」 Sandel說,指的是程序開發人員的有意識和無意識的偏見以及內置於用於訓練的數據集中的偏見。該軟體。「但是,我們還沒有把最棘手的問題包裹在腦海中:智能機器能否超越我們,還是人類的某些判斷因素在決定生活中某些最重要的事情時必不可少?」
AI突然注入偏置恐慌到日常生活集體被誇大了富勒說。首先,充斥著人類決策的商業世界和工作場所始終充滿著「各種各樣」的偏見,這些偏見阻止人們進行交易或獲得合同和工作。
富勒說,經過仔細的校準和深思熟慮的部署,簡歷篩選軟體可以比以前的其他方式考慮更多的申請人,並且應最大程度地減少人為看門人帶來的偏愛。
桑德爾不同意。「人工智慧不僅複製了人類的偏見,而且賦予了這些偏見某種科學信譽。這些預測和判斷似乎具有客觀地位。」他說。
Mills說,在貸款領域,算法驅動的決策確實具有潛在的「陰暗面」。隨著機器從所獲取的數據集中學習,機會「非常高」,它們可能會複製銀行業過去的許多失敗經驗,從而導致對非洲裔美國人和其他邊緣化消費者的系統性區別對待。
她說:「如果我們不考慮周全和謹慎,我們將最終重新進行重新編排。」
如果銀行用來評估貸款申請的算法最終不恰當地歧視了消費者類別,則銀行在法律上將陷入困境,因此,該領域的「高層」現在就「非常關注」這一問題。密爾(Mills)表示,他密切研究了金融技術或「金融科技」的快速變化。
「他們真的不想歧視。他們希望獲得最信譽良好的借款人的資本,」她說。「這對他們來說也是一件好事。」
監督不堪重負
鑑於其強大的功能和預期的普遍性,有人認為應該嚴格監管AI的使用。但是,對於應該如何做以及誰應該制定規則尚無共識。
迄今為止,開發或使用AI系統的公司主要依靠現有法律和市場力量進行自我警戒,例如消費者和股東的負面反應或要求高素質AI技術人才保持一致的要求。
富勒說:「在這個規模的企業中,沒有任何一個商人關心這個問題,並試圖反思在政治,法律,法規,[或]道德上可以接受的事情。」
他說,公司已經考慮到產品推出前的濫用所造成的潛在責任,但是,期望公司預見並防止其產品可能產生的任何意外後果是不現實的。
幾乎沒有人認為聯邦政府能勝任或曾經做到。
富勒說:「監管機構不具備人工智慧的專業知識,就無法在沒有真正關注和投入的情況下進行[監督]。」他指出,技術變革的速度之快意味著即使是知情的立法者也無法跟上步伐。要求對使用AI的每個新產品進行預篩查以防止潛在的社會危害,這不僅是不切實際的,而且還會對創新造成巨大的拖累。
羅斯·林肯/哈佛大學攝影師
「我沒有一個擁有負責汽車製造的部門的中央AI小組,我會讓汽車行業的人擁有一個真正擅長AI的部門。」
—詹森·弗曼(Jason Furman),甘迺迪學校經濟政策實踐教授,巴拉克·歐巴馬(Barack Obama)總統前高級經濟顧問
哈佛大學甘迺迪學院經濟政策實踐教授傑森·弗曼(Jason Furman)同意,政府監管機構需要「對人工智慧有更好的技術理解,才能很好地完成這項工作,」但他說他們可以做到。
他說,現有的機構,例如監督車輛安全的國家公路運輸安全協會,可以處理自動駕駛汽車的潛在AI問題,而不是一個監督機構。
前總統巴拉克·歐巴馬(Barack Obama)前首席經濟顧問弗曼說:「我不會有一個中央人工智慧小組,該部門擁有負責汽車的部門,我會讓汽車部門的人員真正精通人工智慧。」
Furman表示,儘管將AI法規保持在行業內確實使通行執法成為可能,但特定行業的專家組將更加了解AI只是其中一項的總體技術,從而可以進行更徹底的監督。
雖然歐盟已經制定了嚴格的數據隱私法,並且歐盟委員會正在考慮建立正式的道德使用AI監管框架,但美國政府在技術監管方面歷來為時已晚。
弗曼說:「我認為我們應該在三十年前就開始,但總比沒有好。」他認為,要讓立法者採取行動,就必須有「更大的緊迫感」。
桑德爾認為,企業領導者「不能兩全其美」,拒絕承擔AI的有害後果的責任,同時還要打擊政府的監督。
「問題在於,這些大型科技公司既沒有自我監管,也沒有受到適當的政府監管。我認為兩者都需要更多,」他隨後補充說:「我們不能認為市場力量會自行解決。正如我們在Facebook和其他科技巨頭中看到的那樣,這是一個錯誤。」
去年秋天,桑德爾(Sandel)與哈佛大學幹細胞研究所聯合主任道格·梅爾頓(Doug Melton)一起教授了一門頗受歡迎的Gen Ed新課程「技術倫理學」。就像在他傳奇的「正義」課程中一樣,學生們思考並辯論有關新技術的大問題,從基因編輯,機器人到隱私和監視,應有盡有。
「公司必須認真考慮其所做行為的道德層面,而我們作為民主公民,必須對技術及其社會和道德含義進行自我教育—不僅要決定法規的內容,而且還要決定我們希望大型科技和社交媒體在我們的生活中扮演什麼角色,」桑德爾說。
他說,要做到這一點,將需要在哈佛和更廣泛的高等教育中進行重大的教育幹預。
「我們必須讓所有學生充分學習技術以及新技術的道德涵義,以便當他們經營公司或以民主公民的身份時,他們將能夠確保技術服務於人類目的而不是破壞體面的公民生活。」
下一步:醫學界的AI革命可能會提升個性化治療,填補獲得醫療服務的空白並削減繁文tape節。然而風險比比皆是。