神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。
編者按:客觀是科學的基本信條,是學術研究的基石。可一旦論文作者與編輯或評審存在利益衝突時,就很難保證客觀性。但是論文的數量又一直在增長,人工已經很難及時檢查那麼多的論文。怎麼辦?人工智慧可以派上用場。《紐約時報》的Dalmeet Singh Chawla聚焦了協助評審論文的各種AI軟體,原文標題是:Do You Have a Conflict of Interest? This Robotic Assistant May Find It First
劃重點:
客觀是科學的基本信條,也是學術研究的基石
如果研究跟商業利益掛鈎,作者與編輯、評審存在合作,客觀性就會受到影響
過去兩個世紀的時間裡,研究的數量每年增加了3%,人力無法應對
新湧現了一批輔助檢查論文潛在利益衝突的AI
AI不能也沒有能力直接進行論文是否通過的決策
科學應該怎麼去處理利益衝突?一旦發現存在利益衝突,這就會成為客觀性的障礙,而客觀是科學的基本信條,也是學術和研究的基石,一旦存在利益衝突,科學家報告背後的真相也會受到質疑。
有時候,利益衝突是很明顯的。如果在成果裡面研究人員沒有披露存在商業利益的資金來源,其研究結果的合法性往往就會受到破壞。此外,當論文作者跟期刊編輯在其他研究上存在廣泛合作時,這種利益衝突也是很顯然的事情。(這種情況導致某期刊在2017年撤回了兩篇論文。)
但是有的情況就要更加微妙些,這種利益衝突就會成為漏網之魚,尤其是因為很多的期刊的論文都是由小規模團隊進行編輯,並由為了履行自己所研究學科的職責而服務的志願科學家進行同行評審的。再加上學術文獻發展的迅速:在過去兩個世紀的時間裡,每年發表的研究數量都在以大約3%的速度在增長,而且在過去20年的時間裡,很多論文的發表形式已經變成付費出版,在開放獲取期刊中發表,有的還是列印稿件,只要科學可靠就行,就算內容不新穎或亮眼也能發表。
考慮到這類問題的出現,一家開放存取期刊的出版商正在提供助手來幫助自己的編輯在論文發表之前就發現此類問題。但這位助手不是人類。這款叫做「人工智慧評審助手」(AIRA)的軟體會檢查潛在的利益衝突,手段是看看原稿的作者,處理稿件的編輯,或者審閱稿件的同行評審,他們過去有沒有共同撰寫過其他論文,然後進行標記。
總部位於瑞士的發行商Frontiers在今年5月份已經向服務於數十種期刊的外部編輯推出了這款軟體。軟體還會檢查其他的問題,比方說,論文是否涉及有爭議的主題,是否需要特別注意,或者用詞是否清晰,是否達到可以發表的質量。
這個工具還不能檢測出所有形式的利益衝突,比方說未公開的資金來源或隸屬關係。但是,軟體的目的是增加一種保護機制,以防止作者、編輯和同行評審未能盡到對此前存在的互動進行自我監督的責任。
Frontiers的聯合創始人兼CEO Kamila Markram說:「AIRA的目的是讓人類專家把注意力轉移到手稿存在的潛在問題上。在某些情況下,AIRA可能會誤報或者漏報問題,這些問題可以在稍後的審核過程由人工識別出來。」
從事可疑研究實踐研究的荷蘭蒂爾堡大學(Tilburg University)的助理教授MichèleB . Nuijten說,「軟體似乎很有前途。」
Nuijten曾幫助創建了statcheck,這種算法會對報告的p值(常用但頻繁受到質疑的統計顯著性指標)進行重新計算,然後標記心理學論文中的統計錯誤。她說,有一個標準化的初步質量檢查是一個好主意,而且是自動化可以發揮作用的地方。
她說:「同行評審沒法發現科學論文的所有錯誤,因此我認為我們需要尋找不同的解決方案,這樣才能幫助我們提高科學研究的質量和可靠性。人工智慧肯定可以在其中發揮作用。」
跟Frontiers是開放獲取出版商一樣,科學公共圖書館(PLOS)的出版道德團隊經理Renee Hoch說,她的組織也在使用軟體工具來檢測作者和編輯之間的潛在利益衝突,但並沒有對審稿人做此操作。相反,她們要求裁判自我報告存在的問題,並根據具體情況採取措施。
但是,Hoch也表示,像AIRA這樣的AI工具可以將審稿人在潛在利益衝突暴露出來,對於人工執行這些檢查來說,會有助於減輕相關的負擔。
全球第二大學術出版商Springer Nature的產品數據和元數據管理總Henning Schoenenberger表示,自己的公司也在開發AI工具和服務,以為同行評審提供參考。
儘管statcheck和AIRA等AI工具不斷湧現,但Nuijten仍強調人類角色的重要性,她表示,自己對因為技術導致論文「未經人工核查就馬上」被拒可能會出現的情況感到擔憂。
俄克拉荷馬州醫學研究基金會生物信息學家Jonathan D. Wren對此表示贊同,他補充說,僅僅因為兩名研究人員曾是某篇論文的共同作者,並不一定意味著他們就不能客觀地判斷彼此的工作。他說,問題在於:「如果不給出客觀的同行評審的話,他們會得到什麼樣的好處?他們會以任何方式獲得好處嗎?」
用算法是很難回答這樣的問題的。
蒙特婁麥吉爾大學計算機科學家,《前沿科學》雜誌的外埠主編Kaleem Siddiqi說:「並沒有真正的解決方案。」利益衝突可以是主觀的,往往很難發現。經常偶遇的研究人員最適合評判彼此的工作,尤其是範圍比較狹窄的領域。
Wren也在開發用於篩選稿件的軟體,他表示,AI也許對那些繁雜、系統化的工作最為有用,比方說檢查論文是否含有符合道德標準的聲明。
在德克薩斯大學奧斯汀分校學習修辭和寫作的S. Scott Graham表示同意。他開發了一種可挖掘稿件提到的利益衝突聲明的算法,然後確定靠製藥公司廣告獲得收入的期刊有沒有發表親行業文章的傾向。
但是,他指出,自己的工具高度依賴於兩樣東西:一是作者一開始會對利益衝突做出聲明,二是期刊會將相關披露發布出去——在惡意的情況下,這兩點都沒法保證。
Graham說:「任何AI系統的局限性都在於可用的數據。」
他補充說:「只要利用這些系統來為編輯評審和同行評審的決策提供支撐,我認為應用就很有希望。但是如果系統自己做決策的話,我就要擔心點了。」
譯者:boxi。