算法到底算什麼?

2021-01-08 民主與法制網

  無論人們在算法的問題上存在什麼樣的爭議,但「算法正在普遍而廣泛地影響我們的生活」已經是個越來越明顯的事實。所謂「普遍」,意思是說,幾乎每個人的生活都正在受到算法的影響;所謂「廣泛」,意思是說,幾乎人類生活的所有領域都正在受到算法的影響。無論是獲取各式各樣的信息(例如我為了寫這篇文章而尋找資料),還是獲得各式各樣的生活物品(購物),這些活動都是算法發揮作用的領地。如果不是受限於文章的篇幅和性質,我可以用無窮無盡的文字來詳細說明算法在各個領域如何影響人類的生活。但目前這樣簡單的描述,已經足夠。既然算法正在普遍而廣泛地影響著我們的生活,另一種也一直在普遍而廣泛地影響我們生活的事物——法律,必然跟算法遭遇在一起。於是,法律與算法的關係,當然會成為法律上非常重要的話題。

  討論法律與算法的關係,顯然可以同時做雙向的思考:(1)法律對算法的影響;(2)算法對法律的影響。本文主要關注的是「法律對算法的影響」這個話題,這通常也被叫作「法律對算法的介入或規制」;相應地,所要處理的核心問題,就是「法律介入或規制算法的最佳方式是什麼」。所以,我要面對兩類論辯對手:其一,「法律根本沒有理由介入算法」的主張;其二,「法律只能以某種方式對待算法,但這種對待方式實際上是反對法律的介入」的主張,這或者是將算法視為言論,或者是將算法視為商業秘密。本文的第一部分用來處理第一個對手,這將會涉及到「算法對法律的影響」這個話題;第二部分用來處理第二個對手,以便證明為什麼有理由將算法視為言論或者商業秘密,以及這樣的看法會在法律上帶來怎樣的影響;第三部分將圍繞著「算法權力」這件事情展開,用來說明為什麼法律對算法的規制,需要同時考慮算法黑箱、算法權力與算法操縱這三件事情;第四部分集中說明我自己的看法,其中的關鍵是為什麼有理由將算法視為程序,由此應當以「程序正義」的具體要求;最後,是個簡要的結論。

  一、法律能夠介入算法嗎?

  一旦談到法律對於算法的介入或規制,立刻就會面對兩種類型的挑戰:其一,基於能力的挑戰,即法律人無法擁有如同算法專家一樣的算法知識,而這無法滿足法律介入算法在知識上的要求;其二,基於法律性質的挑戰,這又可以被進一步區分為兩個不同的主張:(1)在算法的時代,算法就是法律,而原本的「法律」不再是真正的法律;(2)雖然原本的法律仍然是法律,但算法是更好或者更理想的法律,因此原本的法律應當模仿算法,所以法律應當算法化。[ 顯然,在法律性質的挑戰中,無論哪個具體的主張,都會得出法律無法介入算法的結論。]作為一篇致力於討論法律如何介入算法的文章,以上這些想法就成為必須首先攻克的難關,否則後續的工作就無法合理地展開。

  (一)法律人得是多大範圍的專家?

  我將首先考慮「基於能力的挑戰」:法律人有能力如同了解法律一樣的程度,如此了解算法嗎?這個問題的提出,顯然來自於一個非常有力的直覺:如果法律人想要運用法律來介入算法,那麼他們必須要像了解法律的程度一樣了解算法;否則,即使事實上法律人介入了算法的領域,這不但無法避免盲目無知、法律人的傲慢之類批評,而且也會導致那個介入是無頭蒼蠅似的亂來。事實上,由於專業分工與個人能力的雙重限制,可能除了個別的例外,法律人不可能像算法專家那樣了解算法,所以算法的問題只能是由算法專家來壟斷,即使是在關於算法的法律問題上,法律人也必須聽從算法專家的專業判斷。

  對於這個一開始的懷疑,存在一個簡單但卻意義有限的回應:如果承認在算法的問題上,算法專家的確擁有多於法律專家的專業知識;但在法律問題上,他們一定只會擁有少於法律專家的專業知識。因此,如果說法律專家不具備在算法問題上的發言權,同理,算法專家也將不具備在法律問題上的知識能力。我之所以說這個回應意義有限,是因為這是一種類似於互潑髒水的論辯策略:你說我不行,我就說你也不行。然而,你說我不行,並不等於你行;我說你不行,也不等於我行。於是,論辯上的僵局就成為最終的結果:最後大家誰都不行。但這也是最壞的結果,因為這等於對「法律和算法的遭遇」這件事情持消極的態度:既然誰都沒有能力面對,那麼乾脆都不面對,讓那件事情自生自滅。因此,真正重要的是,如何尋找更為積極的做法,而不是進入這種互潑髒水的打爛仗遊戲。

  那麼,積極的做法是什麼?這依賴於如何界定「法律與算法的遭遇」這件事情:如果將它看作是算法問題,那麼法律專家就要讓位,例如將法律算法化;如果將它看作是法律問題,那麼算法專家就要作壁上觀,例如算法歧視之類涉及權利的問題。簡單地說,如果關心的重點是「算法的法律問題」,那麼法律人、而不是算法專家,才是最終的權威。所以,算法專家並不是在所有跟算法有關的問題上都是知識權威,而必須要看那是一個關於算法的什麼問題。你怎麼可能想像,在算法的銷售問題上,算法專家一定會比一個銷售員要好?

  當然,你可能會反駁說:由於算法是專業性極強的領域,因此法律專家還是必須掌握一定程度的算法知識才行,由於算法的門檻很高,即使是「一定程度」的初步要求也很難達到,所以法律人還是不具備發言資格。然而,即使如同盧曼的信徒一樣,認為法律是個單獨的系統,但是由於法律必然擁有影響其他所有社會領域的能力,並且也在事實上影響到其他的社會領域,而其中都涉及有或高或低的專業知識,這看起來會導致法律除了自己的領域,別的都一概插不上手。真實情況並非如此。我相信算法專家也會認為植物學也是高度專業化的領域,但在「西紅柿是水果還是蔬菜」的問題上,也不是一概聽從植物學家的判斷;如果對水果和蔬菜徵收不同標準的稅,那麼擁有最終決定權的法官說「按照傳統,將西紅柿當作蔬菜、而不是水果」,這就是「徵多少稅」這個法律問題的最終答案,也是「在法律上,西紅柿是水果還是蔬菜」這個問題的最終答案。

  這並不要求法律人必須是植物學家,他只要滿足兩個基本條件就足夠了:其一,不要犯所謂的「範疇錯誤」就足夠了,例如你不能討論「花崗巖是水果還是蔬菜」的問題;其二,法律上的那些技術是否合理地將它納入到某一個類型當中,無論運用的是法律概念的具體化、法律解釋、類推還是某種價值判斷的方法,等等。其中,前一個條件的滿足,基本上只限於日常生活的常識就足夠了,否則沒有謀財害命經歷的法官怎麼有資格面對殺人犯和搶劫犯?老話說得好:沒吃過豬肉,還沒見過豬跑?後一個條件是法律上的專業要求,所以法律人必須得是真正的法律專家才行,但這跟植物學和算法已經是不同的行當了。

  (二)法律應該算法化嗎?

  雖然法律人能夠跨過專業知識要求這個門檻,但是「法律介入算法」的話題還是會遇到另外一個攔路虎,這就是關於「算法對法律的影響」這個話題。不過要注意,並不是這個話題的所有內容,都會產生阻攔法律介入算法的結果。因為,該話題可以被進一步區分為工具性與非工具性兩個不同的部分。其中,就工具性部分而言,它的意思是說:算法是以工具的方式幫助法律更好地實現法律所要實現的目標。例如,算法可以減輕很多的法庭工作,使得司法變得更有效率;或者,算法可以提供很多方面的法律諮詢,因此律師可以將工作的中心集中於更富有爭議的法律問題上,等等。顯然,這些扮演法律之輔助功能的算法,並不會抵禦或反對法律的介入,因為此時法律工作仍然是核心性的,算法也必須圍繞著法律的功能而展開。

  然而,如果在算法影響法律的問題上持一種非工具性的觀念,那麼這就會導致對法律介入算法的反對。如前所述,這種非工具性的看法,可以被進一步區分為兩種具體類型:(1)在算法的時代,算法就是法律;(2)算法是更好或者更理想的法律,所以法律應當算法化。對於其中的第一種主張,我已經在其他討論中給出了一種基於法律性質判斷的反駁,即由於法律的全面性與至上性,即使是在算法的時代,算法也不可能是法律,而只能是法律所針對的對象。此處,我將給出一個補強的論證,這仍然跟法律的性質有關係。用形象一點的語言來說,在一個被稱為算法的社會中,算法就相當於該社會的自然規律,法律絕對無法等同於自然規律,其中最特殊的地方在於:一群人的特定行動——例如全國人大行使立法權的事實——可以改變法律,但卻無法改變自然規律——例如全國人大肯定不可能「讓(要求)太陽繞地球轉」。這個簡單的例子,其實說明了一個沒有足夠篇幅討論的關於法律性質的重要共識:無論是法實證主義的支持者還是反對者,他們均認為法律是某種社會事實,即特定社群人們的態度、行動會決定著法律的存在和內容,所以法律顯然不是自然規律。

  現在,就需要處理第二種主張了,它認為,由於法律應當算法化,所以法律就無法介入或規制算法,因為這意味著,此時法律應當以算法作為目標,這與「法律以算法作為拘束對象」的主張顯然不相容。必須注意,法律的算法化與算法的(法律)工具化,這兩個看法之間非常類似,以至於很多原本持有算法之工具性的主張者,很容易就邁過這個界限,進入到法律應當算法化的領域中。然而,即使承認算法有助於法律任務的實現(例如有助於準確量刑,甚至可以進一步主張算法能夠承擔某些法律的任務,比如為客戶提供法律意見),但這都不等於說法律就應當算法化。除非以下兩個條件同時成就:(1)法律和算法是同類事物;(2)就(1)而言,算法在比法律更好。例如,如果將算法視為一套邏輯程式,並且將法律推理同樣視為邏輯過程,那麼法律推理就應當算法化;然而,如果將法律推理視為必須涉及價值判斷的實質判斷過程,那麼算法就只能在邏輯的部分,而不是價值判斷的部分,對法律推理扮演重要性有限的工具性角色。

  因此,如果不能妥當地證明「法律和算法是同類事物,且算法在比法律更好」,那麼就沒有理由將法律算法化,或者法律的算法化只具備工具效果。其中,後半部分的判斷,面臨一個強度有限的挑戰:從屬於人工智慧這個大概念的算法,仍然是對於人的模擬,即人在智力方面比人工智慧更好,這就是弱人工智慧;相反,如果人工智慧和人在這方面一樣好,那麼擁有人工智慧的機器就成為更好的人,這就是強人工智慧。顯然,在目前弱人工智慧的時代,算法還處於對人的模擬的階段,而人類創造出法律的歷史時間更長、實踐的經驗更多,那麼看起來最合理的結果,並不是法律的算法化,而應當是算法的法律化,即算法應當以法律作為模擬對象,因為(目前的)法律是更好的算法。

  要想避免剛才這個看法,除非如下理由成立:算法所擁有的某些優點,在到目前為止的法律中從未實現,且這是法律應當實現的。那麼,是哪些可能的算法優點呢?只有一種可能,這就是算法的「可計算性」。它在法律上的表現就是對於效率的追求,在方法上就是成本-效益分析。這就不難理解,為什麼「成本-效益分析」的支持者,很容易成為人工智慧或者算法的擁抱者。因為,這蘊含著法律本身應當採用成本-效益分析的方法,並且算法是成本-效益分析的最佳樣態,所以法律應當算法化。這些主張者通常以如下理由來強化自己的看法:價值判斷是靠不住的,所以法律中一旦涉及價值判斷,就會因為價值分歧導致法律在實踐上的困難。然而,這種看法本身是自我潰敗的,由於篇幅所限,在此我只能給出一個簡單但有力的反問:「效率」本身難道不是一種價值嗎?如果為了避免價值爭議,從而採取貌似客觀的成本-效益分析方法,那麼這種方法不是仍然預先承諾了效率這個價值(的優先性)嗎?為什麼承諾效率這種價值就是合理的,而承諾其他類型的價值就是值得批評的?不過,無論最終那個理由是什麼,顯然,都無法動用「價值判斷本身的缺陷」這個理由,因為效率也是一個價值。進而,如果你說這是因為法律中雖然包括價值,但算法中不包括價值;但是,這不是又對第一個條件形成了反對嗎?因為,這實際上意味著法律和算法是兩類性質不同的事物。既然如此,也就不存在法律的算法化,當然也不存在算法的法律化,最後的結果只能是:算法以工具化的方式幫助法律更好地實現自己的任務。一旦做到這一步,法律介入算法的諸種障礙都將被排除,以什麼方式介入就成為討論的重點。

  二、法律對算法的介入:方法論與基本主張

  承認了法律可以介入某一領域,接下來的任務就是來說明,法律應當以何種方式來介入,並且這種做法是合理的。顯然,要想保障這種介入方式的合理性,就必須依靠一套有效的方法論來實現。理想的情況是,這套方法論確保法律只能以單一的方式介入該領域,那麼問題就將無爭議地獲得解決。然而,這通常不是真實的情形,事實上,在有效的方法論的指引下,法律仍然還有多種具體的介入方式。此時,就需要在這些介入方式之間進行論辯,來證明為何特定的介入方式明顯優於其他的方式。是否更優或者是否更好,這不完全是個道德判斷,即某種方式擁有更加明顯的道德優點;它同時也會包含著一個認知性的判斷,即這種介入方式是否更多地容納了該領域中那些不可忽視的特性。因此,文章本部分的任務有兩個,一方面是說明方法論的基本要求,另一方面是說明相互競爭的兩種不同的看法,以便為文章在下一部分的批評與重新建構,提供理論上的充足準備。

  (一)方法論的基本框架

  在表面上,法律對某一領域的介入,相當於將該領域的爭議性問題「轉譯成」法律上的問題。科技的進步,經常意味著在事實上創造出一個全新的領域;但由於「轉譯為法律」這件事情的存在,它在法律上其實仍然可能只是老生常談。例如,在電氣化的時代,「偷電算不算盜竊」在一開始就是一個爭議性的問題,因為在這之前的財產基本上是有體物,而「電能」顯然並非如此。對於這個爭議性問題,所採取的、也是一直沿用至今的轉移方式是,將「電(能)」轉譯為法律上的「物/財產」,從而使得「偷電」也成為一種盜竊的具體形態而已,儘管它是盜竊的新形態。顯然,這項轉譯工作,一方面依賴於對「電(能)」是否具有財產屬性的判斷,也依賴於法律對於「(私有)財產」的保護。簡單地說,轉譯工作是否成功,一方面依賴於被轉譯事項的屬性判斷,另一個方面依賴於對法律的性質判斷。如果在這兩個方面都是成功的,那麼特定的轉譯就是成立的。

  對於算法這件事情而言,要想把它轉譯為法律(上的事項),也需要同時完成以上兩個方面的作業。在算法的時代,最主要的爭議是什麼?顯然是以下兩個相互衝突的事實:其一,算法黑箱;其二,算法操縱。所謂算法黑箱,指的是對算法擁有者或設計者之外的人而言,算法是一個工作機制非常神秘的系統,人們只能觀測到它的輸入與輸出,而無法知道它如何將輸入的內容變成輸出的結果。所謂算法操縱,指的是由於算法越來越普遍而廣泛地影響我們的生活,於是算法就操縱或控制了我們的生活。必須注意,「算法操縱」這個語詞,實際上是在陳述算法所帶來的損害,這既包括「抽象的傷害」,即由於算法對人們生活的操縱,因為傷害了「自治」這個價值;這也包括具體的傷害,例如同物不同價的算法(大數據)殺熟、給予不利地位對待的算法歧視,等等。

  雖然在漢語中,「黑箱」很容易引發操縱或者不公平的聯想(例如老師選班長的過程被描述為黑箱),並且算法操縱的確跟算法黑箱有關係,但是算法黑箱這個語詞還主要是一種事實性的中立描述,它在一開始只是陳述了一個算法擁有者或編寫者之外的其他人,在面對算法時的事實狀況。或者這樣說,即使存在某種關於決策的黑箱,這也並不意味著緊接著就會引發操縱或者不公平之類的損害。例如,我決定跟誰結婚、跟誰做朋友,這個決定是「大腦黑箱」的結果,但並不意味著對我的妻子和朋友而言,那是受到我操縱的不利結果,我又不是一個會催眠術的情感騙子。理解了這一點,就導致「打破黑箱」或者「主張算法的透明性」並不自動就是當然的結果,因為算法黑箱並不是在一開始就是一個需要負面評價的現象。而那些「打破黑箱」或「算法的透明性」的主張者,就需要其他的理由來支持自己的立場。

  現在需要考慮算法黑箱和算法操縱的法律轉譯問題了。如前所述,這首先需要對法律這件事情作出某種判斷。受制於篇幅,讓我假定法律是一種評價性或者價值性的事業,這表明,特定的法律,要麼本身就代表某種價值判斷——例如民法對於私法自治的肯定,要麼提供了某種價值衝突的解決方案——例如「對格式條款的理解發生爭議的,應當按照通常理解予以解釋」。尤其是價值衝突問題,它在一開始就承認了存在著兩個或者多個至少具備初步正當性的價值,並且這些價值之間無法同時獲得,這時候就要去權衡,這或者表現為對某個價值的完全拋棄——例如生命財產衝突中的緊急避險,或者表現為多個價值之間的權衡關係——例如私有財產與公共利益之間的稅收徵收比例,等等。

  有了這些準備,現在就可以明白算法問題在法律上的轉譯結果了:由於算法黑箱並不當然承載負面價值,所以它是一個值得法律保護的事項,而「避免算法操縱」是另外一個值得法律保護的事項,於是算法黑箱與避免算法操縱之間就形成了價值上的衝突關係。面對這種算法上的價值衝突,緊接著進行的操作,就是決定是徹底拋棄其中的一個價值,還是提供某種價值之間的特定權衡關係。表面上看起來,提供某種權衡關係可能是更自然的選擇,因為算法黑箱與避免算法操縱都具備初步的正當性。然而,就像接下來看到的一樣,與這個判斷正好相反,最常被採取的做法是徹底或完全拋棄其中的一方,而這一方經常是「避免算法操縱」這個跟人們的利益聯繫更為緊密的一方。

  (二)言論與商業秘密

  到目前為止,至少有兩件事情是清楚的:其一,算法問題可以在法律上被轉譯為價值衝突的問題,算法黑箱是一方,而避免算法操縱是另外一方;其二,算法操縱會引發某種利益上的損害,所以需要法律上的限制。於是,關鍵的問題是,算法黑箱在法律上可以被進一步轉譯為什麼內容,並且這種特定的轉譯結果,將會影響到對於算法黑箱與避免算法操縱這個價值衝突的解決方案。顯然,一個直覺的看法是:要在兩者之間尋求一定的權衡關係,以合理安排算法黑箱與避免算法操縱各自的分量。就算法黑箱而言,這意味著要實現某種程度上的算法透明性(以及由此而來的算法的可解釋性);如果支持者還進一步主張基於自治價值的要求,應當徹底避免算法黑箱,那麼算法的徹底透明性就會成為最終的結果。於是,法律對算法的介入,就成為對某種程度的算法透明性的要求,這變成了唯一的答案。

  然而,法律實踐再次打臉法律理論(上的直覺),它反而採取了對算法黑箱的保護,而徹底放棄對因算法操縱所侵害的那些利益的保護。這是因為,法律實踐者發現,算法黑箱在法律上所能被轉譯的內容,一點兒不支持算法透明性的要求。美國法官在面對一系列與算法有關的訴訟時,他們都認同了「將算法(黑箱)視為(轉譯為)言論」的做法,並且由於「言論自由」這個憲法上的絕對權利所擁有的不可被剝奪的性質,所以被放棄的就只能是算法操縱所侵害的那些利益。這是因為,無論以何種方式來理解言論自由這個憲法權利,它因為有助於某種「民主文化」的形成與保持,而民主文化本身是一種有利於所有人的「公共善」,所以為它付出某種利益上的損害的代價是合理的,即使這個代價是被算法所操縱。當然,會有這樣的反駁,由於算法操縱對個人的自治造成了損害,而個人自治本身也是最重要的道德和政治理想,因此不應當直接因為言論自由而放棄個人自治。但是,由於個人自治同樣也需要民主文化的養護,所以這樣的反駁至少在道德上的力度依然有限。此外,剛才提到的言論自由之絕對權利的性質,導致在法律上對它提供徹底的保護,成為唯一合適的選擇。

  不過,將算法黑箱轉譯為言論,並不是實踐上的唯一做法。在發生於2016 年的威斯康星州的 Loomis 案中,法官將關於量刑的特定算法看作商業秘密來對待。在商業秘密的問題上,(美國)法官通常認為它應當受到嚴格的保護,否則相關的智慧財產權將會受到嚴重侵犯,而智慧財產權的被侵犯將會阻止科技進步,而這將會嚴重地侵害人民的福祉。所以,基於如上考慮,商業秘密獲得了如同言論(自由)一樣的法律保護效果,它也將算法操縱視為可以合理付出的代價。於是,法官必然不會要求算法的擁有者公開算法代碼,更不會要求擁有者以人們能聽懂的方式,向公眾說明該算法的工作原理,算法黑箱就因此被視為算法的正常情形。

  無論是將算法視為言論(自由),還是視為商業秘密,這都會導致一個非常尷尬的處境:雖然花費巨大的功夫才證明法律介入算法的正當性,但是由於只能以這兩種方式面對算法,這實際上等於對法律介入算法之可能性的否定。簡單地說,這使得「法律介入或規制算法」變成了屠龍術,屠龍的技藝倒是掌握了,但龍卻消失了。如果結果就是這個樣子,那還不如在一開始,就乾脆主張法律無法介入算法,省得廢了半天的勁兒,最後只能接受在開始就應當接受的結果。我過去已經寫下的一萬字是無用功嗎?還有討論法律介入算法的新可能性嗎?新的道路又在哪裡?

  三、言論自由與算法權力

  雖然美國的法官作出了保護「算法黑箱」的決定,並且這當然獲得了法律上的效果,但是這在理論上仍然需要檢驗。如果這種看法在理論上也是成立的,那麼它不但具備法律上的效力,而且也擁有了理論上的正當性。本節將首先檢驗這兩個主張在理論上會面對的難題,由於商業秘密的說法輕度更低,所以我將集中討論言論自由所面對的難題;然後,我將重新引入一個經常被提及的「算法權力」這個概念,而且它的加入將會改變過去的論證結構;最後,我將重新說明這篇文章的任務,即理論家必須提出一個能夠同時容納算法黑箱、算法操縱與算法權力這三件事情的理論框架,這就是文章下一節的任務。

  (一)算法與言論

  現在稍作停留,來回顧一下文章的論證任務:在算法的問題上,同時存在著算法黑箱和算法操縱這兩件事情;如果法律對算法的介入,是為了避免算法操縱所引發的那些損害,那麼它必然將面臨算法黑箱的挑戰;換句話說,為了避免算法操縱,可依賴唯一的做法,就是攻破算法黑箱,使得算法透明化。然而,無論算法是言論(自由)還是商業秘密,它都會為算法黑箱提供強大的保護,於是算法操縱就成為一個無解的問題了。如果此時仍然有談論「法律介入算法」這件事情的正當性,那麼它的目標就不再是改變或扭轉算法的操縱,而是對算法黑箱提供充分的保護。除非,反對者能夠證明算法不是言論或者商業秘密,否則就只能接受算法操縱的結果。就像選擇了民主的制度就得接受民選領袖可能很愚蠢的結果,選擇了法治就得接受無效率或者可能放縱壞人的結果,這些都是必須付出的代價。

  其中,將算法視為商業秘密的做法,在保護強度上明顯弱於將它視為言論的做法,因為只要祭出公共利益或者它的道德形式——共同善,就可以論證在特定情況之下,公共利益的分量存在超出商業秘密否認可能性。所以,最有力的算法黑箱的捍衛武器,必定是言論自由,因此之後的討論將只涉及到言論及言論自由的問題。正是因為存在著言論自由這個嚴峻的對手,所以反對者大概會採取兩種方式,來避免在算法和言論之間畫上等號:其一,認同目前主流的言論自由理論,但否認算法就是言論的做法,將它視為一個錯誤;其二,承認目前的言論自由理論支持算法就是言論的做法,但是這個理論存在缺陷,一個更好的、新的言論自由理論有可能會得出相反的結論。

  前一種方式,經常會展現為很多具體問題的討論,然而在這些問題上都存在著爭議性的答案,很難取得徹底擊潰將算法視為言論的論證效果。例如Tim Wu認為,在美國要動用憲法第一修正案保護言論自由,通常是因為以下四個條件的滿足:存在一個擁有憲法權利的「人」,以「言論(意見)」的方式交流,存在一個錯誤的審查「動機」,並且這種審查「克減」了言論。尤其是前兩個條件,對算法視為言論而言是關鍵性的挑戰。很顯然,討論者緊接著就會依次去討論以下問題:算法是不是人,算法的結果是不是意見,為避免算法操縱來審查算法是不是個錯誤的動機,以避免算法操縱的理由來審查是不是一種言論自由的克減。

  但是,我並不認為反對者在這些問題上都會取得壓倒性的勝利,由於篇幅所限,本文僅以前兩個問題的討論為例。表面上看,很容易認為算法不是人,所以算法的結果不是作為意見的言論。然而,問題並沒有這麼簡單。讓我用報紙的言論自由為例。顯然,報紙上的文章受到言論自由的保護,並且它呈現為這樣的連環結構:文章撰寫者—報紙(的編輯)—獲得刊載的文章;相應地,算法本身也會呈現出類似的連環結構:算法的擁有者(編寫者)—算法(的應用)—(算法的)結果。如果承認「報紙(的編輯)」受到言論自由的保護,那麼就很難否認「算法(的應用)」跟言論自由沒有關係。當然,這樣的類比是否成立還會有進一步討論的空間。不過,對這篇文章的目標而言,論述至此就已經足夠了,因為本部分的任務並不是討論言論自由的內涵,而是說將算法與言論自由解套的做法存在著巨大的爭議,所以這並不是個好的選擇。

  (二)算法權力:關鍵的一環

  當我說第一種關於算法是言論的討論陷入泥淖當中時,並不意味著我要採取第二種討論方式,即透過革新言論自由的理論,來實現解脫算法黑箱與言論自由之間的聯繫。因為,這必將是一個曠日持久的論戰,它同樣也會陷入時間的泥淖中而不能自拔。不過,Jack Balkin的這類討論,還是引入了一個我認為至關重要的東西,這就是算法權力。雖然過往的討論者,在談到算法黑箱的時候,一般也會連帶著談談算法權力。但這種討論主要是在經驗的意義上展開的,也就是說,他們主要是說,算法(的設計者和擁有者)擁有一種事實上影響人們行為選擇的能力;但是他們對於算法權力所擁有的的理論意義關注不多。然而,在我看來,一旦注意到算法權力所擁有的意義,原本困惑著理論家的算法與言論自由問題,將會顯露出全新的曙光。

  Balkin是將算法權力與它對言論自由的侵害聯繫起來,試圖從言論自由的規範目的上,實現以言論自由來限制、而不是保護算法黑箱的任務。我的想法跟他部分類似:如果仔細分析算法權力的性質,那麼就可以將算法與言論(當然也包括商業秘密)脫鉤,從而為法律審查算法提供新的可能性。這是因為,由於算法已經廣泛而普遍地影響人們的生活,並且由於算法本身決定了人們的選擇空間與可能獲得的結果,因此算法權力對人們的生活而言,已經是一種廣泛而普遍的控制能力。而且,要注意,「算法正在普遍而廣泛地影響我們的生活」並不是個純粹事實性的描述,它本身同時還擁有某種規範上的吸引力:對於我們的生活而言,算法越來越具備構成性的地位,當你遠離算法,實際上就是在遠離目前的生活方式,而且算法構成的生活中所蘊含的那些便利和好處也將一道消失;反過來講,你一定會被那些好處和便利所吸引,因為它們是某種福祉,對算法的遠離在某種程度上就等同於對自己福祉的漠視。

  認識到算法對生活的構成性地位、理解了算法跟福祉的關聯,就理解了算法權力為什麼是一種廣泛而普遍的重要權力。並且,如此廣泛而普遍的決定能力(權力),在算法時代之前,就只有國家才會擁有,所以至少有理由認為算法權力是一種「準國家權力」性質的公共力量。所以,Balkin才會說那些巨型私人公司「是如此有權力,因此只能將它們視為是特殊目的的主權者」。如果這樣的思考是成立的,那麼Balkin那些關於言論自由的討論就很容易理解:在算法時代之前,國家是言論自由的主要侵害者;而在算法的時代,言論自由的主要侵害者則是作為算法擁有者的巨型私人公司,相應地,國家的角色由過去言論自由的侵害者,搖身一變成為言論自由的保護者。

  如果將算法權力視為一種國家權力,那麼算法就跟言論自由(的保護)沒有關係了,它只能跟對言論自由的侵害發生關聯。這是因為,在算法的時代,雖然國家從言論自由的侵犯者變成了言論自由的保護者,但是國家不會是言論自由所保護的對象:國家不能擁有言論自由,否則,國民還怎麼有權利批評國家?相應地,如果說國家不受言論自由的保護,那麼作為特殊主權者的私人公司當然也就不是言論自由的保護對象。同理,也將缺乏將擁有算法的私人公司視為純粹的商業組織的合適理由,因而它不再完全成為商業秘密所保護的對象,這種看法也就隨之失去了力量;並且,既然它們並不是純粹的商業機構,那麼以「商業壟斷」為介入理由的做法,也就不完全成立了。

  (三)新的任務

  不過,我跟Balkin的共識基本上就此結束了,我不再如同他一樣,沿著以下這條道路前進:既然算法(的擁有者)對言論自由造成了侵害,反而「保護言論自由」成為法律介入算法的基本出發點,應當以此為理由來限制算法及其背後的巨型私人公司。這是因為,在「巨型私人公司『應當被看作』主權者」與「巨型私人公司『真的是』主權者」之間,還是存在著關鍵性的區別:例如,國家(政府)沒有自己的合法利益,它的唯一的利益就是去追求受其統治的國民的利益,因此國家沒有獨立於其國民之利益的利益;或者換一種說法,國家的一項主要職責是通過避免「囚徒困境」,來解決社會的合作問題。然而,無論是「不存在獨立的自己的利益」,還是致力於「解決合作問題」,那些私人公司都不具備這樣的性質——它們當然有獨立於客戶利益的自己的利益,當然也不一定會承擔關於合作問題的任務。

  簡單地說,在我看來,認識到算法權力的重要性,並不等於將它當作真正的國家權力;這個做法的一個目標,是為了揭示出過去的討論只關注算法黑箱與算法操縱這兩個要素的不足:由於算法權力的重要性,它必須被納入到法律介入算法的框架中。如此一來,要想就法律介入算法給出一個有效的回答,那個理論框架就必須得同時容納算法黑箱、算法操縱與算法權力這三個要素。正因為如此,才能夠走出算法黑箱與算法操縱二元對立的傳統框架,才可能尋找到一個更好的解決方案。並且,這個任務不會呈現為以下任何方式:要麼因為言論自由或者商業秘密,所以算法操縱就成為必須付出的代價;要麼因為要避免算法操縱,只能要求算法的透明化。讓我再次強調以下一點:算法黑箱本身並不是應當遭受譴責的現象,一方面,如同過去所言,黑箱不等於不公平;另一方面,算法黑箱也是算法社會得以建立的基礎,除非能找到理由說應當徹底否定算法社會存在的正當性,而這一點因為算法社會對福祉的明顯促進而變得非常艱難。

  四、作為正當程序的算法

  到目前為止,清理戰場的工作才告一段落,所獲得的勝利果實有兩個:其一,法律有理由、也有能力介入算法;其二,傳統關於法律介入算法這件事情之所以走到死胡同,是因為只關注了算法黑箱和算法操縱這兩件事情,而它們之間很容易形成論證上的僵局,尤其是一旦有理由將算法與言論聯繫起來的時候。現在的戰場態勢已經非常清楚:在法律介入算法這件事情中,涉及到算法黑箱、算法權力和算法操縱這三件事情,如果能將它們同時安排到一個框架中,那麼這個問題的解決就會顯露出曙光。

  (一)算法與正當程序:它們在何種意義上相關?

  辯駁型的寫作方式,很容易讓讀者無法掌握作者自己的主張。所以,有必要以更加清楚的方式,來呈現這篇文章目前的主張:第一,算法操縱的確是算法這件事情所引發的負面結果,並且這值得法律予以保護;第二,傳統看法認為,算法操縱是由算法黑箱引發的,所以,完全或者部分程度的算法透明性就成為避免算法操縱的唯一做法;第三,由於算法黑箱並不必然引發不公平且是算法社會得以存在的基礎,所以將算法操縱視為算法黑箱的結果,這個做法缺乏充分的理由;第四,可能是基於前一點的考慮或者別的方面的原因,司法裁判上將算法視為言論,這導致算法操縱無法被救濟;第五,算法黑箱本身雖然沒什麼好批評的,但是算法黑箱、尤其是其所導致的算法社會,會使得算法的擁有者掌握巨大的算法權力,並且這是一種準國家權力的權力;第六,在我看來,算法操縱的負面結果來自於算法權力,而不是算法黑箱,因此法律介入算法的具體舉措,應當圍繞著算法權力展開;第七,將算法視為言論的做法,一方面因為遺漏了算法權力而走錯了道路,另一方面它也無法阻礙法律對算法權力的規制。

  既然病源找到了,那麼接下來就要去分析這個病源的性質,然後擬定出治療的方案。由前面的分析可知,算法權力是導致算法操縱這個病症的根源,那麼算法權力的性質是什麼?本節的題目已經顯示出來,我認為,算法權力跟正當程序問題有關;不過,這個主張的準確表達,並不是我認為「算法就是程序」,而是「算法是一個跟正當程序有關的事情」。所以,這個看法不來自於一個簡單聯想:「法律程序」與「電腦程式」共享了「程序」這個語詞,它們在語言上其實並不是一回事,英語上的表達非常清楚:procedure與program。

  這個判斷,主要是基於「(算法)權力」的性質作出的。這將是一段相當抽象的討論:第一,任何一種社會制度——當然也包括算法社會,一定會涉及權力問題,即它們會賦予一些人控制和幹涉其他人生活的能力。這,要麼是通過直接賦予某些人以權威地位的方式來實現,使得他們能夠命令別人,並以強力的方式使得他們的命令被服從,這就是國家(政府)這種權力擁有者(主權者)的經常樣態;要麼會以間接的方式賦予某一些人以權力,主要是使得這些人控制了特定的資源和機會,例如一個民間讀書會的組織者也有「權力」選擇成員的加入。第二,由於社會組織的存在是為了實現某些有價值的社會目標,或者為了實現這些有價值的社會目標必須建立相應的社會組織,因此相應的社會制度是不可避免的;並且,由於社會制度所賦予的權力跟這些目標的取得直接相關,並且它還是社會制度也已正常運轉的關鍵因素,所以它同樣是不可避免的。第三,雖然社會制度賦予的權力不可避免,但是它仍然存在很多的危險,其中最大的危險就是權力的濫用;也就是說,由於權力主要是針對社會制度的其他成員,它在事實上經常會不恰當地導致其他人受到損害,所以,這種權力以及賦予它的社會制度本身都需要道德上的證成;最後,這些道德證成要求中必然包含著「正當程序」的要求,即它主要透過對權力擁有者決策方式的審查,來防止權力的濫用,來避免權力行使的任意性;如果這種審查只針對權力行使方式(程序)作出,那麼這就是程序性的正當程序;如果它還需要結合社會制度那些有價值的目標來作出,那麼這就是實質性的正當程序。

  有了這樣一段討論,以下幾件事情就清楚了:其一,算法社會必然賦予算法擁有者以算法權力;其二,算法權力經常會被濫用,算法操縱就是這個現象的集中體現;其三,這就需要以正當程序的標準來審查算法權力的濫用。現在,我終於在算法權力與正當程序間建立起關聯,不過這並不是概念上的關聯——算法就是程序,而是一種道德上的關聯或者規範上的聯繫,即算法權力的正當行使必須要滿足正當程序的要求。所以,對算法社會而言,程序性價值之所以重要,就是因為算法的擁有者像統治者一樣在行動,它們約束著使用者的空間,它們制定規則和政策,它們以「(在線/網絡)社群」的名義落實這些要求。並且,這同時還意味著,一旦算法權力的擁有者能夠證明自己的權力行使滿足了正當程序的要求,那麼這將因為獲得了道德證成而免於批評;所以,即便是通常作為算法權力管制者的政府,其管制行為本身也要滿足關於正當程序之憲法義務的要求。

  (二)正當程序對算法的規制:一個基本框架

  雖然目前的論證,足以將正當程序這個規範性觀念引入到算法領域,但是由於算法黑箱的存在,這導致了正當程序這個標準的運用呈現出非常明顯的特殊性。一般而言,正當程序會要求權力擁有者公開其權力運作的程序或者過程,來證明權力行使的正當性,這通常體現為雙重要求:第一,程序本身是公開的;第二,程序的設計本身是正當的,或者說,程序並未給權力的任意行使提供機會。在實踐上,這兩個要求通常可以合併為對程序公開性的要求。例如行政聽證程序,它至少滿足以下兩個相關要求:一方面需要滿足公開進行的要求,因為公開是行政聽證程序得以順利進行的先決條件,這防止了以任意的方式來行使權力,除非是涉及國家機密、商業秘密或者個人隱私;另一方面,聽證程序設計上也要做到職能分離,例如聽證要由行政機關指定的非本案調查人員主持,並且當事人也有權利因為利害關係的存在申請主持人迴避。

  如果「公開」就是正當程序的核心要求之一,那么正當程序也會要求算法的公開,這就是另一種形式算法透明性的要求。然而,算法黑箱的存在,導致了以正當程序規制算法時,並不能以如上的方式進行;也就是說,算法黑箱導致正當程序並不要求算法的透明化。於是就會存在這樣的疑問:如果不要求算法透明或公開,那么正當程序還能做什麼?正當程序不就又變成了空話?

  正當程序並不要求算法的透明性,並不意味著正當程序什麼都做不了。還是拿行政聽證為例,即使缺乏程序的公開性要求,我們仍然會知道行政聽證是否滿足了正當程序的要求。這涉及到對程序「輸入端」和「輸出端」的某些評價。具體來說,聽證程序要求「行政機關作出責令停產停業等行政處罰決定之前,應當告知當事人有要求舉行聽證的權利」,如果行政機關未作告知或者只對特定主體作告知,那麼這在「輸入端」一定是違反正當程序的;如果聽證程序所得出的結果,每一次或者多數情形之下,都是行政機關的行政處罰決定獲得了支持,那麼這在「輸出端」就很有理由被認為是違反正當程序的。簡單地說,輸出端和輸入端對正當程序的違反,是獨立於那個過程本身是否公開、聽證程序是否做到了職責分離等與程序公開相關聯的要求的。

  其中,輸出端的評價更加重要:只要程序的輸出結果是單一性的,那麼就可以反過來推斷,這樣的做法違反了正當程序或者程序正義的要求,尤其是羅爾斯所言的「純粹的程序正義」。所謂純粹的程序正義是說,不存在對正當結果的獨立標準,而只是存在一種正確或公平的程序,只要這個程序被恰當地遵守,那麼其結果也就是正確或公平的,而無論它可能是什麼樣的結果。最典型的例子,就是賭博這件事情,只要賭博遊戲的設計本身是公平的,那麼無論最終誰輸,這個結果都應當被視為公平的。相對於非純粹的程序正義而言,純粹的程序正義會帶來很大的好處:它會使得相關的爭議減少,避免了很多不必要的爭論。例如在完全的程序正義中切蛋糕的例子,就很難匹配「孔融讓梨」的故事;在不完全的程序正義中,司法裁判總是導致放縱壞人的結果,這也不容易被正當化。

  然而,這並不意味著面對純粹的程序正義情形時,如果沒有辦法證明這個程序設計本身有問題,人們就只能接受它得出的結果。道理很簡單,還是拿賭博為例,如果一個賭博遊戲是只有「我贏」這個單一的結果,即使人們不清楚那個賭博遊戲本身是否公平,但是他們還是會認為這個賭博遊戲就是不公平的。因為,純粹的程序正義,理應對各種可能的結果基於大致相同的機會,於是它得出的那個具體的結果才被認為是正當的,或者是滿足程序正義要求的。一旦明白這一點,在尊重算法黑箱的條件下,正當程序對算法的評價就變得可能:只要我用算法做某些事情的時候,每次得出的結果都具備同樣的性質,那麼這個結果就很可能是違反正當程序要求的。最典型的例子就是,如果我在特定購物網站買東西,網站給我的價格總是高於其他人,那麼這將會違反正當程序的要求;或者跟Loomis 案更接近的例子,如果因為某人的膚色、性別,導致特定量刑算法總是給他/她有別於他人的結果,那麼無論這個結果是否對該人有利,這都表明那個關於量刑的算法違反了正當程序的要求。

  顯然,從輸出端的單一性來評價算法的做法,非常簡單明了:一方面,一旦特定算法出現了單一結果的情形,那麼就可以以此來斷定該算法違反了正當程序的要求,也就有了因此要求該算法作出改變的正當理由;另一方面,當特定算法作出相應改變之後,我們仍然可以按照如此標準來判斷,那個改變是否足夠、是否充分,而不必是提供關於如何改變的指令。換言之,雖然我不知道那個算法是如何運作的,但是我知道它是否違反了程序正當,並且這同時滿足了算法黑箱的要求,也對算法操縱給予了救濟。

  除此之外,還可以運用正當程序來評價算法的輸入端,這仍然非常簡單:如果輸入端只向特定群體開放,並且這個部分開放與算法本身的目標沒有關係,那麼它就被認為是違反正當程序的。最常見的例子,就是在搜尋引擎上輸入與性別和種族有關的信息時,算法將自動聯想為某種帶有歧視性的表達之類的特點。比如說,在對話框中輸入「女性」,它自動聯想為「女性應當待在家裡」「女性應該呆在廚房」「女性不應該在教堂發言」等,那麼這應當被立刻推斷為違反正當程序,而必須加以改正。

  最後,算法黑箱的存在並沒有否認實質性正當程序對算法的規制。限於篇幅,簡單來說,相較於程序性正當程序,由於是否滿足實質性正當程序要求的判斷,還需要結合社會制度所欲追求的那些目標來作出,而這些目標本身存在著理解上的爭議空間,所以它會導致對社會制度更廣泛的批評。表面上看起來,算法黑箱的存在似乎禁止了對於算法所欲追求之目標的評價,但這是個誤解:因為算法黑箱與算法所追求的目標,始終是兩個不同類別的事物。而且,區別程序性與實質性程序正義的標準之一,就在於該社會制度「自願屬性」的多少和有無,如果那個社會制度是完全自願的,那麼就沒有實質性程序正義的用武之地,反之則沒有理由拒絕該標準。顯然,隨著算法社會的逐漸到來,越來越難以避免算法化的生存,也就越來越沒有理由抵抗實質性正當程序對算法的介入。

  五、結論

  法律如何面對一個全新的社會現象呢?尤其當這個社會現象正在極大地改變了我們生活的基本樣態時。無論支持還是反對、無論歡迎還是警醒,都需要清楚地認識到它所存在的問題。在我看來,算法社會的到來就是這樣一種亟需認真對待的現象,而這種認真對待應當圍繞著算法黑箱、算法操縱和算法權力這三個概念展開,而不是只針對前兩個,那將會導致討論針對性的錯失。本文的主要篇幅就用來做這項工作,而不是用來給出具體的舉措。對我而言,確立正確的方向遠比迅速提供具體措施來得更加重要,而這正是這篇文章的意義之所在。當然,最後所提到的輸出端、輸入端及實質性正當程序這些內容,它們應當分別被具體化為什麼樣的具體方式,就不是這篇文章所能解決的任務了,那依賴於實踐者和立法者來斟酌決定。

相關焦點

  • 院士說丨戴瓊海院士:人工智慧——算法·算力·交互
    因為什麼呢?我們很多的模型算法也沒有達到它所需要的特點,於是楊強老師發現用聯邦的學習方法、遷移學習的方法,把數據從大數據怎麼摘一個小數據進行工作,這個時候人工智慧發展更需要機器學習模型,我們大腦交給機器的算法是什麼,怎麼樣提高它的算力,這是人工智慧時代要考慮的問題。大家都知道,人工智慧時代發展得非常快,快在哪兒呢?
  • 全世界都在算圓周率,算圓周率到底有什麼用?算盡了會怎樣?
    在古代,計算圓周率的確是一件非常困難的事情,我國古代偉大的數學家祖衝之就是因為利用割圓術精準算出圓周率在3.1415926和3.1415927之間而聲名顯赫。但是對於現在的人們來講,計算圓周率並不是什麼難事,因為我們有了超級計算機,你可能不知道,迄今為止,功能最強大的超級計算機已經將圓周率計算到了小數點後十萬億位,它仍然沒有出現循環。
  • 我們到底該如何學習《數據結構與算法》
    前言:我們到底該不該學習算法與數據結構?1、真的應該學習這個問題本身就不是個問題,所有人都在強調數據結構與算法比較重要,但是好像平時也沒用到,無法直觀的去感受它的重要性,於是把學習重心放在了常見的哪些框架身上,似乎只要熟悉了哪些框架的API,編程就會所向披靡。
  • 張亞勤:不太完全認同算力比算法更重要的觀點
    在24日的「人工智慧:育新機、開新局」人工智慧分論壇上,清華大學講席教授兼智能產業研究院院長、美國藝術與科學院院士張亞勤在演講中表示,不太完全認同算力比算法更重要的觀點。他表示,這次數位化和過去那兩次有很大的不同。首先是量高了很多數量級,比如說無人車每天所產生的數據就是5到10個T。基因測序每一次就差不多3T左右。
  • 還在算BMI嗎,這些算法更「靠譜」
    在說到體重身材如何時,BMI可以說是用的最多的方法之一了,BMI的具體公式不再多說,但是,BMI其實是存在很多片面因素的,今天,我們就來了解一下BMI的片面性和其他更加「靠譜」的算法
  • 蒙特卡洛方法到底有什麼用?
    蒙特卡洛方法到底有什麼用?(2)蒙特卡洛沒有什麼高深的理論,它只是一種方法或者說策略。蒙特卡洛方法並沒有什麼高深的理論支撐,如果一定要說有理論也就只有概率論或統計學中的大數定律了。蒙特卡洛的基本原理簡單描述是先大量模擬,然後計算一個事件發生的次數,再通過這個發生次數除以總模擬次數,得到想要的結果。
  • 全世界都在算圓周率,算圓周率到底有什麼用?算到盡頭會怎樣
    全世界都在算圓周率,算圓周率到底有什麼用?算到盡頭會怎樣,我們知道數學是最嚴密的科學,數學也是最有趣的科學,同時我們也被數學的魅力所吸引,對於我們很多人來說,第一個有趣的問題是圓周率,第一次接觸圓周率的時候,理論上很難理解,為什麼這樣的數字無限且不循環呢?
  • 科技來電:10%+10%到底等於多少?還是算法出了問題
    <1017期>智電網訊:10%+10%到底等於多少?還是算法出了問題  9月3日,手機計算器全線陣亡」登上熱搜榜,原來是蘋果、華為、小米、OPPO等各廠商手機計算器都出現了神奇的bug,手機計算機計算「10%+10%」時,得出的結果是0.11,而不是正確答案0.2。
  • LOL英雄聯盟戰鬥力怎麼算 戰鬥力算法解析
    關鍵字:LOL英雄聯盟戰鬥力怎麼算 LOL英雄聯盟戰鬥力算法解析 LOL英雄聯盟戰鬥力詳細說明戰鬥力的組成    【英雄聯盟攻略】戰鬥力是一個綜合了玩家各種表現的一個綜合數值,是一個化繁為簡的數值。相關推薦:賽季末如何輕鬆衝分?
  • 「中國剩餘定理」到底是如何算出來的?
    (給算法愛好者加星標,修煉編程內功)作者:_Warning_blog.csdn.net/destiny1507/article
  • Google算法助力 圓周率π算出兩千萬億位
    據英國BBC報導,研究人員近日藉助Google的新算法和雲計算技術,確認了圓周率小數點後的第兩千萬億位,也就是第2000000000000000位。來自雅虎的Nicholas Sze在其公司的1000臺計算機上花費了23天時間得出結果,圓周率小數點後的第兩千萬億位數字是個0。
  • 我國研發的「九章」和量子霸權到底是什麼?
    所有的量子霸權真相是什麼?真的,昨天早上看到這個新聞,我就知道晚上沒發現連夜幹,一起給大家講講,保證乾貨,首先一句話概括九章做了什麼?他成功實現了76個光量子的系統是完成了一個叫高斯玻色採樣模擬的模擬九章運行兩百兩百個小時,現在最先進的最先進的,最先進的電子的墊子,超級軟,接日本的服務,最近的算法完成同樣的用需要61年假如換成中國太湖之光有花上二十五年高四波色彩陽到底幹了件什麼事呢?
  • 兒童用藥劑量究竟怎麼算?體表面積算法受推薦
    「兒童酌減是什麼意思?究竟減多少啊?」在給孩子吃藥時,許多父母都有這樣的疑惑和煩惱。長期以來,由於兒童專用藥不足,很多患兒在服藥時都被當成「縮小版的成人」對待,按照「小兒酌減」的原則服用成人藥,這存在著巨大的用藥安全隱患。
  • 楊超越到底算什麼特殊人才?
    楊超越到底算什麼特殊人才?特殊人才的內涵是什麼?邊界在哪裡?不能讓「特殊「二字一言蔽之。如果相關部門始終拿不出讓大多數人信服的科學的人才衡量標準,誰也無法保證,下一個特殊人才是令人稱讚的「李佳琦」,還是令人懷疑的「楊超越」。
  • 純組織數值(Pure Point Rating)到底是什麼?
    最近翻霍林格早年的球員報告時,一直有網友在私信和評論裡問,到底什麼是純組織數值。索性在這裡寫一篇文章大致介紹一下。Pure Point Rating翻成純組織數值是早年我在新浪比較隨意的翻譯,翻成純組織率也行。
  • 揭秘算天,算地,算人,超算究竟有啥用?
    有人說,超算就是用來解決全世界在科技方面最難的問題的。超算究竟可以幹些什麼?8月7日21:50本周《對話》請來不同領域的人士,帶你領略超算那神一樣的計算速度,以及無比強大的實際用途。浪潮集團首席科學家 中國工程院院士王恩東:可以用三個字來形容超算,第一是快,第二是準,第三是狠。
  • 因為21.75這個數字,90%的HR都在亂算工資
    遇到這些情況,究竟應該算多少錢?扣一天工資或者發一天加班費,我們應該按照什麼標準來做呢? 這就是月薪除以 21.75計算日薪算法的由來。 也即是說,如果要扣員工一天工資,或者給員工算一天的加班費,都應該用月薪除以21.75作為標準,並且法定節假日當天要算工資。
  • 到底什麼是DES加密算法?這樣理解試試!
    在說DES加密算法之前,我們首先了解幾個基本概念:明文:明文是指沒有經過加密的數據。一般而言,明文都是等待傳輸的數據。由於沒有經過加密,明文很容易被識別與破解,因此在傳輸明文之前必須進行加密處理。密文:密文只是明文經過某種加密算法而得到的數據,通常密文的形式複雜難以識別及理解。
  • 除了硬體和算法 無人機「狀態」視角到底是什麼
    角速度狀態由陀螺儀反饋;姿態角數據的反饋硬體構架可根據姿態算法的不同而發生變化,硬體會根據相關算法的選擇進行設計如:加速度計+強磁計或者陀螺儀+加速度計+強磁計。大家注意到上圖中獲取姿態的算法是直接採用對角速度積分的方法,而在實際產品中由於積分會導致誤差積累,因此更多地使用加速度+偏航角+角速度+濾波算法的數據融合算法進行姿態解算。
  • 月經周期天數是什麼意思 月經周期天數怎麼算
    月經周期天數是什麼意思什麼是月經周期天數怎麼算人進入青春期後,子宮內膜受卵巢激素的影響,出現周期性的子宮出血,稱為月經。子宮內膜的周期性變化稱為月經周期,也是人類的生殖周期。