從Vision 到 Language 再到 Action,萬字漫談三年跨域信息融合研究

2021-01-10 雷鋒網

雷鋒網 AI 科技評論按:本文作者為阿德萊德大學助理教授吳琦,他在為雷鋒網 AI 科技評論投遞的獨家稿件中回顧了他從跨領域圖像識別到 Vision-to-Language 相關的研究思路,如今正將研究領域延伸到與 Action 相關的工作。雷鋒網 AI 科技評論對文章做了不改動原意的編輯。

大家好,我叫吳琦,目前在阿德萊德大學擔任講師(助理教授)。2014 年博士畢業之後,有幸加入澳大利亞阿德萊德大學(University of Adelaide)開始為期 3 年的博士後工作。由於博士期間主要研究內容是跨領域圖像識別,所以博士後期間,原本希望能夠繼續開展與跨領域相關方面的研究。但是,在與博士後期間的導師 Anton van den Hengel、沈春華教授討論之後,決定跳出基於圖像內部的跨領域研究,而展開圖像與其他外部領域的跨領域研究。恰逢 2015 年 CVPR 有數篇 image captioning 的工作,其中最有名的當屬 Andrej Karpathy 的 NeuralTak 和 Google 的 Show and Tell,同時 2015 年的 MS COCO Image Captioning Challenge 也得到了大量的關注。所以當時就決定開始研究與 Vision-to-Language 相關的跨領域問題。後來也在這個問題上越走越深,近三年在 CVPR,AAAI,IJCAI,TPAMI 等頂級會議與期刊上,先後發表了 15 篇與 vision-language 相關的論文,近期我們又將這個問題延伸到了與 Action 相關的領域,開啟了一個全新的方向。接下來我就介紹一下我的一些研究思路,工作,以及我對這個領域的一些想法。

1. Image Captioning with Attributes

我們 15 年第一個研究的問題是圍繞 image captioning 展開的,當時這個方向的主流模型是基於 CNN-RNN 框架的,即輸入一張圖像,先用一個 pre-trained 的 CNN 去提取圖像特徵,然後,將這些 CNN 特徵輸入到 RNN,也就是遞歸神經網絡當中去生成單詞序列。這種模型表面上看起來非常吸引人,依賴於強大的深度神經網絡,能夠用 end-to-end 的方式學習到一個從圖像到語言(vision2language)的直接對應關係,但忽略了一個重要的事實是,圖像和語言之間,其實是存在鴻溝的。雖然我們用神經網絡將圖像空間和語言空間 embed 在同一個空間當中,但直覺上告訴我,這兩個空間應該需要一個共同的 sub-space 作為橋梁來連接。於是我們想到了 attributes,一種圖像和語言都擁有的特徵。於是,基於上面提到的 CNN-RNN 結構,我們多加了一個 attributes prediction layer。當給定一張圖像,我們先去預測圖像當中的各種 attributes(我們的 attributes 定義是廣義的,包括物體名稱,屬性,動作,形容詞,副詞,情緒等等),然後再將這些 attributes 代替之前的 CNN 圖像特徵(如圖 1),輸入到 RNN 當中,生成語句。

圖 1:從圖像到詞語再到語句的 image captioning 模型

我們發現這個簡單的操作使我們的 image captioning 模型得到了大幅度的提升(見圖 2),並使得我們在 15 年 12 月的 MS COCO Image Captioning Challenge Leader Board 上在多項測評中排名第一(見圖 3)。論文後來也被 CVPR 2016 接收,見論文 [1]。

圖 2:Image captioning with predicted attributes

圖 3: Our results (Q.Wu) on MS COCO Image Captioning Challenge Leader Board, Dec/2015

2. Visual Question Answering with Knowledge Base

看到 attributes 在 image captioning 上的作用之後,我們開始考慮,相同的思路是否可以擴展到更多的 vision-and-language 的問題上?畢竟, vision 和 language 之間的 gap 是客觀存在的,而 attributes 能夠有效地縮小這種 gap。於是我們嘗試將相同的框架運用在了 visual question answering(VQA)上(見圖 4),也取得了非常好的效果。相關結果已發表於 TPAMI,見論文 [2].

圖 4:Adding intermediate attributes layer in VQA

然而,VQA 與其他 vision-to-language 不同的是,當它需要一個機器去回答一個關於圖片內容的問題的時候,機器不僅需要能夠理解圖像以及語言信息,還要能夠具有一定的常識,比如,如圖 5 左邊所示,問題是圖中有幾隻哺乳動物。那麼回答這個問題,我們不僅需要機器能夠「看」到圖中有狗,貓,鳥,還需要機器能夠「知道」狗和貓是哺乳動物,而鳥不是,從而「告訴」我們正確答案是 2.

圖 5:Common-sense required questions

於是,我們就自然想到了將知識圖譜(knowledge-base)引入到 VQA 當中,幫助我們回答類似的問題。那麼該如何連接起圖像內容和 knowledge base 呢?我們的 attributes 這時候就又發揮了作用。我們先將圖像當中的 attributes 提取出來,然後用這些 attributes 去 query knowledge base(DBpedia),去找到相關的知識,然後再使用 Doc2Vec 將這些知識信息向量化,再與其他信息一起,輸入到 lstm 當中,去回答問題。我們的這個框架(見圖 6)在 VQA 數據集上取得非常好的表現,相關論文結果已發表於 CVPR 2016,見論文 [3].

圖 6:VQA model with knowledge base

3. Visual Question Answering with Reasoning

雖然我們上面提出的框架解決了回答關於「common sense」的問題的挑戰,但是我們發現在 VQA 當中還有兩個重要的局限:

CV doesn't help a lot-Only CNN features are used-CNN is simply trained on object classification-VQA requires multiple CV tasks

No reasons are given-Image + Question -> Answer mapping-Providing reasons is important, e.g. Medical service, Defense.

第一個局限指的是, computer vision 其實在 VQA 當中的作用太小了,我們僅僅是使用 CNN 去對圖片當中的物體等內容進行理解。而一個基於圖片的問題,可能會問物體之間的關係,物體中的文字等等,而這其實是需要多種的計算機視覺算法來解決的。

第二個局限指的是,在回答問題的過程當中,我們沒有辦法給出一個合理的解釋。而「可解釋性」恰恰是近幾年來大家都很關注的一個問題。如果我們在回答問題的過程當中,還能夠提供一個可理解的原因,將是非常有幫助的。

那麼基於上面這兩點,我們就提出了一種新的 VQA 結構,我們稱之為 VQA Machine。這個模型可以接收多個 computer vision 算法輸出的結果,包括 object detection,attributes prediction,relationship detection 等等,然後將這些信息進行融合,得出答案。同時,我們的 VQA Machine 除了輸出答案之外,還可以輸出原因。在這個模型中,我們首先將問題從三個 level 來 encode。在每個 level,問題的特徵與圖像還有 facts 再一起 jointly embed 在一個空間當中,通過一個 co-attention model。這裡的 facts 是一系列的,利用現有計算機視覺模型所提取出的圖像信息。最後,我們用一個 MLP 去預測答案,基於每一層的 co-attention model 的輸出。那麼回答問題的原因是通過對加權後的 facts 進行排序和 re-formulating 得到的(見圖 7)。

圖 7:VQA Machine Framework

我們的這個模型在 VQA 數據集上取得了 state-of-art 的表現(見表 1),更重要的是,它在回答問題的同時,能夠給出對應的解釋,這是其他的 VQA 模型所做不到的。圖 8 給出了一些我們模型產生的結果。論文已經發表在 CVPR 2017,見論文 [4].

表 1:Single model performance on the VQA-real test set

圖 8:VQA Machine 結果,問題中帶顏色的詞表示 top-3 的權重。代表了這個詞在回答這個問題時的重要程度。圖像當中高亮的區域表示圖像當中 attention weights。顏色越深的區域說明這個區域對回答問題更重要。最後是我們模型生成的回答問題的原因。

4. Visual Question Answering with Explicit Reasoning on Knowledge Base

既然我們知道了 knowledge 和 reasoning 對 VQA 都很重要,那麼怎麼將它們兩個結合在一起,同時能夠進行 explicit reasoning(顯示推理)呢?所謂 explicit reasoning,就是在回答問題的過程當中,能夠給出一條可追溯的邏輯鏈。於是我們又提出了 Ahab,一種全新的能夠進行顯式推理的 VQA 模型。在這個模型當中,與以往直接把圖像加問題直接映射到答案不同,Ahab 首先會將問題和圖像映射到一個 KB query,也就是知識圖譜的請求,從而能夠接入到成千上萬的知識庫當中。另外,在我們的模型當中,答案是 traceable 的,也就是可以追蹤的,因為我們可以通過 query 在知識圖譜當中的搜索路徑得到一個顯式的邏輯鏈。

圖 9 展示了我們這一方法。我們的方法可以分成兩部分。

首先在第一部分,我們會檢測到圖像當中的相關概念,然後將他們連接到一個知識圖譜當中,形成一個大的 graph,我們把這個過程稱為 RDF graph construction process。在第二步,一個自然語言式的問題會被首先處理成一個合適的 query,這個 query 會去請求上一步當中建立好的圖。這個 query 可能會需要到多步的推理過程,而這個 query 對應的 response 則會形成對應問題的答案。

圖 9:Our Ahab VQA model

最近我們又建立了一個新的 VQA 數據集叫做 fact-based VQA,就是基於事實的 VQA。我們之前的基於 explicit reasoning 的數據集只能接受固定的模板式的問題,而新的 FVQA 數據集提供了開放式的問題。除此之外,對每一對問題-答案,我們額外提供了一個 supporting fact。所以在回答問題的時候,我們不僅需要機器回答出這個問題,而且還需要它能夠提供關於這個回答的 supporting fact。圖 10 展示了我們 Ahab 和 FVQA 模型和數據的一些例子。相關數據與結果分別發表於 IJCAI 2017 和 TPAMI,見論文 [5,6]

圖 10: Ahab and FVQA datasets and results

5. Visual Dialog with GAN

從 VQA 可以衍生出很多新的問題,Visual Dialog(視覺對話)就是其中一個。與 VQA 只有一輪問答不同的是,視覺對話需要機器能夠使用自然的,常用的語言和人類維持一個關於圖像的,有意義的對話。與 VQA 另外一個不同的地方在於,VQA 的回答普遍都很簡短,比如說答案是 yes/no, 數字或者一個名詞等等,都偏機器化。而我們希望 visual dialog 能夠儘量的生成偏人性化的數據。比如圖 11 所示,面對同樣的問題,偏人類的回答信息量更豐富,也更自然,同時能夠關注到已經發生的對話,並且引出接下來要發生的對話。而偏機器的回應,就非常的古板,基本沒法引出下面的對話。

圖 11:Human-like vs, Machine-like

於是我們提出了一個基於 GAN(生成對抗網絡) 的方法 (圖 12),來幫助模型生成更加符合人類預期的回答。我們左邊的生成網絡是使用了一個 co-attention,也就是一個聯合注意力模型,來聯合的使用圖像,對話歷史來生成新的對話,然後我們將生成的對話以及從生成模型中得出的 attention,一起,送入到一個區別模型當中,去區別對話為人工產生還是自動生成,然後通過 reward 的形式,去鼓勵模型生成更加符合人類的對話。

圖 12:Dialog Generation via GAN

圖 13: Co-attention model

這項工作中,我們使用了一個 co-attention 的模型,來融合來自各個模態的信息,相同的模型也用在我們上面提到的 VQA-machine 當中。在一個 co-attention 模型當中,我們使用兩種特徵去 attend 另外一種特徵,從而進行有效地特徵選擇。這種 attend 模式會以 sequential 的形式,運行多次,直到每個輸入特徵,均被另外兩個特徵 attend 過。該論文 [7] 被 CVPR2018 接受,大會 oral。

圖 14:Visual Dialog 結果對比

6. 從 Vision-Language 到 Action

前面簡單介紹了一些我們在 vision-language 方向上的工作,可以看到,兩者的結合無論在技術上還是應用上,都非常的有意義。然而,對於人工智慧(AI)而言,這只是一小步。真正的人工智慧,除了能夠學習理解多種模態的信息,還應該能與真實環境進行一定程度的交互,可以通過語言,也可以通過動作,從而能夠改變環境,幫助人類解決實際問題。那麼從今年開始,我們開始將 action 也加入進來,進行相關的研究。

我為此提出了一個 V3A 的概念,就是 Vision,Ask,Answer and Act(如圖 15),在這個新的體系當中,我們以視覺(Vision)作為中心,希望能夠展開提問(Ask),回答(Answer),行動(Act)等操作。這樣,我們不僅能夠得到一個可訓練的閉環,還將很多之前的 vision-language 的任務也融合了進來。比如在 Ask 這一端,我們可以有 Visual Question Generation,image captioning 這樣的任務,因為他們都是從圖像到語言的生成。在 Answer 這一端,我們可以有 VQA,Visual Dialog 這樣需要機器能夠產生答案的模型。在 Act 端,我們也有會有一些很有意思的任務,比如 referring expression 和 visual navigation。那麼我們在今年的 CVPR2018 上,在這兩個方面,都有相關的工作。

圖 15:V3A 框架

首先談一下 referring expression,也叫做 visual grounding,它需要機器在接受一張圖片和一個 query(指令)之後,「指」出圖片當中與這個 query 所相關的物體。為了解決這個問題,我們提出了一個統一的框架,ParalleL AttentioN(PLAN)網絡,用於從可變長度的自然描述中發現圖像中的對象。自然描述可以從短語到對話。PLAN 網絡有兩個注意力機制,將部分語言表達與全局可視內容以及候選目標直接相關聯。此外,注意力機制也是重複迭代的,這使得推理過程變的可視化和可解釋。來自兩個注意力的信息被合併在一起以推理被引用的對象。這兩種注意機制可以並行進行訓練,我們發現這種組合系統在不同長度語言輸入的幾個標準數據集上的性能優於現有技術,比如 RefCOCO,RefCOCO +和 GuessWhat 數據集。論文見 [8]。我們還提出了一個基於 co-attention 的模型,論文見 [9]。

圖 16:ParalleL AttentioN(PLAN)Network

接下來再給大家介紹一篇我們關於 Visual Navigation 的文章 [10],該論文也被 CVPR2018 接受,由於 topic 比較新穎,也被大家關注。這篇文章叫「Vision-and-Language Navigation: Interpreting visually-grounded navigation instructions in real environments」。我們這篇文章想要解決的一個問題就是如何使用一段複雜的人類語言命令,去指導機器人在模擬的真實環境當中,去完成對應的動作和任務。

那麼在這篇文章當中,我們首先提出了一個 Matterport3D Simulator。這個 simulator 是一個大規模的可基於強化學習的可交互式環境。在這個 simulator 的環境當中,我們使用了 10800 張 densely-sampled 360 度全景加深度圖片,也就是說可以提供到點雲級別。然後我們總共有 90 個真實世界的室內場景。那麼與之前一些虛擬環境的 simulator 而言,我們和這個新的 simulator 更具有挑戰性,同時更接近於實際。圖 17 展示了我們的一個真實場景以及機器人(agent)可移動的路線。

圖 17:Example navigation graph for a partial floor of one building-scale scene in the Matterport3D Simulator. Navigable paths between panoramic viewpoints are illustrated in blue. Stairs can also be navigated to move between floors.

基於我們的 Matterport3D Simulator,我們又收集了一個 Room-to-Room (R2R) 的數據集,在這個數據集當中,我們收集了 21567 條 navigation instruction(導航指令),平均長度為 29 個單詞。每一條指令都描述了一條跨越多個房間的指令。如圖 18 所示。圖 19 顯示了我們導航指令的用詞分布。

那麼除了上述 simulator 和數據,我們這篇文章還提出了一個 sequence-to-sequence 的模型,改模型與 VQA 模型非常類似,只是將輸出動作作為了一種 sequence,用 LSTM 來預測。我們還加入了諸如 teacher-forcing,student-forcing 等變種,取得了更好的效果。我們接下來會繼續擴充數據,並保留測試集,提供公平的測試平臺,每年舉行相關的比賽。請大家關注!

圖 18:Room-to-Room (R2R) navigation task. We focus on executing natural language navigation instructions in previously unseen real-world buildings. The agent's camera can be rotated freely. Blue discs indicate nearby (discretized) navigation options

圖 19:Distribution of navigation instructions based on their first four words. Instructions are read from the center outwards. Arc lengths are proportional to the number of instructions containing each word. White areas represent words with individual contributions too small to show.

7. 總結與未來

人工智慧是一個非常複雜的整體的系統,涉及到視覺,語言,推理,學習,動作等等方面,那麼計算機視覺作為人工智慧領域內的一個方向,除了關注經典的純視覺的問題(比如圖像識別,物體分類等),也應該關注如何與其他領域相結合來實現更高難度的任務與挑戰。視覺與語言(vision-language)的結合就是一個非常好的方向,不僅引出了像 image captioning 和 VQA 這種有意思的問題,還提出了很多技術方面的挑戰,比如如何融合多領域多維度的信息。我們進一步將 vision-language 引入到了 action 的領域,希望機器能夠具有問(Ask),答(Answer)和作(Act)的能力,實質上就是希望機器能夠理解和處理視覺信息,語言信息,並輸出對應的動作信息,以完成更高程度的跨域信息融合。

圖 20:Further plans

接下來我們將繼續在 vision-language-action 的方向上做更多的探索,目前的 room-to-room navigation 數據集只是第一步,我們接下來將基於我們的 Matterport3D Simulator, 進一步提出 Visible Object Localization,Hidden Object Localization 和 Ask-to-find 的任務(如圖 20),希望 agent 能夠通過基於語言的指令,在場景中導航定位到可見(Visible)的物體,隱藏(Hidden)的物體,以及當指令存在歧義時,能夠提出問題,消除歧義,從而進一步完成任務。

參考文獻

[1] Qi Wu, Chunhua Shen, Anton van den Hengel, Lingqiao Liu, Anthony Dick. What Value Do Explicit High Level Concepts Have in Vision to Language Problems?. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'16), Las Vegas, Nevada, US, Jun, 2016.

[2] Qi Wu, Chunhua Shen, Peng Wang, Anthony Dick, Anton van den Hengel, Image Captioning and Visual Question Answering Based on Attributes and Their Related External Knowledge. IEEE Transaction on Pattern Analysis and Machine Intelligence (TPAMI), Volume:40 Issue:6. 2018.

[3] Qi Wu, Peng Wang, Chunhua Shen, Anton van den Hengel, Anthony Dick. Ask Me Anything: Free-form Visual Question Answering Based on Knowledge from External Sources. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'16), Las Vegas, Nevada, US, Jun, 2016.

[4] Peng Wang*, Qi Wu*, Chunhua Shen, Anton van den Hengel. The VQA-Machine: Learning How to Use Existing Vision Algorithms to Answer New Questions. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'17), Honolulu, Hawaii, US, Jul, 2017.

[5] Peng Wang*, Qi Wu*, Chunhua Shen, Anton van den Hengel, Anthony Dick. Explicit Knowledge-based Reasoning for Visual Question Answering. International Joint Conference on Artificial Intelligence (IJCAI'17), Melbourne, Australia, Aug, 2017.

[6] Peng Wang*, Qi Wu*, Chunhua Shen, Anton van den Hengel, Anthony Dick. FVQA: Fact-based Visual Question Answering. IEEE Transaction on Pattern Analysis and Machine Intelligence (TPAMI), In Press, 2018.

[7] Qi Wu, Peng Wang, Chunhua Shen, Ian Reid, Anton van den Hengel. Are You Talking to Me? Reasoned Visual Dialog Generation through Adversarial Learning. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018. (Accepted 19/2/18). [Oral]

[8] Bohan Zhuang*, Qi Wu*, Chunhua Shen, Ian Reid, Anton van den Hengel. Parallel Attention: A Unified Framework for Visual Object Discovery through Dialogs and Queries. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018.

[9] Chaorui Deng*, Qi Wu*, Fuyuan Hu, Fan Lv, Mingkui Tan, Qingyao Wu. Visual Grounding via Accumulated Attention. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018.

[10] Peter Anderson, Qi Wu, Damien Teney, Jake Bruce, Mark Johnson, Niko Snderhauf, Ian Reid, Stephen Gould, Anton van den Hengel. Vision-and-Language Navigation: Interpreting visually-grounded navigation instructions in real environments. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018.

[11] Qi Wu, Damien Teney, Peng Wang, Chunhua Shen, Anthony Dick, Anton van den Hengel. Visual question answering: A survey of methods and datasets. Computer Vision and Image Understanding (CVIU), v. 163, p. 21-40, 2017.

[12] Damien Teney, Qi Wu, Anton van den Hengel. Visual Question Answering: A Tutorial. IEEE Signal Processing Magazine, v. 34, n. 6, p. 63-75, 2017

[13] Yan Huang, Qi Wu, Liang Wang. Learning Semantic Concepts and Order for Image and Sentence Matching. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018.

[14] Chao Ma, Chunhua Shen, Anthony Dick, Qi Wu, Peng Wang, Anton van den Hengel, Ian Reid. Visual Question Answering with Memory-Augmented Networks. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'18), Salt Lake City, Utah, US, Jun, 2018.

[15] Bohan Zhuang*, Qi Wu*, Ian Reid, Chunhua Shen, Anton van den Hengel. HCVRD: a benchmark for largescale Human-Centered Visual Relationship Detection. AAAI Conference on Artificial Intelligence (AAAI'18), New Orleans, Louisiana, US, Feb, 2018. [Oral]

作者簡介

吳琦現任澳大利亞阿德萊德大學(University of Adelaide)講師(助理教授),澳大利亞機器視覺研究中心(Australia Centre for Robotic Vision)任 Associate Investigator(課題副組長)。在加入阿德萊德大學之前,擔任澳大利亞視覺科技中心(Australia Centre for Visual Technologies)博士後研究員。分別於 2015 年,2011 年於英國巴斯大學(University of Bath)取得博士學位和碩士學位。他的主要研究方向包括計算機視覺,機器學習等,目前主要研究基於 vision-language 的相關課題,包括 image captioning,visual question answering,visual dialog 等。目前已在 CVPR,ICCV,ECCV,IJCAI,AAAI,TPAMI,TMM 等會議與刊物上發表論文數十篇。擔任 CVPR,ECCV,TPAMI,IJCV,TIP,TNN,TMM 等會議期刊審稿人。

相關焦點

  • 跨域審判「+」 群眾讚譽有加
    2019年3月,包鐵法院作為跨域審判「+」模式試點法院,依託信息化技術手段,將跨域審判「+」模式與一站式多元解紛和訴訟服務體系建設有機融合,通過線上一鍵點擊、線下統一窗口,以訴訟服務大廳、訴訟服務網、12368訴訟服務熱線、「巡迴審判點暨多元化糾紛解決中心」等「廳網線巡」的立體化一站式訴訟服務渠道為載體,為人民群眾提供跨域立案、跨域送達、跨域調解等立體化訴訟服務。
  • 跨域融合!歐菲光第五代車身域控蛻變而來
    硬體:跨域融合,架構創新 近幾年,隨著智能時代的到來,汽車的功能五花八門,整車電器網絡中各控制器間的信息共享也越來越多。許多的電器連接線需要跨越整個車身,翻山越嶺才能到達車身控制器。就如同汽車行駛過程,路線太長、太複雜必然堵塞,從而導致了各大功能反應不夠靈敏,且後臺負荷容易過重導致體驗下降。
  • 跨域審判「+」 群眾讚譽有加
    2019年3月,包鐵法院作為跨域審判「+」模式試點法院,依託信息化技術手段,將跨域審判「+」模式與一站式多元解紛和訴訟服務體系建設有機融合,通過線上一鍵點擊、線下統一窗口,以訴訟服務大廳、訴訟服務網、12368訴訟服務熱線、「巡迴審判點暨多元化糾紛解決中心」等「廳網線巡」的立體化一站式訴訟服務渠道為載體,為人民群眾提供跨域立案、跨域送達、跨域調解等立體化訴訟服務。
  • 聯合作戰發展的進階形式:跨域聯合,未來聯合作戰新趨勢
    跨域聯合是未來聯合作戰的主要模式在網絡信息體系的支撐下,以往影響各軍兵種之間作戰行動「配合」、各作戰域之間作戰能力「整合」的壁壘已經逐步被打破,實施高層次、高效率聯合作戰的條件已經基本具備。在未來聯合作戰中,各參戰力量的作戰行動將以網絡信息體系為紐帶,圍繞整體作戰企圖聯合發力,多域協同、跨域融合的作戰理念已經成為大勢所趨。未來聯合作戰需要多域協同。當前,從各軍兵種的作戰空間領域來看,各軍種都具有一定的跨域作戰能力,陸軍有陸軍航空兵,空軍有空降兵,海軍有海軍航空兵和海軍陸戰隊等。
  • 跨域請求產生錯誤的原因及處理方法
    如果你在開發網站時曾經嘗試通過框架或是瀏覽器的 fetch、XHR 請求過外部 API 的話,那麼一定遇到過跨域請求,還有那個觸目驚心的 CORS 錯誤信息;今天咱們來討論跨域問題的原因以及解決方法。
  • 外語是foreign language 「母語」可不是mother language!
    新東方網>英語>英語學習>口語>實用口語>正文外語是foreign language 「母語」可不是mother language!
  • 三年半516萬字,評分9.8被網友吹爆!
    三年半516萬字,評分9.8被網友吹爆!1.《超神機械師》齊佩甲,516萬字主角重生為NPC,有著玩家的特權和NPC的模板還能發布任務。《峽谷之巔》神秘的大西瓜,182萬字和這個作者的《聯盟之魔王系統》一樣,我看好這本書。上本書的模板是李哥,這本的模板是Thy shy。所以說這個作者非常的聰明,永遠不會寫崩,人設討喜。雖然會有人說「什麼玩意,你這麼寫,我還不如去看比賽」,但比賽有比賽的魅力,經過加工後的比賽內容同樣存在優勢。
  • 從轉型再到轉形——傳統媒體與新興媒體融合的想像力
    理念上,媒介融合應該是從新聞學到傳播學的理念延伸,是從新聞的製作、播出到信息的分類、提取、信息的精凖傳遞與反饋和再生產、再消費、再製作的過程;是從大眾傳播一對多的新聞傳播的理念到信息交互時代以服務為理念的交互式的信息消費與信息服務。
  • 全省首例在人民法庭辦理的跨域立案成功「解鎖」
    付某決定到寶安法院辦理跨域立案,在電話諮詢時,寶安法院訴訟服務中心告知,他可以就近選擇到沙井人民法庭辦理跨域立案手續,無需到院本部。11月25日,付某委託律師來到沙井人民法庭,向立案人員提交了相關立案材料。立案人員對材料進行審核後,通過跨域立案系統上傳給饒平縣人民法院,十五分鐘後饒平縣法院就完成了立案登記,並將案件受理通知書發送過來,由律師現場籤收。
  • 「跨域審判+」 功能延伸遍開花
    新冠肺炎疫情發生後,為充分發揮審判職能,切實保障人民群眾健康安全,呼和浩特鐵路運輸兩級法院充分利用「跨域審判+」模式開展工作,在全面推行跨域調解、跨域庭審的基礎上,將該模式「+」的功能進一步拓展,不斷創新工作舉措,延伸至跨域會議、跨域講座等領域,確保疫情防控和審判執行兩不誤。
  • 江蘇法院開通12368 訴訟服務熱線跨域查詢服務
    近日,江蘇高院已完成全省12368訴訟服務熱線跨域查詢服務各項準備工作,各級法院12368坐席員均可以查詢到全省三級法院的案件信息。當事人及代理律師向全省任何一家法院撥打12368熱線,均可查詢到全省案件進展情況。
  • 離婚立案「跨域」解決 法官「建群」巧化矛盾
    近日,秦安法院審結一起離婚糾紛案件,王某因人在外務工,受疫情影響不能到當地立案,便通過網上立案平臺,足不出戶完成材料遞交。
  • 10年、100餘名學者、1000萬字,《庫倫歷史文化研究叢書》橫空出世
    10年、100餘名學者、1000萬字,《庫倫歷史文化研究叢書》橫空出世 2019-11-25 06:28 來源:澎湃新聞·澎湃號·政務
  • 文化 | Chinese, the Language
    In continuous use for thousands of years, the language is a vast treasury of culture; in this regard it is only really rivaled by the ancient Greek language.
  • 【漫說跨域立案】「指尖上的訴訟」—異地官司再也不用來回跑!
    【漫說跨域立案】「指尖上的訴訟」—異地官司再也不用來回跑!阿小法一則漫畫故事 帶你了解跨域立案「借錢只要五分鐘,還錢還需五百年」,還錢實在太難了!
  • 從「土豆豆」到「金蛋蛋」,嵐縣推進馬鈴薯全產業鏈融合發展
    為推動馬鈴薯產業發展,嵐縣三年內整合各類涉農資金3億餘元,用於種薯繁育、標準化基地建設、品牌宣傳、「三品一標」認證、科技創新、種植保險等產業發展的關鍵環節。  秉持「做強一產、做優二產、做活三產」的產業融合發展思路,嵐縣不斷壯大延伸產業鏈條,推動土豆產業與文旅、餐飲、信息產業等高質量發展。
  • 雷神公司開始DARPA自適應跨域殺傷網項目第二階段工作
    據executivebiz網站2020年11月19日報導,雷神公司牽頭的研究團隊已經開始美國國防高級研究計劃局(DARPA)「自適應跨域殺傷網」(ACK)項目的第二階段工作,將進一步推進包含作戰規劃等在內的軟體算法技術成熟度,支持該局正在大力發展的「馬賽克戰」戰略。
  • 【IUMR】 跨域:後現代之後與藝術的未來
    就「藝術家」層面而言,我們看到「『創作』時的心態並不等於『回頭審視自己作品』時的心態」;從「觀眾」的角度來說,我們看到:「觀眾對於藝術的判斷總必須具體地被投射在某個具體的物件上才得以說明」。簡言之:「創作(藝術作品)」總是跨域的,只有「觀察」才有「越界與否」的問題。我們也可以說,「跨域」問題並非「創作」面向上的問題,而是「事後觀察」面向上的問題。
  • 可插拔的跨域聊天機器人實現方案復盤(postMessage版)
    你將學到 跨域技術常用方案介紹 postMessage實現跨域通信 如何實現聊天機器人 node搭建本地伺服器來實現渲染頁面和跨域 回答語料庫設計思路效果預覽雖然jsonp實現跨域方式很簡單,但是只支持get請求,對傳輸的數據量有一定限制。cors跨域是目前我們用的比較多的本地調試方式,原理就是在服務端設置響應頭header的Access-Control-Allow-Origin欄位,這樣瀏覽器檢測到header中的Access-Control-Allow-Origin,這樣就可以跨域了。
  • 從英文到中文輕鬆搞定!
    從英文到中文輕鬆搞定!I am very happy to welcome Akkadu to this Thursdays pitching workshop at WeWork BaiFu - 4.30pm June 27th.