​手機拍照:在AI面前,1億像素都是垃圾

2021-03-06 電子工程專輯

作者:黃燁鋒

EET電子工程專輯原創

去年我們在多篇文章中提到過,智慧型手機10多年來,成像質量的提升超過了4EV。從直覺來看,這些提升最大的功臣應該是圖像傳感器及光學系統的發展。不過事實上,DxOMark總結認為,這4V的提升僅有1.3EV是來自圖像傳感器和光學系統的提升,還有3EV來源於圖像處理,或傳說中的計算攝影(Computational Photography)。

本文的標題所謂「1億像素都是垃圾」,指的是1億像素的圖像傳感器為畫質的貢獻可能並沒有人們想像得那麼大,並不是說1億像素沒有意義。既然這4EV主要不是1億像素圖像傳感器的功勞,那應該就是ISP(圖像處理器)的功勞了?

ISP是專門用於影像處理工作的,包括反拜耳(demosaic)、抑噪、自動白平衡、自動曝光、自動對焦、色彩對比度修正等等,尤其是其中的圖像後處理。從圖像傳感器直接生成的原始影像實際上是不大能被人眼接受的,因此需要經過各種處理後才形成最終的照片輸出。

不過無論是手機攝像頭,還是車載、工業攝像頭,在CV、圖像後處理等方面,AI所佔的比重都越來越大。AI專用處理器或單元都開始加入到圖像處理流程中來。

去年華為和三星在其手機晶片發布會上,都提到了ISP與NPU的「融合」,NPU當然就是專用於AI計算的處理器了。三星還為此專門取了個名字叫AISP——應該就是AI+ISP的意思。華為當時宣稱是「業界首次實現ISP+NPU的融合架構」。不管這個「業界首次」是否是真的,這種「融合」都相當值得探究。

本文嘗試從現有資料,以及我所知的一些不成體系的信息來簡單談談,這種「融合」究竟是怎麼回事,以及AI對於拍照而言的價值在哪兒。本文將AI處理器或單元統稱為NPU,不同的廠商對其有不同的稱謂,如蘋果稱其為NE,聯發科稱其為APU,高通稱其為AIE。

事實上,迄今我們依然無法完整地搞清楚,現有智能設備的ISP和NPU之間是怎樣協同工作的。華為在發布會上展示的一張圖只是個簡略的概要圖(下圖)。其中提到,針對「4K像素級AI Video處理」,ISP負責顏色/亮度還原、快速對焦,而神經網絡完成細節還原、去噪。兩者配合來輸出影像。

三星方面對於其「AISP」的宣傳也比較模糊,稱之為「全新ISP架構」,讓AI在影像拍照和視頻上的使用「更加便捷和實時」,「並進一步升級了智能自動白平衡、自動曝光、降噪等功能」。三星在Exynos 1080的發布會上提到,NPU可以進行拍攝物體與風景的檢測,並優化白平衡和曝光。

即便我們不清楚ISP和NPU具體如何協同,或者說圖像處理通路是如何,NPU在此究竟扮演了什麼角色還是有辦法搞清楚的。

谷歌Pixel手機在此前的幾代產品中引入了PVC(Pixel Visual Core)。這是谷歌設計的基於Arm的影像處理器。PVC內部的IPU(image processing unit)本質上是完全可編程的影像、視覺與AI多核專用架構。Pixel二代、三代的多款機型都採用了該處理器。Pixel 4之上,迭代產品更名為Pixel Neural Core,應該算是對其AI計算屬性的一種強調吧。

從PVC,可一定程度理解這種專用處理器是如何做影像後處理的。PVC主體上包含8個IPU核心,據說是谷歌自己設計的,每個核心有512個ALU單元。谷歌為其配套了開發生態,針對圖像處理採用Halide語言,機器學習則為TensorFlow,針對底層硬體有專門的編譯器。而Android三方應用開發者直接使用Android Camera API,就能利用PVC的算力。

Pixel 5已經去掉了這種專用晶片,不知後續是否還會繼續引入。PVC作為一種手機主SoC(如驍龍處理器)之外的一枚專用加速器,想必其處理時延會比較高,從直覺來看可能不及直接將NPU集成到SoC上的方案——畢竟如今手機SoC的AI算力也是越來越強的。猜測未來的Pixel設備極有可能會棄用這種專門的PVC。

最初那些年,PVC參與的影像後處理工作,包括了HDR+、自動白平衡、降噪等。後文借用谷歌這些年在計算攝影方面的研究成果,也會嘗試談談AI具體是如何參與到影像後處理的。

不過谷歌畢竟不是專門的手機晶片製造商,很難直接自己造個專屬的手機SoC,為其拍照的設想做最完美的服務(從這裡也能看出蘋果和華為的優勢)。不難想像,當AI計算在影像處理方面的作用越來越大之時,華為、三星這些晶片製造商,也就開始了NPU與ISP的融合工作。

那麼現在所謂的「融合架構」要如何體現呢?和此前谷歌這種外置一枚PVC的方案又有何不同?華為公布的少量資料,應該是我們獲知ISP、NPU(以及谷歌PVC)如何協同工作的一部分知識碎片。

從上面這張圖中可見,「傳統的視頻流智能處理」,ISP與NPU的數據共享還需要依託於DRAM主內存。也就是說,即便同在一枚SoC上,這兩個處理單元之間還需要靠主內存這種慢速存儲來做數據共享,就像CPU/GPU那樣。那麼AI影像處理的時延,自然就會比較高了,反映在拍照上可能是等待時間較長,AI視頻處理則會「不可用」。雖然我們無法斷言這個信息的真偽,不過PVC和手機主SoC之間,起碼應該會是這樣通信的。

我們現在仍然不清楚ISP+NPU完整的影像處理通路是什麼樣。比如可能是先給ISP做處理,然後再轉交給NPU做後續各種處理,直接就輸出圖像了。但這也太過理想,更合理的方案應該是某些處理工作交給ISP(比如自動對焦、自動測光),某些則交給NPU(比如自動白平衡、AI降噪),兩種處理器進行影像數據的交替處理。這對兩種處理器的通信、協同提出了比較高的要求;另外對究竟哪些工作由ISP處理,哪些工作交給NPU處理這樣的問題,也提出了要求。

華為在麒麟9000媒體溝通會上,在NPU環節提到過一個Smart Cache 2.0的概念。當時我並沒有完全理解,始終認為無非麒麟9000有個系統級LLC,也就是現在手機SoC上普遍會出現的一種system cache——這種緩存在SoC上面向各種IP模塊共享,包括CPU、GPU、NPU等。最早似乎是蘋果在A系列晶片上採用此種設計,後續高通、華為也相繼跟進。

當時華為Fellow艾偉說:「相對直接訪問內存來說,帶寬提升了一倍,能效提升15%。」這句話現在想來,可能是指ISP與NPU通信時,部分共享system cache,而不是去內存轉一圈(不過smart cache也有可能是分層的緩存方案,內存或許也會參與)。

與此同時,ISP和NPU原本的工作方式是不同的。在視頻處理時,ISP以行或者幀內分塊為單位進行工作;而NPU則是以整個幀或整個畫面為處理單位。所以ISP需要忙完整張畫面後,才會將其傳輸給NPU。這樣兩者協同的工作效率是比較低的,NPU可能會有比較長的等待時間。

華為的這種ISP+NPU融合架構是將每一幀進行「切片」,也就是把每幀的整個畫面拆分成更小的單元。ISP與NPU的處理最小單元都成為這種「切片」。ISP在完成一個切片後就可以傳遞給NPU去處理。這麼做不僅降低了NPU的閒置率,應該也能降低帶寬消耗。配合所謂的Smart Cache,也就提高了兩者的工作效率。這應該就是ISP+NPU融合架構的關鍵所在。

Mate40有個錄製功能,是將攝像頭中拍攝到的畫面進行逐幀的卡通化處理——非延後處理,而是拍攝當下就實時顯示。這項應用,很類似於2016年德國圖賓根大學研究人員用卷積神經網絡,實現風格化轉換的一項研究,包括為人像應用畢卡索、梵谷等各種風格。這也是NPU參與工作,並且做到實時處理的一種顯著感知了。

不過NPU+ISP進行影像處理的關鍵還是在於,NPU究竟有什麼用?如果只是做個畫面卡通化處理,或者智能美顏之類,那也沒什麼太大的意思。事實上,現階段AI參與影像增強,是部分替代了ISP的工作的。一個比較典型的例子是畫面的自動白平衡,以前這是ISP的工作,現在則部分或者全部可轉交給NPU去完成。

自動白平衡為什麼需要AI去做呢?無非在於傳統的自動白平衡修正方案,在很多情況下都沒那麼靠譜。白天光照充足時,或許還沒什麼問題,但到了夜晚情況就會比較複雜。

比如像上圖這樣夜間由於光照,色偏本就很嚴重的場景,針對很多拍攝對象是難以做顏色修正的。所以谷歌利用機器學習開發了一套算法。模型訓練過程,是採用Pixel手機來拍攝多樣化的場景,然後針對所有拍攝的照片,在色彩校準顯示器上手動調整照片白平衡。以此來進行訓練。而手機上的AI單元執行的是inference的過程,可得到上圖這樣的結果。

這是AI在自動白平衡中的一個典型應用。在這套方案中,可能涉及的問題主要包括AI算法是否能夠獲得比ISP傳統後處理算法更優秀的結果,NPU如何與ISP協作(包括圖像處理通路如何),訓練數據如何獲取等。

尤其是訓練網絡所需的數據從哪兒來。谷歌的數據是自己用Pixel手機,或者通過一些方案自行採集的,比如上面這個自動白平衡的例子。這似乎也是谷歌的老傳統了。這裡還可以舉幾個用AI實現畫質增強的同類例子:

(1)模擬背景虛化


去年《看懂手機拍照的背景虛化:雙攝3D成像再加上AI?》一文詳細介紹過這種方案。除了雙攝+雙像素這些原本實現背景虛化(淺景深模擬)的傳統方案,谷歌另外用AI對照片背景虛化做了加強。

谷歌為了訓練所需的神經網絡,親自打造了一臺五攝裝備,其實就是把5臺Pixel 3手機固定在一起,拍了很多人像照片,「五攝」同時拍攝畫面就能生成相對高質量的深度圖。以此作為神經網絡的輸入。這樣用戶在用手機拍攝人像時,AI就能輔助推斷人像深度了。

(2)消除畫面噪聲


UC Berkeley和Google Research前兩年發表過一篇多幀降噪的paper,題為Burst Denoising with Kernel Prediction Networks。用CNN網絡預測運動向量+降噪kernel的方法。數據來源是Open Images dataset,針對每張圖像生成N張裁剪圖像,每張做隨機偏移;而且每張照片做逆向gamma校正,轉換為近似線性顏色空間,並利用噪聲模型來添加噪聲——也就模擬了多幀畫面。這些作為訓練數據。

最終期望達到的,就是用手機拍照,一次快門就拍下多張圖片,通過這種多幀堆棧來獲得一張純淨度比較高的照片。這是利用機器學習實現多張堆棧降噪的典型方法了。

(3)視頻拍攝防抖

谷歌針對Pixel 2手機應用過一種名為Fused Video Stabilization的視頻拍攝防抖方案。這套方案包含3個處理階段:第一階段做位移分析,獲取陀螺儀的信號、光學防抖的鏡頭運動,來精確預估攝像頭的位移。然後在位移過濾階段,結合機器學習和信號處理,來預測拍攝者移動攝像頭的意圖。最後進行幀合成,達成優於傳統光學、數字防抖的效果。AI屬於其中的一個階段。

(4)HDR+高動態範圍

HDR+其實是谷歌一次按下快門,多張短曝光照片堆棧的一種算法。這項特性本身應該並沒有加入AI。不過2018年,谷歌宣布向研究社區公開HDR+的這些堆棧照片數據,包括不同對象、亮度、動態範圍和亮度的。據說有不少做神經網絡研究的paper都採用了這套數據集。HDR+因此也能算是AI拍照的組成部分了吧。

Pixel手機更多應用了AI的功能和特性,這裡就不再多做介紹了,有興趣的可參見谷歌的AI Blog。比如說前兩個月谷歌才公布的「人像光照」特性,是對2D照片的人像做模擬打光——即為照片加人造光源。人像光照主要應用的就是機器學習,谷歌動用到了位於不同角度的64個攝像頭+331個LED光源,從各個角度來拍攝不同方位的打光照片,以此作為神經網絡的訓練數據來源。效果還是比iPhone用3D結構光實現的打光效果更靠譜的。

華為這邊因為硬體實現上有了NPU+ISP融合架構的加成,所以更多的AI特性得以應用到了視頻後處理、實時處理以及AR之上。有興趣的可參見《全面剖析麒麟9000:華為Mate 40碾壓了誰?》一文的NPU部分。

前面列舉AI加強成像畫質的,典型如降噪、自動白平衡,本質上都是傳統攝影的構成部分,而不是類似於「趣味攝影」的小特性,或者在很多人看來可有可無的部分。它們在手機中是真真切切地影響到了最終的成像畫質的。華為有底氣宣稱Mate40的5000萬像素碾壓別家1億像素,AI在其中應當佔了較大比重。

本文僅作為拓寬見聞的一篇文章,讓各位讀者了解,AI在如今的手機攝影中大致有著怎樣的作用(以谷歌為代表),以及從硬體的角度嘗試管中一窺NPU+ISP的新融合架構(以華為為代表)。未來手機乃至相機拍照,越來越多地引入AI,也是必然的。且計算機攝影相關的研究也還在持續中。

未來手機上的AI攝影會走向何方,這個話題太大了。不過本文的最後再分享一篇相當有趣,來自蘇黎世聯邦理工學院去年發布的一篇paper(Replacing Mobile Camera ISP with a Single Deep Learning Model),大致意思是將ISP徹底替換為NPU。

幾名研究人員採用華為P20 Pro,以及單反佳能5D4拍的照片為神經網絡的訓練數據,包括兩者拍攝的原始RAW圖像(未經過反拜耳的原始數據),以及經過ISP後處理最終輸出的JPG照片。訓練過程就是將P20 Pro拍攝的RAW Bayer數據,轉成佳能5D4同場景拍攝的JPG照片(也就是將圖像傳感器輸出的原始數據,映射到高質量的照片)。數據集包含10000張實拍照片。

用訓練得到的PyNET網絡所做的後處理,與華為P20自己的ISP所做後處理的比較

最終獲得的PyNET模型,就可以直接將手機圖像傳感器獲取到的原始數據,經過inference——也就是類似NPU這樣的AI處理器,來輸出JPG照片了。也就是AI單元學習了ISP的工作流程,並替代了ISP。「在不需要有關傳感器、光學相關的知識」的情況下,就能做到原本ISP需要各種tuning才可達成的工作。(不過要是圖片後處理流程本來就包含了AI過程,是否就是個嵌套了?)

聽起來是個很有意思的思路,當然其實際效果如何又是另一個話題了,有興趣的同學可前往查看。

‧‧‧‧‧‧‧‧‧‧‧‧‧‧  END  ‧‧‧‧‧‧‧‧‧‧‧‧‧‧‧

👇👇點擊閱讀原文了解峰會活動

相關焦點

  • 1億像素還不夠,國際巨頭研發6億像素鏡頭,手機拍照堪比單反
    在過去兩年時間裡,各大手機廠商紛紛在影像系統上加注,大底傳感器、高像素鏡頭、超級變焦技術以及超級夜景功能,相繼問世。手機拍照能力已經比肩曾經的數位相機,甚至部分品牌還喊出媲美單反的口號。目前影像系統對於手機而言,已經與屏幕和處理器同等重要。
  • 有了1億像素拍照手機,外出旅遊還需要帶入門單眼相機嗎?
    許多購買了拍照旗艦手機用戶,在外出旅行時非常糾結,要不要帶上入門單反或微單相機呢?小編就把小米1億像素拍照手機同尼康入門單反來一次實拍對比,看看能不能找出答案。小米CC9Pro是去年底推出的一款拍照旗艦手機,搭載了1/1.33〃超大傳感器、1.08億像素主攝鏡頭,以及1200萬像素人像鏡頭、800萬像素長焦鏡頭、2000萬像素廣角鏡頭、200萬像素微距鏡頭,在當時國際權威機構DXO評測中,小米CC9Pro手機相機獲得121分,總分排名第一,可見其拍攝能力相當強悍。
  • 首發1億像素夜景相機
    Redmi Note 9 Pro在國內率先搭載1億像素相機HM2、高通驍龍750G液冷遊戲芯,同時配備120Hz變速高刷新率屏幕;Note 9採用性能強勁的天璣800U處理器、5000mAh充電寶級大電池和4800萬像素三攝;Note 9 4G採用6000mAh長循環電池,配備128GB大內存。Note 9系列全系搭載立體聲雙揚聲器和UFS2.2內存。
  • 安卓1億像素和蘋果1200萬像素有何不同,選哪個好?
    如今1億像素手機已下探至千元機價位,而售價近萬元的蘋果仍在堅守1200萬像素,從本質上來講他們1億像素和1200萬像素有何不同,我們又該如何選擇呢?01 差異的本質是營銷手機拍照好壞取決於CMOS底片、鏡頭,以及算法。
  • 平民手中的照相機,1億像素真香
    紅米Note9 Pro,這款手機不但是驍龍750G首發,而且擁有1億像素CMOS,號稱拍照能夠越級挑戰比它價格翻倍的產品。那事實真是這樣嗎?不妨就把樣張拿出來給大家看看。跑分達351232,首次搭載立體聲雙揚聲器與線性馬達,小孔徑挖孔屏,擁有120Hz高刷新率、6級變速、240Hz觸控採樣率,4820mAh電池,同時配備33w快充,58分鐘就可充滿紅米Note9系列共分為三款,其中最高端的紅米Note9 Pro,是一款驍龍750G手機,這款產品還搭載了三星最新的HM2 CMOS,成為又一款1億像素新品
  • 怎樣提升拍照畫質?你們拼像素的都弱爆了!
    對於攝影愛好者來講,拍照畫質上最靠譜的提升無非是更好的傳感器加上更好的鏡頭,但是在目前手機的發展層面來講,這種做法似乎並不是很現實。機身厚度限制著鏡頭素質的提升,也同樣寶貴的機身內部空間也限制著傳感器大小的提升。所以,為了平衡這些利弊,很多廠商想出許多另闢蹊徑的方法來提升拍照畫質質量,下面我們就來看看吧。
  • Redmi Note9 Pro和小米10Pro同樣都是1億像素,差距有多大?
    昨晚,小米正式發布了Redmi Note 9系列手機,其中最高端的版本Note 9 Pro搭載了全球首發的第三代1億像素傳感器HM2,而此前的小米10 Pro這款旗艦機同樣搭載了1億像素的主攝像頭傳感器。那麼,這兩款搭載1億像素主攝的手機,在實際拍照的表現差距有多大呢?
  • 三星正在研發6億像素的相機傳感器!億級像素方向確實沒錯
    相機是手機上一個重要的功能,所以近年來一直是各大手機廠商發力的重點,這其中小米是最為激進的廠商,不僅全球首次採用了一億像素的相機,而且短短一年就把一億像素下放到了千元機上。關於億級像素的相機,自從小米使用以來就存在著一些爭議,因為有其他廠商的高管認為其方向錯了。
  • 億級像素的照片該是什麼樣?
    億級像素是什麼概念?你知道億級像素的照片會是什麼樣麼?上面是號稱世界上最清晰的照片,拍攝於勃朗峰, 像素高達3650億,大家應該都被這張照片震撼到了吧,那麼這張照片到底有多大呢?據說光是後期製作數據就高達46TB46TB是什麼概念?1TB等於1024GB ,46TB就是47104GB。
  • 像素多等於拍照好?理論+實拍解密像素的真相
    在將近一年以前,當小黑拿著剛剛買到的小米10愉快地玩耍時,一億像素攝像頭在手機領域裡還是一個非常新鮮的玩意兒,關於高像素和大像素的爭論也不斷被提及。短短一年以後的今天,又有一則新消息讓小黑震驚了。根據網友的爆料,三星正在研發一組6億像素的攝像頭模組,這一消息又讓那個老生常談的問題再度被小黑想起來,那就是如此高的像素真的有那麼好嗎?
  • vivo X50 Pro+評測:小夥1億像素下竟發現新大陸
    雖然沒有微雲臺,但是主攝CMOS升級為1/1.3英寸的三星GN1(5000萬像素),支持1億像素拍攝模式,人像鏡頭升級為3200萬像素,超廣角與潛望式均升級到1300萬像素,支持8K視頻拍攝。2、屏幕升級!屏幕刷新率升級到了120Hz,觸控採樣率升級到240Hz。4、性能升級!
  • 1億像素小米手機和索尼微單效果誰好?比比看就知道了
    這裡手機是小米的CC9 Pro,也是現在唯一的1.08億像素手機,相機是索尼的A6100,16-50套頭,主要是看中其4K視頻能力,2400萬像素拍照倒不是很看中。既然兩者還算相對接近的,一個2600元,一個5000元,不妨放在一起比比。可以肯定索尼A6100畫質更好,畢竟重量更重,價格更貴,功能更單一,但小米CC9 Pro會差多少,還是值得一看的。
  • 手機拍照的高像素,或最終靠對焦分出三六九等
    然而以上的這幾條缺點可能都還不是最重要的,因為它們有的可能並不會被普通用戶明顯感知到,有的可能只在部分功能或者場景下才會體現出來。對於此前的超高像素拍照手機拍照方案來說,這些數千萬像素機型真正共通的,而且最明顯的短板其實體現在了對焦性能上。不知道大家有沒有發現,自從換上了新款的超高像素手機之後,日常拍照過程中虛焦的比例似乎突然一下就變高了。
  • 小米官網不小心洩露小米11背部外觀,1億像素曝光
    不過百密終有一疏,就在剛剛,小米官方不小心洩露了自家全新設計的產品,可以說是提前亮相了背部的設計,但也僅僅如此,其他各方面的參數都還沒有具體洩露。從這個洩露的渲染圖中我們可以看到背部的設計已經不再是豎向的設計了。背部的攝像頭由原本的四攝改為了三攝設計,採用了2+1的設計方案。
  • 用手機拍攝1億像素的照片是什麼體驗
    影像+X50 Pro+採用後置4攝方案,其中主攝使用了三星1/1.3英寸的GN1傳感器,四合一像素麵積為2.4μm。攝影人常說,底大一級壓死人,X50 Pro+的思路很好理解,採用更大的傳感器,能接收更多的光線、帶來更高的動態範圍,能用更低的ISO 、帶來更少的噪點。
  • 將擴大1億像素相機生產:真正向索尼宣戰
    DXO相機評分榜單中,我們可以看到,絕大部分都是搭載索尼CMOS,所以所以CMOS晶片也成為了手機拍照品質、高端的象徵。在索尼強大的光環籠罩下,其他CMOS晶片企業只能夠紮根在中低端市場生存,畢竟在中低端市場一直都不被索尼所看重,但就在2019年下半年,全球CMOS晶片霸主—索尼,也正式迎來了 以為強有力的挑戰者,它就是三星,三星正式推出了兩款1億像素攝像頭,開始對索尼高端CMOS市場發起衝擊,而三星推出這顆1億像素的CMOS晶片,也得到了國內手機巨頭—小米的積極響應,在小米CC9
  • 比1億像素還大:OV發布4800W像素巨型CMOS,可惜太冷門沒人首發
    在現在的手機CMOS領域,索尼是絕對的巨頭,三星的主力中高端方案也是網紅級產品,比如去年推出的很多4800W像素手機、6400W像素手機乃至三星1億像素HMX這種怪物都受到追捧,OmniVision(豪威)則漸漸被打入冷宮,成了副攝像頭和前置攝像頭首選。
  • 小米最強拍照手機來襲:775G+90Hz+一億像素,價格良心!
    愛美之心,人皆有之,近年來手機不僅在性能等方面有著很大的進步,在拍照方面更是令人驚嘆,目前的許多高端旗艦,在拍照方面甚至不輸一些相機。雖然目前華為在拍照方面有著絕對的優勢,但小米對其一直虎視眈眈,小米去年發布的小米cc9 Pro,至今仍舊印象深刻,這是一款主打拍照的旗艦手機,全球首發1億像素,成為當時dxo榜上的第1名。
  • 三星概念機曝光,1億像素住攝,外觀新穎
    隨著5g時代的到來,三星手機在處理器和拍照方面都做了充分的努力。近日,國外一家媒體曝光了一款三星5g概念新機。這臺機器不僅外觀設計創新,而且硬體更出色。我覺得三星S20不香。近年來,國產手機在屏幕方面的表現可圈可點,推出了很多優秀的綜合屏幕方案,但都有一個共同點,就是這些優秀的屏幕一般都來自三星,而三星手機很少使用國產手機的屏幕方案。
  • 小米10Pro一億像素壁紙在哪下載?1億像素壁紙高清圖片下載地址分享
    2月13日小米10發布會上,小米官方表示使用小米10Pro手機從太空上方拍攝了許多地球的照片,這些照片都是用小米10Pro一億像素的攝像頭拍攝的,那麼這些照片壁紙在哪裡可以下載到呢,我們來看下具體的下載地址。