Spark AR 統整特效發布

2020-12-07 騰訊網

本文轉載自【Facebook開發者】公眾號,無論您想增加下載量、提升用戶留存,還是想讓應用程式變現,Facebook 平臺都有能助您一臂之力的工具和解決方案,歡迎大家關注。

目前在 Facebook 和 Instagram 上發布 AR 特效已超120萬個,我們得以藉此傾聽和了解創作者關於特效發布工作流程的期望和需求。我們已做出各種改進,從審核策略更新【1】和特效提交指引【2】,到新的成效洞察【3】幫助您了解特效表現。

我們仍致力於改善您的發布體驗,Spark AR Hub【4】中推出的一些新功能都旨在幫助你簡化發布、管理和分析AR特效效果的方式。

統整特效發布

現在你可以一次性提交特效,並在獲得批准後,即可將特效同時發布在 Facebook 和 Instagram 上。沒錯——僅需一次提交,一個審核過程,然後你就可以將你的特效發布到 Facebook 應用和 Facebook 服務家族中的所有支持平臺上。請務必查看我們的更新文檔【5】,了解有關發布以及如何管理特效屬性的更多詳細信息。

一次性提交特效

可同時發布特效到 Facebook 和 Instagram

簡化的特效管理

我們正致力於簡化已發布特效的管理,以節省時間。現在,如需更改特效,您只需編輯一次,我們就會在 Facebook 支持的每個平臺上自動更新其效果。

簡化特效管理

更改特效只需編輯一次即可自動更新到各平臺

整合的特效成效洞察

我們正在更新 Spark AR Hub 成效洞察,它將為您提供一個整合的視圖,以供您查看您的特效在所有平臺上的表現。這個整合的視圖能讓您更容易從三個洞察類別【6】調整和理解您的特效在 Facebook 和 Instagram 上的表現,包括:發現、互動和受眾。

Spark AR Hub 洞察

我們正向所有用戶推出以上更新:統整特效發布、簡化的管理和整合的成效洞察,希望您能試一試。我們也鼓勵所有的創造者查看 Spark AR 學習【7】以及 Spark AR 論壇【8】獲取更多信息。

【1】:https://sparkar.facebook.com/ar-studio/learn/publishing/spark-ar-review-policies#part-1-effects

【2】:https://sparkar.facebook.com/ar-studio/learn/publishing-your-effect/making-sure-instagram-effect-is-approved

【3】:https://sparkar.facebook.com/ar-studio/learn/publishing/insights-for-facebook-effects#tips-and-tactic

【4】:https://www.facebook.com/login.php?next=https%3A%2F%2Fwww.facebook.com%2Fsparkarhub%2Fdashboard%2F

【5】:https://sparkar.facebook.com/ar-studio/learn/publish/chooking-platform-owner-and-publisher

【6】:https://sparkar.intern.facebook.com/ar-studio/learn/publishing/insights-for-facebook-effects#when-can-I-view-insights

【7】:https://sparkar.facebook.com/ar-studio/learn/

【8】:https://sparkar.facebook.com/forum

近期,「Facebook開發者」公眾號正式在國內運營,這裡將會分享開發者相關的最新動態以及精彩活動,歡迎大家進行關注。

相關焦點

  • Spark AR 創作者問答:Kyo Park
    一年多以前,我開始嘗試面部特效,並把Spark AR Studio作為一個愛好,因為我真的很喜歡將2D和3D設計技巧結合在一起,所以現在我正在努力專注於那些能結合2D和3D設計的項目。 你的AR特效靈感來自哪裡? 我的靈感來源有很多。有時在夢裡,有時在我聽的音樂裡。
  • 小學統編語文教材整本書閱讀書單及版本推薦
    相信越來越多的老師和家長在當前語文教學改革的趨勢下,都認識到語文閱讀在中高考中所佔的比重越來越大,語文考試越來越重視對整本書的考查。 統編教材的編寫更體現了對課外閱讀的重視,為此還特別設立了「快樂讀書吧」,把課外閱讀納入了語文教材和教學中。
  • Spark運行模式——Local模式
    首先需要下載Spark1.官網地址 http://spark.apache.org/2.文檔查看地址 https://spark.apache.org/docs/2.1.1/3.下載地址 https://archive.apache.org/dist/spark/Local
  • 手把手教你在本機安裝spark
    本文轉載自【微信公眾號:五角錢的程式設計師,ID:xianglin965】,經微信公眾號授權轉載,如需轉載與原文作者聯繫今天是spark系列的第一篇文章。最近由於一直work from home節省了很多上下班路上的時間,加上今天的LeetCode的文章篇幅較小,所以抽出了點時間加更了一篇,和大家分享一下最近在學習的spark相關的內容。
  • 「sparkr+sparkr mini」 打火機手電筒完美合體
    繼在kickstarter網站上六次眾籌成功之後,該公司名聲大噪,如今又再一次在眾籌網站上發布了兩款產品。「sparkr」與「sparkr mini」將他們「古怪的」設計特色與生產日常用品的願望相結合。這套造型別致的多功能全新系列作品能夠讓使用者們隨時隨地生火或照明。
  • 大數據分析工程師入門9-Spark SQL
    Spark SQL是Spark專門用來處理結構化數據的模塊,是Spark的核心組件,在1.0時發布。SparkSQL替代的是HIVE的查詢引擎,HIVE的默認引擎查詢效率低是由於其基於MapReduce實現SQL查詢,而MapReduce的shuffle是基於磁碟的。
  • SparkCore——專業術語及流程圖
    1,Applicationapplication(應用)其實就是用spark-submit提交的程序。比方說spark examples中的計算pi的SparkPi。從spark官網截圖的一張圖可以大致了解driver的功能。3,JobSpark中的Job和MR中Job不一樣不一樣。MR中Job主要是Map或者Reduce Job。而Spark的Job其實很好區別,一個action算子就算一個Job,比方說count,first等。4, TaskTask是Spark中最新的執行單元。
  • 停止使用Pandas並開始使用Spark+Scala
    我們還需要導入另一個有用的spark函數col,該函數用於引用列。這設置了一些spark配置,還允許您添加依賴項。 在這裡,我添加了一個名為vegas的可視化庫。  要包括的兩個主要內容:  · build.sbt-以前我們在一個筆記本單元中添加了依賴項,現在我們需要將它們添加到build.sbt文件中  · SparkSession-在筆記本中我們已經有一個spark會話,這意味著我們能夠執行spark.createDataFrame之類的事情。
  • sparksql 窗口函數原理
    相信大家比較難看懂舉個例子:我們常用的row_number()來說select row_number() over(partitionby col1orderby col2) fromtable上面的語句主要分兩部分window函數部分(window_func)窗口定義部分2.1 window函數部分windows函數部分就是所要在窗口上執行的函數,spark
  • 通過引入 ML,谷歌 ARCore 實時自拍 AR 的逼真效果更進一步
    並且通過藉助於最新發布的「YouTube Stories」以及 ARCore 全新的面部增強(Augmented Faces)API,你可以在自拍上添加動畫面具、眼鏡、帽子、皮膚等特效。實現這種 AR 功能的關鍵挑戰之一,就是以合適的方式將虛擬內容錨定到現實世界:這一過程需要一套能夠追蹤到每一次微笑、皺眉或假笑的高動態表面幾何結構的獨特的感知技術。
  • 這就是街舞中spark亮亮是誰 spark亮亮個人資料介紹
    這就是街舞中spark亮亮是誰?  據悉,Sparkle亮亮是易烊千璽站隊的,節目中,音樂錯了依舊freestyle,實力驚人。是juste debout 世界大賽中國賽區冠軍。而Juste Debout是全球最具權威性的Street Dance大賽。由Poppin界元老級人物Bruce Ykanji從2002年起創立。
  • Spark在360商業數據部的應用實踐
    由於之前大部分數據分析工作都是通過使用hive命令行完成的,為了將遷移至SparkSQL的代價最小,360系統部的同事開發了SparkSQL的命令行版本spark-hive。原有的以hive 命令運行的腳本,簡單的改成spark-hive便可以運行。360系統部的同事也做了大量兼容性的工作。spark-hive目前已經比較穩定,成為數據分析的首選。
  • 大數據掃盲——什麼是spark
    spark的出現就彌補了MapReduce的不足。 spark是一種基於內存的快速、通用、可擴展的大數據計算引擎。它集批處理、實時流處理、交互式查詢、圖計算與機器學習於一體Spark應用場景批處理可用於ETL(抽取、轉換、加載)。 機器學習可用於自動判斷淘寶的買家評論是好評還是差評。 交互式分析可用於查詢Hive數據倉庫。
  • 深入對比數據科學工具箱: SparkR vs Sparklyr
    SparkR 文檔:http://spark.apachecn.org/docs/cn/2.3.0/structured-streaming-programming-guide.html       Sparklyr 文檔:https://spark.rstudio.com
  • 烏海spark培訓_博雅環球教育放心之選
    烏海spark培訓,博雅環球教育放心之選,是以網際網路企業技術研發、軟體開發、大數據分析、雲計算、人工智慧開發應用等網際網路技術為依託,以校企專業共建,崗前技能實訓,高薪就業安置,網際網路人才外包服務等業務為核心的高端就業培訓。烏海spark培訓, Oracle認證講師、Microsoft認證講師。
  • 每個數據科學家都得會一點SparkMagic
    >RUN mkdir /home/$NB_USER/.sparkmagicRUN wget https://raw.githubusercontent.com/jupyter-incubator/sparkmagic/master/sparkmagic/example_config.jsonRUN mv example_config.json /home/$NB_USER
  • 基於Bert和通用句子編碼的Spark-NLP文本分類
    import sparknlpspark = sparknlp.start() # sparknlp.start(gpu=True) >> 在GPU上訓練from sparknlp.base import *from sparknlp.annotator import *from pyspark.ml import Pipelineimport pandas as pdprint
  • 數據分析工程師面試集錦5——Spark面試指南
    10、spark有哪些存儲級別?提交一個Spark任務使用spark-submit,加上相關的參數和主jar包進行提交。--master spark://node001:7077,node002:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi ..
  • Spark 3.0發布啦,改進SQL,棄Python 2,增強擴展,性能大幅提升
    Apache Spark 3.0.0正式發布啦,Apache Spark 3.0是在Spark 2.x的基礎上開發的,帶來了新的想法和功能。Apache Spark 3.0.0Spark是一個開源的大數據處理、數據科學、機器學習和數據分析工作負載的統一引擎,自2010年首次發布以來,已經成長為最活躍的開源項目之一;支持Java、Scala、Python、R等語言
  • 2020谷歌開發者大會:AR軟體工程總監介紹ARCore最新動態
    而谷歌發布於2018年的ARCore是AR開發者平臺,提供了簡單而強大的工具,為Android和iOS用戶創造有效的AR體驗。目前已被應用在7億臺設備和成千上萬款app上,並且已獲得一些更新。 其中,王啟文介紹了包括美圖、滴滴、有道少兒詞典的中國開發者如何使用ARCore提高產品的性能和體驗。