7 Papers & Radios | OpenAI教GPT-3學會上網;愛因斯坦廣義相對論通過嚴格檢驗

2022-01-01 機器之心
機器之心 & ArXiv Weekly Radiostation本周論文包括 OpenAI 教會了 WebGPT 上網;愛因斯坦廣義相對論通過了一場歷時 16 年的嚴格檢驗。

WebGPT: Browser-assisted question-answering with human feedback 

Multi-caption Text-to-Face Synthesis: Dataset and Algorithm 

Strong-Field Gravity Tests with the Double Pulsar

PTR: A Benchmark for Part-based Conceptual, Relational, and Physical Reasoning 

 A SURVEY OF GENERALISATION IN DEEP REINFORCEMENT LEARNING

Learning to Compose Visual Relations

PeCo: Perceptual Codebook for BERT Pre-training of Vision Transformers 

ArXiv Weekly Radiostation:NLP、CV、ML 更多精選論文(附音頻)

論文 1:WebGPT: Browser-assisted question-answering with human feedback摘要:如果 AI 學會上網,那麼它就擁有了無限獲取知識的方式,之後會發生什麼就不太好預測了。於是著名 AI 研究機構 OpenAI 教那個開啟了通用人工智慧大門、體量巨大的人工智慧模型 GPT-3 學會了上網。現在,這個模型能正確地處理一些棘手的問題:比如,有人詢問了一個錯誤的問題:「莎士比亞什麼時候寫的《哈利 · 波特》系列小說?」該模型回答:莎士比亞沒有寫《哈利 · 波特》小說。這些小說是由 J.K. 羅琳完成的……

從回答的內容來看,這個模型完全正確,此外,該模型還給讀者提供了引用文獻,如藍體數字所示,答案的最後還給出了相關連結,點擊每個連結,還能連結到相應的網頁。OpenAI 對 GPT-3 進行了微調,以使用基於文本的網絡瀏覽器更準確地回答開放式問題,這允許模型搜索和瀏覽網頁。該模型原型複製了人類在線研究問題答案的方式,涉及提交搜索查詢,跟蹤連結,以及向上和向下滾動網頁。模型經過訓練後,它會引用信息源,這使得模型提供反饋更容易,從而提高事實的準確性。此外,該模型還提供了一個開放式問題和瀏覽器狀態摘要,並且必須具有諸如「Search……」、「Find in page:……」或「Quote:……」之類的命令。通過這種方式,模型從網頁中收集段落,然後使用這些段落來撰寫答案。通過設置任務,OpenAI 能夠使用模仿學習(imitation learning)在不同任務上訓練模型,然後根據人類反饋優化答案質量。OpenAI 在 ELI5 上對模型進行了訓練和評估,其中 ELI5 是一個由 Reddit 用戶提問的問題集。總體而言,OpenAI 對 GPT-3 模型家族的模型進行了微調,重點研究了具有 760M、13B 和 175B 參數的模型。從這些模型出發,OpenAI 使用了四種主要的訓練方法:

行為克隆(Behavior cloning,BC):OpenAI 使用監督學習對演示進行了微調,並將人類演示者發出的命令作為標籤;

建模獎勵(Reward modeling,RM):從去掉 unembedding 層的 BC 模型開始,OpenAI 訓練的模型可以接受帶有引用的問題和答案,並輸出標量獎勵,獎勵模型使用交叉熵損失進行訓練;

強化學習(RL):OpenAI 使用 Schulman 等人提出的 PPO 微調 BC 模型。對於環境獎勵,OpenAI 在 episode 結束時獲取獎勵模型分數,並將其添加到每個 token 的 BC 模型的 KL 懲罰中,以減輕獎勵模型的過度優化;

剔除抽樣(best-of-n):OpenAI 從 BC 模型或 RL 模型(如果未指定,則使用 BC 模型)中抽取固定數量的答案(4、16 或 64),並選擇獎勵模型排名最高的答案。 

推薦:OpenAI 教 GPT-3 學會上網,「全知全能」的 AI 模型上線了。論文 2:Multi-caption Text-to-Face Synthesis: Dataset and Algorithm摘要:文本人臉合成指的是基於一個或多個文本描述,生成真實自然的人臉圖像,並儘可能保證生成的圖像符合對應文本描述,可以用於人機互動,藝術圖像生成,以及根據受害者描述生成犯罪嫌疑人畫像等。針對這個問題,中科院自動化所聯合北方電子設備研究所提出了一種基於多輸入的文本人臉合成方法(SEA-T2F),並建立了第一個手工標註的大規模人臉文本描述數據集(CelebAText-HQ)。該方法首次實現多個文本輸入的人臉合成,與單輸入的算法相比生成的圖像更加接近真實人臉。相關成果論文《Multi-caption Text-to-Face Synthesis: Dataset and Algorithm》已被 ACM MM 2021 錄用。相較於文本到自然圖像的生成,文本到人臉生成是一個更具挑戰性的任務,一方面,人臉具有更加細密的紋理和模糊的特徵,難以建立人臉圖像與自然語言的映射,另一方面,相關數據集要麼是規模太小,要麼直接基於屬性標籤用網絡生成,目前為止,還沒有大規模手工標註的人臉文本描述數據集,極大地限制了該領域的發展。此外,目前基於文本的人臉生成方法 [1,2,3,4] 都是基於一個文本輸入,但一個文本不足以描述複雜的人臉特徵,更重要的是,由於文本描述的主觀性,不同人對於同一張圖片的描述可能會相互衝突,因此基於多個文本描述的人臉生成具有很重大的研究意義。針對該問題,團隊提出了一個基於多輸入的文本人臉生成算法。算法採用三階段的生成對抗網絡框架,以隨機採樣的高斯噪聲作為輸入,來自不同文本的句子特徵通過 SFIM 模塊嵌入到網絡當中,在網絡的第二第三階段分別引入了 AMC 模塊,將不同文本描述的單詞特徵與中間圖像特徵通過注意力機制進行融合,以生成更加細密度的特徵。為了更好地在文本中學習屬性信息,團隊設計了一個屬性分類器,並引入屬性分類損失來優化網絡參數。

推薦:中科院自動化所聯合北方電子設備研究所提出多輸入文本人臉合成方法,數據代碼已開源。論文 3:Strong-Field Gravity Tests with the Double Pulsar摘要:廣義相對論是愛因斯坦在 1915 年完成、1916 年正式發表的重要引力理論。該理論在天體物理學中有著非常重要的應用:它直接推導出某些大質量 恆星會終結為一個黑洞。從 1916 年正式發表以來,物理學界對於這一理論的實驗驗證就從未停止。其中,東英吉利大學(UEA)和曼徹斯特大學的研究人員聯合進行了一項長達 16 年的實驗。這個國際研究團隊通過遍布全球的七臺射電望遠鏡觀察一對脈衝星,以此來進行一些迄今為止最嚴格的廣義相對論測試。結果證明,廣義相對論經受住了考驗。

該研究於 12 月 13 日發表在《Physical Review X》雜誌上。「過去 16 年裡,我們對雙脈衝星的觀測被證明與愛因斯坦的廣義相對論驚人地一致,精確程度在 99.99% 以內。」論文作者表示。在馬克斯普朗克射電天文研究所 Michael Kramer 的帶領下,來自十個國家的國際研究團隊對愛因斯坦的理論進行了迄今為止最嚴格的測試。該研究基於由團隊成員在 2003 年發現的雙脈衝星進行實驗,它是目前用來測試愛因斯坦理論最精確的實驗室。儘管廣義相對論是在這類極端恆星以及用於研究它們的技術都未知的時候構思出來的。研究團隊發現的雙脈衝星由兩顆脈衝星組成,它們在短短 147 分鐘內以大約 100 萬公裡 / 小時的速度相互環繞。其中一顆脈衝星(主星)旋轉得非常快,大約每秒 44 次,而另一顆脈衝星(伴星)的自轉周期約為 2.8 秒。它們圍繞彼此的運動幾乎可以用作完美的引力實驗室,可以在存在非常強的引力場的情況下測試引力理論。該研究測試了愛因斯坦理論的基石,即引力波攜帶的能量。其精度是諾貝爾獎得主發現的 Hulse-Taylor 脈衝星的 25 倍,是目前使用的引力波探測器的精度的 1000 倍。推薦:愛因斯坦廣義相對論剛剛通過了一場歷時 16 年的嚴格檢驗。論文 4:PTR: A Benchmark for Part-based Conceptual, Relational, and Physical Reasoning摘要:本文引入了一個新的名為 PTR 的大規模診斷型視覺推理數據集。PTR 包含大約七萬 RGBD 合成圖像,帶有關於語義實例分割、顏色屬性、空間和幾何關係以及某些物理屬性(例如穩定性)的物體和局部標註。這些圖像配有五種類型的問題:概念型推理,關係型推理,類比型推理,數學推理和物理推理。這些類型均來自於人類認知推理的重要方面,但在以往的工作中並沒有被充分探索過。本文在這個數據集上檢驗了幾個最先進的視覺推理模型。研究者觀察到它們的表現遠遠不及人類表現,特別是在一些較新的推理類型(例如幾何,物理問題)任務上。該研究期待這個數據集能夠促進機器推理向更複雜的人類認知推理推進。PTR 數據集有七萬的 RGBD 圖片和 70 萬基於這些圖片的問題。本文作者提供了詳細的圖片標註,包括語義實例分割、幾何、物理狀態的標註。數據集的生成採取了精細的偏差和噪聲控制。下圖總結了 PTR 數據集涵蓋的概念。

可以看出,PTR 數據集具有豐富的認知層面的概念和關係。在物體整體方面,具有空間關係、物理狀態等概念,在局部方面,有幾何關係等概念。整體 - 部分的加入大大增加了視覺推理的層次性和豐富性。PTR 數據集包含了五類問題:概念型推理,關係型推理,類比型推理,數學推理和物理推理。推薦:MIT、UCLA、斯坦福聯合提出新一代視覺推理數據集。論文 5:A SURVEY OF GENERALISATION IN DEEP REINFORCEMENT LEARNING摘要:強化學習 (RL) 可用於自動駕駛汽車、機器人等一系列應用,其在現實世界中表現如何呢?現實世界是動態、開放並且總是在變化的,強化學習算法需要對環境的變化保持穩健性,並在部署期間能夠進行遷移和適應沒見過的(但相似的)環境。

然而,當前許多強化學習研究都是在 Atari 和 MuJoCo 等基準上進行的,其具有以下缺點:它們的評估策略環境和訓練環境完全相同;這種環境相同的評估策略不適合真實環境。目前,許多研究者已經意識到這個問題,開始專注於改進 RL 中的泛化。來自倫敦大學學院、UC 伯克利機構的研究者撰文《 A SURVEY OF GENERALISATION IN DEEP REINFORCEMENT LEARNING 》,對深度強化學習中的泛化進行了研究。

該研究提出了一種形式和術語,以用於討論泛化問題,這一工作是建立在之前研究 [12, 13, 14, 15, 16] 的基礎上進行的。本文將先前的工作統一成一個清晰的形式描述,這類問題在 RL 中被稱為泛化。

該研究提出了對現有基準的分類方法,可用於測試泛化。該研究的形式使我們能夠清楚地描述泛化基準測試和環境設計的純 PCG(Procedural Content Generation)  方法的弱點:完整的 PCG 環境會限制研究精度。該研究建議未來的環境應該使用 PCG 和可控變異因素的組合。

該研究建議對現有方法進行分類以解決各種泛化問題,其動機是希望讓從業者能夠輕鬆地選擇給定具體問題的方法,並使研究人員能夠輕鬆了解使用該方法的前景以及可以做出新穎和有用貢獻的地方。該研究對許多尚未探索的方法進行進一步研究,包括快速在線適應、解決特定的 RL 泛化問題、新穎的架構、基於模型的 RL 和環境生成。

該研究批判性地討論了 RL 研究中泛化的現狀,推薦了未來的研究方向。特別指出,通過構建基準會促進離線 RL 泛化和獎勵函數進步,這兩者都是 RL 中重要的設置。此外,該研究指出了幾個值得探索的設置和評估指標:調查上下文效率和在持續的 RL 設置中的研究都是未來工作必不可少的領域。

推薦:倫敦大學學院、UC 伯克利學者聯手,撰文綜述深度強化學習泛化研究。論文 6:Learning to Compose Visual Relations

作者:Nan Liu, Shuang Li, Yilun Du, Joshua B. Tenenbaum, Antonio Torralba

論文地址:https://arxiv.org/abs/2111.09297

摘要:在一篇 NeurIPS 2021 Spotlight 論文中,來自 MIT 的研究者開發了一種可以理解場景中對象之間潛在關係的模型。該模型一次表徵一種個體關係,然後結合這些表徵來描述整個場景,使得模型能夠從文本描述中生成更準確的圖像。該研究提出使用 Energy-Based 模型將個體關係表徵和分解為非規一化密度。關係場景描述被表徵為關係中的獨立概率分布,每個個體關係指定一個單獨的圖像上的概率分布。這樣的組合方法可以建模多個關係之間的交互。

該研究表明所提框架能夠可靠地捕獲和生成帶有多個組合關係的圖像,並且能夠推斷潛在的關係場景描述,並且能夠穩健地理解語義上等效的關係場景描述。在泛化方面,該方法可以推廣到以前未見過的關係描述上,包括對象和描述來自訓練期間未見過的數據集。這種泛化對於通用人工智慧系統適應周圍世界的無限變化至關重要。此外,該系統還可以反向工作——給定一張圖像,它可以找到與場景中對象之間的關係相匹配的文本描述。該模型還可通過重新排列場景中的對象來編輯圖像,使它們與新的描述相匹配。

推薦:MIT 新研究讓 AI 像人一樣「看」世界。論文 7:PeCo: Perceptual Codebook for BERT Pre-training of Vision Transformers摘要:來自中國科學技術大學、微軟亞研等機構的研究者提出了學習感知 codebook( perceptual codebook ,PeCo),用於視覺 transformer 的 BERT 預訓練。目前,BEiT 成功地將 BERT 預訓練從 NLP 領域遷移到了視覺領域。BEiT 模型直接採用簡單的離散 VAE 作為視覺 tokenizer,但沒有考慮視覺 token 語義層面。相比之下,NLP 領域中的離散 token 是高度語義化的。這種差異促使研究者開始學習感知 codebook,他們發現了一個簡單而有效的方法,即在 dVAE 訓練期間強制執行感知相似性。該研究證明 PeCo 生成的視覺 token 能夠表現出更好的語義,幫助預訓練模型在各種下遊任務中實現較好的遷移性能。例如,該研究使用 ViT-B 主幹在 ImageNet-1K 上實現了 84.5% 的 Top-1 準確率,在相同的預訓練 epoch 下比 BEiT 高 1.3。此外,該方法還可以將 COCO val 上的目標檢測和分割任務性能分別提高 +1.3 box AP 和 +1.0 mask AP,並且將 ADE20k 上的語義分割任務提高 +1.0 mIoU。該研究提出,在不包含像素損失的情況下,對模型強制執行原始圖像和重構圖像之間的感知相似性。感知相似性不是基於像素之間的差異得到的,而是基於從預訓練深度神經網絡中提取的高級圖像特徵表示之間的差異而得到。該研究希望這種基於 feature-wise 的損失能夠更好地捕捉感知差異並提供對低級變化的不變性。下圖從圖像重構的角度展示了模型使用不同損失的比較,結果表明圖像在較低的 pixel-wise 損失下可能不會出現感知相似:

圖 1. 不同損失下的圖像重構比較。每個示例包含三個圖像,輸入(左)、使用 pixel-wise 損失重構圖像(中)、使用 pixel-wise 損失和 feature-wise 損失重構圖像(右)。與中間圖像相比,右側圖像在感知上與輸入更相似。推薦:視覺 Transformer BERT 預訓練新方式:中科大、MSRA 等提出 PeCo,優於 MAE、BEiT。ArXiv Weekly Radiostation機器之心聯合由楚航、羅若天發起的ArXiv Weekly Radiostation,在 7 Papers 的基礎上,精選本周更多重要論文,包括NLP、CV、ML領域各10篇精選,並提供音頻形式的論文摘要簡介,詳情如下:1. You Only Need One Model for Open-domain Question Answering.  (from Christopher D. Manning)2. Am I Me or You? State-of-the-Art Dialogue Models Cannot Maintain an Identity.  (from Jason Weston)3. Adapting Document-Grounded Dialog Systems to Spoken Conversations using Data Augmentation and a Noisy Channel Model.  (from Hermann Ney)4. Pay More Attention to History: A Context Modeling Strategy for Conversational Text-to-SQL.  (from Yan Zhang)5. Amortized Noisy Channel Neural Machine Translation.  (from Kyunghyun Cho)6. Event Linking: Grounding Event Mentions to Wikipedia.  (from Dan Roth)7. Design Challenges for a Multi-Perspective Search Engine.  (from Dan Roth)8. DocAMR: Multi-Sentence AMR Representation and Evaluation.  (from Salim Roukos)9. Learning to Transpile AMR into SPARQL.  (from Salim Roukos)10. Maximum Bayes Smatch Ensemble Distillation for AMR Parsing.  (from Salim Roukos)1. Label, Verify, Correct: A Simple Few Shot Object Detection Method.  (from Andrew Zisserman)2. Mining Minority-class Examples With Uncertainty Estimates.  (from Jian Pei, Qi Tian)3. More Control for Free! Image Synthesis with Semantic Diffusion Guidance.  (from Trevor Darrell)4. Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal Misinformation.  (from Trevor Darrell)5. Interpolated Joint Space Adversarial Training for Robust and Generalizable Defenses.  (from Rama Chellappa)6. IFR-Explore: Learning Inter-object Functional Relationships in 3D Indoor Scenes.  (from Qi Li, Leonidas Guibas)7. PartGlot: Learning Shape Part Segmentation from Language Reference Games.  (from Leonidas Guibas)8. Object Pursuit: Building a Space of Objects via Discriminative Weight Generation.  (from Leonidas Guibas)9. Efficient Geometry-aware 3D Generative Adversarial Networks.  (from Leonidas Guibas)10. TransZero++: Cross Attribute-Guided Transformer for Zero-Shot Learning.  (from Shuicheng Yan, Ling Shao)1. ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep Reinforcement Learning.  (from Michael I. Jordan)2. Learning soft interventions in complex equilibrium systems.  (from Bernhard Schölkopf)3. Graph Structure Learning with Variational Information Bottleneck.  (from Philip S. Yu)4. A Self-supervised Mixed-curvature Graph Neural Network.  (from Philip S. Yu)5. GEO-BLEU: Similarity Measure for Geospatial Sequences.  (from Toru Shimizu)6. Measuring Complexity of Learning Schemes Using Hessian-Schatten Total-Variation.  (from Michael Unser)7. Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer.  (from Leszek Rutkowski, Dacheng Tao)8. Deep Q-Network with Proximal Iteration.  (from Michael L. Littman)9. Characterizing and addressing the issue of oversmoothing in neural autoregressive sequence modeling.  (from Kyunghyun Cho)10. M3E2: Multi-gate Mixture-of-experts for Multi-treatment Effect Estimation.  (from Martin Ester)

© THE END 

轉載請聯繫本公眾號獲得授權

投稿或尋求報導:content@jiqizhixin.com

相關焦點

  • 事實證明:愛因斯坦是對的!廣義相對論通過了比率檢驗!
    近日,科學家通過一項研究再次證明愛因斯坦是對的!而這項研究齊愛恰恰是將兩種看似沒有太大關聯的事物連接在一起,它們就是圓周率π和廣義相對論。圓周率π在3700年前,巴比倫的數學家們估計了一個圓的周長與直徑的比值,而這個比值就是圓周率π的雛形。
  • 廣義相對論通過了π的檢驗:π=3.115
    他們在不起眼的黏土板上寫下了答案,這是π的第一個發現值:25/8或3.125。Haster在精度方面的近似值可能落後了幾千年,但這一事實與他的真實目標沒有多大關係:他用π測試愛因斯坦的廣義相對論,該理論將引力與時空動力學聯繫起來。引力波中暗含了大量關於物理定律的信息,引力波是當像黑洞這樣的大質量物體螺旋形地相互纏繞而形成的時空漣漪。
  • 愛因斯坦廣義相對論出色地通過了有史以來最嚴格的考驗
    廣義相對論首次把引力場解釋成時空的彎曲——大質量物體將宇宙結構扭曲,創造出一口彎曲的「井」,其他物體則會圍繞其運行。一百多年後,這一理論出色地通過了有史以來最嚴格的考驗,等效原理對三星系統的預測與觀測到的脈衝星周期吻合。
  • OpenAI允許開發者量身定製GPT-3,準確率可提升一倍以上
    通過定製 GPT-3,開發者可以使用幾乎任何現有數據集,或者根據用戶反饋遞增地添加數據。數據顯示,使用定製後的 GPT-3 模型,有用戶的程序輸出正確內容的概率可以由 83% 提升到 95%,而有的用戶通過每周給產品添加新的數據,減少了 50% 的錯誤輸出。
  • 廣義相對論通過最嚴苛的測試,誤差不超過百萬分之三!
    根據發表在《自然》(Nature)雜誌上的一項研究,一個由天文學家組成的國際研究小組對阿爾伯特愛因斯坦著名的廣義相對論(GR)進行了一項新的測試,結果發現,即使在極端的引力環境下,廣義相對論也同樣有效。
  • OpenAI發布GPT3 api調用接口!可處理幾乎所有英文問題
    博客連結https://slatestarcodex.com/2020/06/10/the-obligatory-gpt-3-post/這麼好的東西當然是大家一起用才好。Open AI 官方剛剛宣布,發布針對GPT-3的API接口,讓開發人員可以在日常英文工作中直接調用GPT-3,上手友好度+1。官網指路:https://openai.com/blog/openai-api/基本上,該項工作是建立在理解英語單詞的基礎上。
  • OpenAI的GPT-2:用Python構建世界上最先進的文本生成器
    utm_source=blog&utm_medium=openai-gpt2-text-generator-pythonTransformers介紹:https://www.analyticsvidhya.com/blog/2019/06/understanding-transformers-nlp-state-of-the-art-models/?
  • 我用GPT-2創造了3000個寵物小精靈,完美復刻《神奇寶貝》!
    GPT-2,與GPT-3師出同門,都是OpenAI研發的自然語言處理模型,兩個模型最大的不同是它的參數量,GPT-2僅為15億。但這並不影響它的應用範圍。與GPT-3類似,GPT-2也可以用來寫故事、畫圖表,或者玩西洋棋。
  • GPT-2大戰GPT-3:OpenAI內部的一場終極對決
    語言任務,如閱讀、摘要和翻譯,可以通過 GPT-2 學習原始文本,而不需要使用特定領域的訓練數據。當處理自然語言生成時,必須考慮到某些局限性。它是一個非常活躍的研究領域,但它還處於起步階段,還不能克服它的局限性。限制條件包括重複的文本,對技術性和專業性很強的主題的誤解,以及對上下文短語的誤解。
  • 愛因斯坦系列之七:戰爭下的廣義相對論
    在德國科學家充滿「愛國」熱情的歇斯底裡圍剿之下,在人類第一次全球大規模屠殺同類的腥風血雨之中,愛因斯坦在柏林完成了廣義相對論,並於1915年11月4、11、18和25日,分四次在普魯士科學院宣讀結果。因此,按智慧財產權分,廣義相對論確實要算職務發明。德國人宣布愛因斯坦是德國人,從智慧財產權來看,不能說完全沒道理。19
  • 廣義相對論簡史
    1515歲的愛因斯坦已經掌握了微積分。愛因斯坦開始思考光的本性。同年,科學家懷疑物理學是否已經走到了盡頭。愛因斯坦的老師們不願意教他關於麥克斯韋的理論,於是他開始翹課自學,閱讀當時最偉大科學家的論文。愛因斯坦的奇蹟年。他發表了四篇開創性的論文,其中包括了狹義相對論。狹義相對論重新塑造了我們對時空的理解。
  • GPT家族又壯大了!OpenAI首次推出數學定理推理模型GPT-f,23個推導結果被專業資料庫收錄
    前不久,就有人利用GPT-3冒充專業人士在Reddit上回帖,還多次被頂上「高贊」,直到一周後才有網友發現,原來這些內容並非人類撰寫。GPT家族的創始公司OpenAI認為,Transformer架構已經在自然語言處理、計算機視覺和語音識別等方面取得了長足的進步,相信它在相對未開發的推理任務領域中也具有足夠的潛力。而他們在GPT-f的最新研究論文中已經證明了這一點。
  • 普朗克研究所:伽瑪射線爆發數據也證實了愛因斯坦的廣義相對論
    第二臺望遠鏡距離第一臺望遠鏡85米,於2009年7月開始採集數據。它們共同組成神奇伽馬射線望遠鏡系統。慕尼黑馬克斯·普朗克物理研究所和神奇伽馬射線望遠鏡的科學家們,通過對伽瑪射線爆發數據的進一步分析,可以確認光速在真空中是恆定的,而不依賴於能量。因此,與許多其他測試一樣,伽瑪射線爆發數據也證實了愛因斯坦的廣義相對論。
  • OpenAI重磅開源,全面擁抱GPT-3
    還記得去年5月,OpenAI提出了包含1750億參數的GPT究極進化版模型GPT-3嗎?在長達72頁的論文中,作者證明了對於所有任務,GPT-3無需進行任何梯度更新或微調,僅通過與模型的文本交互指定任務和少量示例(few-shot)即可獲得很好的效果。
  • 科普:廣義相對論中愛因斯坦場方程的導出
    廣義相對論是愛因斯坦最偉大的成就,當然也是近代大尺度物理學/宇宙學最偉大的成就。而愛因斯坦場方程則是廣義相對論的最凝練的核心數學表達式,愛因斯坦場方程對很對人來說是非常神聖和神秘的。今天,我們準備寫一篇簡單的科普文章介紹一下愛因斯坦場方程是如何推導出來的。
  • 新理論摒棄了愛因斯坦的廣義相對論
    Larry Silverberg和Jeffrey Eischen的理論甚至可能會取代愛因斯坦的廣義相對論,後者已經被用來解釋物理現象超過一個世紀,最突出的是空間和時間的扭曲。該理論基於這樣一個基本理念,即能量在空間和時間中不斷流動,永無止境,永不交叉。
  • 愛因斯坦的廣義相對論是什麼?
    廣義相對論是現代物理學的主要組成部分。它基於空間的「彎曲」能力來解釋引力,或者更準確地說,它將引力與時空的幾何變化聯繫起來了。1915年,阿爾伯特·愛因斯坦創立了廣義相對論(GRT),即這個「特殊」理論誕生十年之後,應用光速,並假設物理定律在任何給定的參照系中保持不變。
  • 廣義相對論很難?幾分鐘帶你簡單入門!
    阿爾伯特·愛因斯坦 來源:wikipedia之後愛因斯坦花費了十年時間嘗試把狹義相對論推廣到加速系,最終他發表了廣義相對論。質量使時空發生彎曲 來源:wikipedia當愛因斯坦得到了廣義性對論的公式時,他意識到質量巨大的物體可以令時空發生彎曲。可以想像在蹦床的中心放置一個巨大的物體。
  • 從牛頓到愛因斯坦:廣義相對論的起源
    導語:2015年11月是愛因斯坦提出廣義相對論的百年紀念。本文介紹了廣義相對論的起源,從牛頓物理學與電磁學的矛盾到洛倫茲變換,從只適用於慣性系的狹義相對論到可適用於非慣性系的廣義相對論。
  • 如果愛因斯坦沒有為統一場論浪費 30 年,21 世紀物理會成什麼樣
    廣義相對論引發了早已統一場論的研究熱潮。因為在廣義相對論中引力場被描述為時空的彎曲,再加上當時知道的基本相互作用只有引力作用和電磁作用。所以無數科學家想成為繼麥克斯韋之後,成為下一個完成大一統的人。比如外爾從愛因斯坦廣義相對論的對稱性得到啟發,意識到了電磁場的麥克斯韋方程也應當像愛因斯坦場方程一樣,對應於一種基本的對稱性,外爾建立了一種叫做「標度不變性」的對稱變換,以統一引力和電磁力為目標,從對稱觀點出發,立足於規範不變。雖然並沒有完成統一引力和電磁作用的宏大目標,但是催生了規範場論。