免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
十年前,AlexNet就預定了今天的NeurIPS 2022時間檢驗獎

機器之心報道

機器之心編輯部

距離會議召開還有一周的時間,NeurIPS 2022 官方公布了各類獎項的獲獎論文。

作為當前全球最負盛名的 AI 學術(shù)會議之一,NeurIPS 是每年學界的重要事件,通常在每年 12 月舉辦。大會討論的內(nèi)容包含深度學習、計算機視覺、大規(guī)模機器學習、學習理論、優(yōu)化、稀疏理論等眾多細分領(lǐng)域。

今年 NeurIPS 已是第 36 屆,將于 11 月 28 日至 12 月 9 日舉行,為期兩周。第一周將在美國新奧爾良 Ernest N. Morial 會議中心舉行現(xiàn)場會議,第二周改為線上會議。今年 NeurIPS 官方收到了 10411 篇論文投稿,其中 2672 篇獲接收,接收率為 25.6%。


今日,大會公布了各類獎項,包括 Main Track 杰出論文獎、數(shù)據(jù)集和基準 Track 杰出論文獎以及時間檢驗獎。其中,Main Track 杰出論文獎共授予 13 篇論文,數(shù)據(jù)集和基準 Track 杰出論文獎授予了 2 篇論文,時間檢驗獎授予了大名鼎鼎的 AlexNet 論文。

Main Track 杰出論文

論文 1:Is Out-of-Distribution Detection Learnable?

  • 機構(gòu):悉尼科技大學、威斯康星大學麥迪遜分校等
  • 作者:Zhen Fang、Yixuan Li、Jie Lu、 Jiahua Dong、Bo Han、Feng Liu
  • 論文地址:https://openreview.net/forum?id=sde_7ZzGXOE

獲獎理由:這項工作提供了分布外 (OOD) 檢測的理論研究,重點關(guān)注此類模型可學習的條件。該工作使用 PAC(probably approximately correct)學習理論表明 OOD 檢測模型僅在數(shù)據(jù)分布空間和預測模型空間的某些條件下是 PAC 可學習的。該研究還提供了 3 個具體的不可能定理,可以用來確定 OOD 檢測在實際環(huán)境中的可行性,為現(xiàn)有的 OOD 檢測方法提供了理論基礎。這項工作還提出了新的理論問題,例如關(guān)于 near-OOD 檢測的可學習性。該研究將在 OOD 檢測這個重要的研究領(lǐng)域產(chǎn)生廣泛的理論和實踐影響。

論文 2:Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding

  • 機構(gòu):谷歌研究院
  • 作者:Chitwan Saharia、William Chan、Saurabh Saxena等
  • 論文地址:https://openreview.net/forum?id=08Yk-n5l2Al

獲獎理由:基于擴散過程的高質(zhì)量圖像生成模型已在機器學習領(lǐng)域產(chǎn)生巨大的影響。該研究代表了此類模型的 SOTA 水平之一,并創(chuàng)新性地展示了獨立訓練的大型語言模型與大規(guī)模圖像解碼器的有效結(jié)合。這種實用的解耦很可能成為大規(guī)模文本到圖像模型的主導范例。該研究的成果令人印象深刻。

論文 3:Elucidating the Design Space of Diffusion-Based Generative Models

  • 機構(gòu):NVIDIA
  • 作者:Tero Karras、Miika Aittala、Timo Aila、Samuli Laine
  • 論文地址:https://openreview.net/forum?id=k7FuTOWMOc7

獲獎理由:這篇論文通過調(diào)查思考,將先前的研究組織成一個連貫的共同框架,以促成新的建模改進,這是該研究的研究方法。該研究的重點是包含某種形式擴散過程的圖像生成模型,盡管訓練此類模型存在困難,但這種模型最近變得非常流行。這篇論文對基于擴散過程的模型的理解和實現(xiàn)做出了重要貢獻。

論文 4:ProcTHOR: Large-Scale Embodied AI Using Procedural Generation

  • 機構(gòu):艾倫人工智能研究院、華盛頓大學
  • 作者:Matt Deitke、Eli VanderBilt、Alvaro Herrasti等
  • 論文地址:https://openreview.net/forum?id=4-bV1bi74M

獲獎理由:這項工作提出了一種新框架,用于在大量數(shù)據(jù)上訓練具體的 AI 智能體,為這些智能體創(chuàng)造從擴展中受益的潛力,類似于語言和圖像生成模型。該框架的核心是一個引擎,用于構(gòu)建程序生成的、支持物理的環(huán)境,智能體可以與環(huán)境交互。該引擎與大量數(shù)據(jù)和環(huán)境控制相結(jié)合,可以生成大量不同的環(huán)境組合。研究者證明該框架可用于為多個具體 AI 任務訓練 SOTA 模型。此外,該研究已將框架和代碼開源。

論文 5:Using natural language and program abstractions to instill human inductive biases in machines

  • 機構(gòu):普林斯頓大學神經(jīng)科學研究所、DeepMind 等
  • 作者:Sreejan Kumar、Carlos G. Correa、Ishita Dasgupta等
  • 論文地址:https://openreview.net/forum?id=buXZ7nIqiwE

獲獎理由:該研究表明程序抽象(program abstraction)和自然語言的共同訓練可以將人類偏見納入機器的學習過程。研究者提出了一種結(jié)合人類偏見的 clean 方法,該方法對程序抽象也很穩(wěn)健。

論文 6:A Neural Corpus Indexer for Document Retrieval

  • 機構(gòu):微軟、清華大學等
  • 作者:Yujing Wang、Yingyan Hou、Haonan Wang等
  • 論文地址:https://openreview.net/forum?id=fSfcEYQP_qc

獲獎理由:這項工作提出了一種神經(jīng)索引器,它將查詢作為輸入,并通過解碼器結(jié)合集束搜索(beam search)輸出與索引中相關(guān)文檔對應的 ID 列表。這種新方法加入了一個小型但不斷增長的研究系列,這種新范例允許使用標準深度學習算法和框架對目標應用程序的索引器進行基于梯度的優(yōu)化。該研究提出的方法引入了架構(gòu)和訓練選擇,與之前的工作相比,這些選擇帶來了顯著改進。該研究闡明了神經(jīng)索引器的廣泛應用前景。

論文 7:High-dimensional limit theorems for SGD: Effective dynamics and critical scaling

  • 作者:Gerard Ben Arous、Reza Gheissari、Aukosh Jagannath
  • 論文地址:https://arxiv.org/pdf/2206.04030.pdf

獲獎理由:本文研究了對 SGD 的擴展極限。它展示了如果 step 很大,SGD 可以有多復雜。該研究還描述了 SDE 的性質(zhì),并將其與 step 較小時的 ODE 進行比較,以深入了解非凸優(yōu)化情況。

論文 8:Gradient Descent: The Ultimate Optimizer

  • 機構(gòu):MIT CSAIL、Meta
  • 作者:Kartik Chandra、Audrey Xie、Jonathan Ragan-Kelley等
  • 論文地址:https://openreview.net/pdf?id=-Qp-3L-5ZdI

獲獎理由:本文通過開發(fā)一種優(yōu)化超參數(shù)以及遞歸優(yōu)化 hyper - 超參數(shù)的方法,降低了梯度下降中對超參數(shù)的敏感性。由于梯度無法不在,因此這項工作具有巨大的潛在影響。

論文 9:Riemannian Score-Based Generative Modelling

  • 機構(gòu):巴黎文理研究大學、牛津大學
  • 作者:Valentin De Bortoli、 Emile Mathieu、Michael John Hutchinson 等
  • 論文地址:https://arxiv.org/pdf/2202.02763.pdf

獲獎理由:本文通過識別影響生成模型成功的主要因素,將基于分數(shù)的生成模型 (SGM) 從歐氏空間泛化到緊湊的黎曼流形。這種方法是一種新穎的、技術(shù)上有用的貢獻。

論文 10:Gradient Estimation with Discrete Stein Operators

  • 機構(gòu):斯坦福大學、清華大學、 DeepMind 等
  • 作者:Jiaxin Shi、Yuhao Zhou、Jessica Hwang 等
  • 論文地址:https://openreview.net/pdf?id=I1mkUkaguP

獲獎理由:本文探討了分布呈離散時的梯度估計問題。大多數(shù)常見梯度估計器都存在過度方差,因此為了提高梯度估計的質(zhì)量,研究者引入了一種基于離散分布 Stein 算子的方差縮減技術(shù)。盡管 Stein 算子很經(jīng)典,但這項工作為梯度估計提供了一種很好的解釋,并在實驗中顯示了實際改進。

論文 11:An empirical analysis of compute-optimal large language model training

  • 機構(gòu):DeepMind
  • 作者:Jordan Hoffmann、Sebastian Borgeaud、Arthur Mensch 等
  • 論文地址:https://www.deepmind.com/publications/an-empirical-analysis-of-compute-optimal-large-language-model-training

獲獎理由:該研究提出一個問題:給定固定的 FLOPs 預算,模型的大小和訓練 token 數(shù)應該如何權(quán)衡?該研究對這種權(quán)衡進行了建模,并基于該模型進行預測,同時訓練與該預測相對應的模型。由此產(chǎn)生的模型明顯更小,但包含了更多的 token,性能優(yōu)于其對應模型,同時由于模型尺寸更小,在下游任務中也更實用??偠灾?,這項工作為社區(qū)在語言模型背景下思考規(guī)模的方式提供了新的思路,這也可能對 AI 的其他領(lǐng)域有用。

論文 12:Beyond neural scaling laws: beating power law scaling via data pruning

  • 機構(gòu):斯坦福大學、圖賓根大學、Meta AI
  • 作者:Ben Sorscher、Robert Geirhos、Shashank Shekhar 等
  • 論文地址:https://openreview.net/pdf?id=UmvSlP-PyV

獲獎理由:這項工作重新關(guān)注選擇高質(zhì)量數(shù)據(jù)作為實現(xiàn)最佳擴展的方法的重要性。研究者精心設計了一項分析調(diào)查,開發(fā)了一個數(shù)據(jù)質(zhì)量影響的理論模型,它與 ImageNet 上一系列數(shù)據(jù)過濾指標的實證實例化保持一致。這項工作富有洞察力又非常及時,將塑造關(guān)于機器學習中多個維度權(quán)衡取舍的辯論。

論文 13:On-Demand Sampling: Learning Optimally from Multiple Distributions

  • 機構(gòu):Berkeley
  • 作者:Nika Haghtalab、Michael Jordan、Eric Zhao
  • 論文地址:https://openreview.net/pdf?id=FR289LMkmxZ

獲獎理由:本文研究了使用隨機零和游戲博弈的多重分布式學習。對于具有接近最優(yōu)結(jié)果的一類問題,該技術(shù)得出了非常有趣的理論結(jié)果。

數(shù)據(jù)集和基準 Track 杰出論文

該獎項旨在表彰面向數(shù)據(jù)工作的研究,今年有兩篇論文獲得了該獎項,分別由 LAION、英偉達等機構(gòu)研究者摘得。

論文 1:LAION-5B: An open large-scale dataset for training next generation image-text models

  • 機構(gòu):LAION 、UC 伯克利等
  • 作者:Christoph Schuhmann 、 Romain Beaumont 、 Richard Vencu 等
  • 論文地址:https://openreview.net/pdf?id=M3Y74vmsMcY

獲獎理由:對諸如 CLIP、DALL-E 等語言 - 視覺模型的訓練需要數(shù)十億對圖像 - 文本數(shù)據(jù)集。到目前為止,還沒有這樣規(guī)模的數(shù)據(jù)集向研究團體公開提供。這項工作提出了 LAION-5B,一個由 58.5 億 CLIP-filtered 的圖像 - 文本對組成的數(shù)據(jù)集,旨在對大規(guī)模多模態(tài)模型進行研究。此外,該研究使用這些數(shù)據(jù)成功復制了 CLIP、GLIDE 和 Stable Diffusion 等基礎模型,提供了幾個最近鄰指數(shù),以及改進的網(wǎng)絡界面等。

論文 2:MineDojo: Building Open-Ended Embodied Agents with Internet-Scale Knowledge

  • 機構(gòu):英偉達、加州理工學院、斯坦福大學等
  • 作者:Linxi Fan、Guanzhi Wang、Yunfan Jiang 等
  • 論文地址:https://arxiv.org/pdf/2206.08853.pdf

獲獎理由:自主智能體在雅達利游戲和圍棋等專業(yè)領(lǐng)域取得了巨大進步,但通常無法泛化到更廣泛的任務。本文引入 MineDojo,這是一個建立在 Minecraft 游戲上的新框架,在其仿真套件里面,包含數(shù)千種不同的開放式任務和一個具有互聯(lián)網(wǎng)規(guī)模的知識庫,包含 Minecraft 視頻、教程、wiki 頁面和論壇討論。此外,MineDojo 還提出了一種新穎的智能體學習算法,能夠解決以自由形式語言指定的各種開放式任務。該研究同時還提供了一個開源仿真套件、知識庫、算法實現(xiàn)和預訓練模型,以促進對通用智能體的研究。

時間檢驗獎

NeurIPS 2022 時間檢驗獎頒給了論文《ImageNet Classification with Deep Convolutional Neural Networks》,又名 AlexNet 論文。
 
這篇論文發(fā)表于 2012 年,論文作者是當時來自多倫多大學的 Alex Krizhevsky 、 Ilya Sutskever 以及 Geoffrey E. Hinton 。


論文地址:https://papers.nips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf

獲獎理由:2012 年,該研究作為第一個接受 ImageNet 挑戰(zhàn)訓練的 CNN,遠遠超過了當時最先進的技術(shù),從那時起,它對機器學習社區(qū)產(chǎn)生了巨大的影響。

AlexNet 之后的 ImageNet 冠軍全都采用了卷積神經(jīng)網(wǎng)絡結(jié)構(gòu),使得 CNN 成為圖像分類的核心模型,從而開啟了深度學習新一波浪潮。

Alex Krizhevsky 為該論文的一作,是 Hinton 的博士生,此外他還是 CIFAR-10 和 CIFAR-100 數(shù)據(jù)集的創(chuàng)建者。他的許多關(guān)于機器學習和計算機視覺的論文經(jīng)常被其他研究人員引用。


Ilya Sutskever 為該論文的作者之一,也是 Hinton 的博士生,為 OpenAI 聯(lián)合創(chuàng)始人兼首席科學家。此前,他還在斯坦福大學 Andrew Ng 的團隊做博士后。


最后一位作者為深度學習三巨頭之一的 Geoffrey E. Hinton ,以其在類神經(jīng)網(wǎng)路方面的貢獻聞名。Hinton 是反向傳播算法和對比散度算法的發(fā)明人之一,也是深度學習的積極推動者,被譽為深度學習之父,于 2018 年的被授予圖靈獎。


參考鏈接:https://blog.neurips.cc/2022/11/21/announcing-the-neurips-2022-awards/

亞馬遜云科技「深度學習實戰(zhàn)訓練營」

對于剛?cè)胄械拈_發(fā)者來說,上手深度學習并不總是一件容易的事。

想要短期提升上手能力?機器之心聯(lián)合亞馬遜云科技開設《深度學習實戰(zhàn)訓練營》線上實戰(zhàn)營。實戰(zhàn)營為期 3 周,共 6 次課程,還有 6 次課后作業(yè),實戰(zhàn)營期間講師將在答疑群中隨時解決同學的疑問,全程免費,歡迎希望上手實操深度學習的同學加入學習。

11月22日開營,請參與的同學務必掃碼加入課后答疑群,亞馬遜云科技賬號注冊、學習疑問、作業(yè)提交等詳情均在答疑群中為大家說明。

最后附上實戰(zhàn)營日程安排:

本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
火爆的圖機器學習,2020年將有哪些研究趨勢?
論文無法復現(xiàn)「真公開處刑」,PapersWithCode上線「論文復現(xiàn)報告」
【NeurIPS 2019】17篇論文,詳解圖的機器學習趨勢
錄用率26.1%!NeurIPS 2023論文放榜,馬毅田淵棟團隊研究被接收
推薦|沒看過這5個模型,不要說你玩過CNN!
Transformer拿下CV頂會大獎,微軟亞研獲ICCV 2021最佳論文
更多類似文章 >>
生活服務
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服