CVPR 2024錄用結果出爐!2719篇論文被接收,錄用率23.6%
新智元報道
編輯:桃子
【新智元導讀】一年一度的CVPR 2024錄用結果出爐了。今年,共有2719篇論文被接收,錄用率爲23.6%。
CVPR 2024最終錄用結果公佈了!
剛剛,CVPR官方發文稱,今年共提交了11532份有效論文,2719篇論文被接收,錄用率爲23.6%。
與去年相比,共有9155篇論文提交,2359篇論文接收,錄用率降低2.2%。
官方給的回覆是,數據每年都會有波動的。
據統計,CVPR的投稿量在2010-2016的7年間僅從1724份增加到2145份,在2017年後則迅速飆升,進入快速增長期。
2019年首次突破5000,至2022年投稿數已達到8161份,去年一年共9155份論文提交,創下了最高提交記錄。
可見,今年論文投稿數也是創下最新記錄。
CVPR、ICCV、ECCV被譽爲計算機視覺和模式識別領域最頂級的學術會議。與另兩個頂會不同,CVPR每年舉辦一次。
CVPR 2024將於6月17日-21日在美國西雅圖召開。
CVPR錄用出爐
現在,錄用的童鞋們可以登錄OpenReview查看自己的論文將以poster或者talk形式發表。
2719篇被接收論文中,具體錄用情況:
- Poster論文有2305篇,佔比84.8%。CVPR組委會將以Poster形式展示論文
- Poster(Highlight)被所在地區主席認爲特別有趣或具有創新性的論文,今年共有324篇(11.9%)。
- Oral論文共有90篇,佔比3.3%。錄用者可以15分鐘介紹自己的論文。
另外,今年共有24位高級區域主席、477位區域主席,以及9,872位審稿人。
接下來,一起看看都有哪些論文被錄用。
網友曬出成績單
提升了3D網格的生成質量的架構MeshGPT被今年CVPR所錄用。
受語言生成模型Transformer的啓發,研究者提出了MeshGPT,採用了一種直接序列生成方法,將三角形網格合成爲三角形序列。
來自Allen AI機構的研究人員發起的大模型、多模態和MOE模型開放式研究計劃——LL3M被CVPR接收/
這項研究的目標是:- 在JAX/Flax中構建開源代碼庫,支持LLM、LMM和MOE模型的大規模訓練。- 記錄和分享實施和訓練模型的歷程和訣竅。
- 提出一些新的令人興奮的東西——以可學習的模型「湯」初始化的多模態Branch-Train-MiX版本。
來自多倫多大學等機構的最新論文被接收爲Oral。
本文提出了一個通用的矢量化地圖不確定性表述,並擴展了多個最先進的在線地圖估計方法,使其額外輸出不確定性估計,而不會降低純建圖性能。
論文地址:https://arxiv.org/pdf/2403.16439.pdf
香港大學團隊提出的Total-Decom被CVPR 2024錄用。最新算法可以分解重建的網格,爲單個物體和背景生成高質量的網格,只需最少的人工標註。
你的論文被錄用了嗎?
參考資料:
https://x.com/CVPR/status/1775979633717952965