天天看點

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

作者:新智元

編輯:桃子 好困

【新智元導讀】兩年一屆的ECCV錄用結果終于揭曉了!剛剛,ECCV組委會公布了錄用論文名單,共有2395篇論文被錄用。

ECCV 2024錄用結果終于公布了!

一大早,ECC組委會放出了所有被接受論文的ID名單,共錄用了2395篇論文。

有網友估算了下,今年論文總送出量大約有12600篇,錄用率是18%。簡直不敢相信今年ECCV的錄用率如此之低,CVPR 2024錄用率還是23.6%。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單
ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

據統計,ECCV 2022共有5803篇論文投稿,接收率為28%。

再往前倒推,2020年ECCV共收到有效投稿5025篇,接收論文1361篇,接收率為27%。2018年共有2439篇投稿,接收776篇,錄用率為31.8%。

ECCV表示,在接下來的幾天裡,還将公布最終的評審意見和元評審意見。還有論文Poster/Oral結果也将在随後揭曉。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

今年,是ECCV召開的第18屆頂會,将于9月29日-10月4日在意大利米蘭正式開幕。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

ECCV(歐洲計算機視覺國際會議)創辦于1887年,每兩年舉辦一次。

它與CVPR(每年一屆)ICCV(每兩年一屆)并稱計算機視覺方向的三大頂級會議。

收到錄用結果的小夥伴們,已經開始分享自己的成果了。

網友曬出成績單

一位小夥伴Jeff Li同一天雙喜臨門,不僅收到了入職英偉達的offer,同時2篇論文被ECCV接收。

斯坦福計算機博士生,清華校友Congyue Deng實作了在噪聲和特征不準确的情況下,獲得更好的圖像對應關系。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

為此,作者提出了Laplacian特征函數,可以将圖像對應問題性像素空間提升到函數空間,并直接優化全局一緻的映射。

實驗結果證明,新技術不僅能産生更平滑,而且更準确的對應關系,還能更好地反映作者所研究的大規模視覺模型中嵌入的知識。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/abs/2403.12038

佐治亞理工學院Bolin Lai博士聯手Meta、UIUC團隊發表論文,提出了以自我為中心的動作架構——LEGO,由多模态模型和擴散模型組成,通過指令微調豐富動作提示。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

最新架構的設計目标是,通過輸入使用者提示和以自我視角為中心的圖像,基于使用者的「上下文」(即動作幀)描述動作。然後使用者再去學習,如何去無縫完成自己的工作。

論文中提出新模型能夠按照指令生成一緻的動作,并在動作過程中發生視點變化時,依舊保持一緻性。此外,LEGO模型還可以在相同的上下文中,推廣到各種看不見的動作。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/pdf/2312.03849

高斯潑濺

來自UT Austin的博士生Zhiwen Fan,有3篇論文都被ECCV 2024接收了。

這幾篇論文探索了許多新的領域:從稀疏視圖進行3D重建、高品質3D多任務學習,以及使用全景格式的大規模3D生成。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

在DreamScene360中,作者提出了一種3D全景的場景級别生成流程,該流程利用GPT-4V結合2D擴散模型和全景高斯潑濺技術,從任何具體程度的文本提示中生成具有完整360度覆寫的沉浸式高品質場景,實作了卓越的3D場景生成品質和實時的渲染速度。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

項目位址:https://dreamscene360.github.io/

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

在FSGS中,作者提出了一種基于3D高斯潑濺的稀疏視角合成架構,該架構能夠在僅有三張訓練視圖的情況下實作實時和高品質的視角合成。

作者通過精心設計的高斯Unpooling過程來處理稀疏的COLMAP點雲,并在最具代表性的位置周圍疊代分布新的高斯,随後在空白區域填充局部細節。

此外,作者還在高斯優化過程中內建了一個大規模預訓練的單目深度估計器,利用線上增強視圖引導幾何優化走向最佳解決方案。

從有限輸入視點觀察到的稀疏點開始,FSGS可以準确地擴充到未見過的區域,全面覆寫場景并提升新視角的渲染品質。

總體而言,FSGS在包括LLFF、Mip-NeRF360和Blender在内的各種資料集上,在圖像品質達到了SOTA的性能,渲染速度比基于NeRF的方法快2,000倍以上。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

項目位址:https://zehaozhu.github.io/FSGS/

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

在VersatileGaussian中,作者提出将Multi-task Learning引入Gaussian Splatting,來提升全任務的重建品質,尤其是RGB圖像渲染品質得到明顯提升。

本文提出特征圖Rasterizer,以及任務間的相關注意子產品,能通過一種軟權重機制傳播任務特定知識,促進跨任務相關性學習,進而取得明顯優越的性能。

在ScanNet和Replica資料集上的實驗表明VersatileGaussian取得了明顯優越的渲染品質和速度。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

項目位址:https://shadowiterator.github.io/VersatileGaussian-Homepage/

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

圖像編輯

UCSC的助理教授Xin Eric Wang則帶領團隊提出了一種圖像個性化編輯SwapAnything架構。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

基于此,你便可以看到肌肉發達的LeCun大牛拍着小貓咪;烏龜的龜殼,也可以是美國隊長盔甲的印記。

正如作者所述,SwapAnything可在個性化可視化編輯中實作任意對象「交換」,包括單對象、部分對象、多對象、跨域、基于文本的「交換」等。

它有三個獨特的優勢:精準控制任意對象和部件,而不是主體;原封不動地儲存上下文像素;個性化概念與形象的無縫改編。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/pdf/2404.05717

ChatGPT中的DALL·E卻無法利用參考概念,進行個性化視覺編輯。

在它支援的基于文本的編輯任務上,SwapAnything也能實作更穩健的性能。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

圖像合并

谷歌研究科學家、DreamBooth作者Nataniel Ruiz和團隊提出的ZipLoRA算法,正式被錄用。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

在AI社群中,合并LoRA一直是一個熱門話題,但調優過程可能非常繁瑣。

谷歌和UIUC提出的ZipLoRA算法,可以讓開發者輕松地将任何主體LoRA與任何風格LoRA結合起來。

這一方法的核心思想很簡單:通過反向傳播找到一個合并點,在這一點上兩個LoRA都能很好地發揮作用,同時還能限制它們之間的信号幹擾。

如下圖所示,ZipLoRA保留了令人印象深刻的細節主題,非常逼真地再現了使用者給出的風格。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/pdf/2311.13600

與社群其他類似方法相較之下,比如direct arithmetic merge、StyleDrop+DreamBooth等,ZipLoRA更好地實作了主題保真度,以及風格指令遵循。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

圖像生成

英偉達進階研究科學家Ali Hatamizadeh剛剛宣布,團隊提出的圖像生成ViT算法DiffiT被ECCV 2024接收。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

在這篇論文中,作者提出了擴散視覺Transformer(DiffiT)用于圖像生成。

具體來說,它們提出了一種對去噪過程進行精細控制的方法,并引入了時間依賴多頭自注意力(TMSA)機制。

DiffiT在生成高保真度圖像方面顯示出驚人的效果,同時有着更好的參數效率。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/pdf/2312.02139

字型文本生成

微軟進階研究科學家Yuhui Yuan發文稱,FontStudio模型已被ECCV 2024錄用。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

正如模型名字所示,這是用于生成連貫一緻字型效果的形狀自适應擴散模型。

為了訓出這個模型,研究人員精心策劃了一個高品質形狀自适應圖像-文本資料集,并将分割掩碼作為視覺輸入條件,以引導不規則畫布内圖像生成的功能。

其次,為了保持多個字母之間的一緻性,他們還提出了一種免訓練的形狀自适應效果轉移方法,用于将紋理從生成的參考字母轉移到其他字母。

實驗結果顯示,與無可匹敵的Adobe Firefly相比,使用者在微軟提出的FontStudio上的偏好更明顯。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/pdf/2406.08392

另外一篇微軟聯手清華北大、澳洲國立大學提出的文本編碼器Glyph-ByT5也被錄用。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

為了實作準确的文本渲染,研究人員确定了對文本編碼器的兩個關鍵要求:字元識别和與字形對齊。

他們提出了一種将Glyph-ByT5與SDXL有效內建的方法,進而建立了用于設計圖像生成的Glyph-SDXL模型。

這顯著提高了文本渲染的準确性,在作者設計的圖像基準測試中,模型準确率從不到20%提升到了近90%。

值得注意的是,Glyph-SDXL新獲得了文本段落渲染的能力,可以為數十到數百個字元實作高拼寫準确率,并且具有自動多行布局功能。

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

論文位址:https://arxiv.org/abs/2403.09622

你的論文被錄用了嗎?

最後借用網友一句勉勵的話,「不論你的論文是否被ECCV錄用,請記住你的價值和研究意義不僅僅局限于一個會議。每一次被拒都是走向成長的一步。繼續前進,相信你的工作」!

ECCV 2024揭榜,錄用率或創新低!2395篇論文中選,網友曬出成績單

參考資料:

https://x.com/eccvconf/status/1807781867250155582

https://x.com/WayneINR/status/1807798310071377945

https://x.com/CongyueD/status/1807804473311637875

https://x.com/bryanislucky/status/1807918906151194726

https://x.com/natanielruizg/status/1807838353129177293

https://www.reddit.com/r/MachineLearning/comments/1dsutwd/discussion_eccv_decisions_out_borderline_paper/

繼續閱讀