導讀 本文将分享大語言模型在推薦系統中的應用現狀及未來趨勢,将梳理學術界最近的相關工作和一些發展方向。本次分享的大部分内容是基于 WWW'24 上的同名 tutorial,感興趣的同學可以查閱該 tutorial 的完整内容。
本次分享主要内容包括以下六大部分:
1. 應用大模型做推薦的背景知識
2. 大模型推薦系統的進展現狀,包括 LLM4Rec 和可信的 LLM4Rec
3. 大模型推薦系統相關的 Open Problems
4. 大模型推薦系統未來可能的研究方向
5. Thanks
6. 問答環節
分享嘉賓|王文傑博士 新加坡國立大學 研究員
編輯整理|吳葉國
内容校對|李瑤
出品社群|DataFun
01
Introduction
1. Background of RecSys
圖示是一個推薦系統簡化後的工作流程,反映了推薦系統如何與使用者進行互動。
推薦系統通過多階段或複雜的過濾體系,基于使用者過去的互動曆史、互動和上下文資訊,為使用者生成個性化的推薦清單。當使用者與推薦清單進行互動時,他們會受到外部資訊和周圍環境的影響,對推薦清單做出一定的互動,比如點選、購買或收藏等。這些使用者回報會被收集起來,用于下一步推薦系統的訓練,形成一個回報循環。
在以往的工作中,推薦系統生成推薦清單的過程會分為多個階段。首先是進行召回,利用協同過濾(CF),使用矩陣分解等算法對 Item 進行召回,進行一個粗粒度的過濾。
當然系統也會考慮更複雜的 context 資訊以及使用者和 item 的一些細粒度的特征,進行更細粒度的 ranking 和 reranking 等操作。
2. Benefit of LMs
之前已經有很多相關的工作将語言模型應用到推薦中:
- 借鑒語言模型的 model architecture,用 transformer 實作對 sequential pattern 推薦的模組化。
- 借鑒 BERT 的 task formulation 的形式去定制推薦任務。
- 利用語言模型的文本資訊抽取能力,對使用者的行為進行相應的表示學習和相關 context 的知識的利用。
- 在學習範式上學習語言模型,如 Pretrain-finetune、Prompt learning 等。
在大語言模型出現之前,語言模型為推薦模型的建構提供了相當多的啟發,如:
- 利用 Architecture 的 BERT4Rec、SASRec 應用了 transformer 和 self-attention 的結構;
- 利用語言模型做 item encoder 進行語義資訊抽取;
- 利用 language model 來 unify 多個推薦任務,用同一個模型做不同的事情,比如 P5、M6-Rec 等都是用同一個語言模型 unify 多個推薦任務。
自從 ChatGPT 問世,人們發現當模型的規模擴大到一定程度,大模型會具有非常強的能力,尤其在語言了解、語言互動以及豐富的世界知識方面,與以前的語言模型相比有很大的差別。
大語言模型有很強的 In-context Learning 的能力,以前的語言模型對話不夠自然,也無法基于 Few-shot examples 學好用怎樣一個推理的政策去回答問題。基于之前利用語言模型去 unify 多個推薦任務,研究人員也嘗試利用大語言模型 unify 各個推薦任務,去做 recall、ranking、推薦的解釋以及調用工具去輔助使用者這些傳統的推薦任務。
02
Progress of LLM4Rec
接下來介紹目前利用大語言模型做推薦的主要方向,及每個方向中的一些代表性工作。
1. LLMs for Recommendation
前面提到,推薦模型可以從語言模型中學到很多東西,比如模型架構、學習範式、表示學習等等。更進一步,大語言模型在此基礎上為推薦模型提供了更多可以借鑒的東西:
- 大模型的強互動能力。可以為使用者提供更好的互動體驗,以前與使用者互動的主要通過被動的 feedback,使用者不願意和推薦系統互動或者給出指令的一個很大的原因是使用者不願意花時間精力去提供資訊,最好系統可以猜出來自己喜歡什麼,而當模型非常聰明的時候,比如即使使用者隻提供很簡單的資訊也能夠享受極大提升的使用者體驗,使用者估計也會願意提供一些簡單的指令來幫助系統顯著地提升推薦的準确性。在互動的方式上,未來的推薦模型會發生一定的變化。
- 大模型的泛化能力。大模型在多個領域有很強的泛化能力,Zero-shot 或者 Few-shot In-context Learning 的泛化能力,大模型能夠利用自己的 World Knowledge 提升模型的泛化性。推薦中也有很多場景需要泛化,比如 cross-domain 的場景等都需要模型有基于世界知識進行推理和泛化的能力。
- 大模型的生成能力。我們希望推薦系統能夠為使用者定制個性化的内容,進行個性化的内容生成,既推薦人工生成的内容,也可以通過 AIGC 去生成内容,并且對推薦的結果進行解釋。
2. Progress of LLM4Rec
下面主要通過三個次元對現有的工作進行梳理。
(1)名額。
大語言模型做推薦是在優化哪些名額?因為不同工作的側重點是不一樣,推薦也在追求很多不同的目标。比如先去做最基礎的優化 LLM4Rec 的 accuracy(準确度),進一步會考慮各種 trustworthiness(信任度)名額,比如 Fairness、Privacy、Safety 以及 OOD(Out-Of-Distribution)泛化能力等。
(2)資訊模态。
最基礎的當然是 text 模态。對于推薦來講,最早開始探索的就是怎樣把 item 文本模态以及 context text 模态的資訊利用起來,利用大語言模型進行 text 模态的推理。很多場景中使用者側的多模态的資訊是比較固定的,比如使用者可能有頭像以及文本描述等,但是 item 每天都會産生很多 video、image,包括相應的 text 的描述、tag 等多模态的資訊。多模态資訊在很多場景裡是很有用的,如何利用好 video 以及 image 模态的資訊,怎麼把這些多模态的資訊結合到 LLM4Rec 的架構中,也是探索中的一個次元。
(3)技術上如何應用 LLM 做推薦。
主要包括以下三類:第一個是 In-context Learning,不需要 Tuning,直接利用經過 Pretraining 和 Instruction Tuning 的 LLM,可以給他幾個 Few-shot 的 example,LLM 就能夠學會基于任務的 input 去生成 output,在推薦中也是一樣的,我們把推薦任務當成一個新的任務,然後利用一些 Few-shot 的 data sample 去 instruct LLM 做好推薦任務;第二個是 Tuning ,利用推薦的資料訓練模型的參數,以更好地完成推薦任務;第三個是 Agent,Agent 是一個非常特殊的存在,會利用 In-context Learning、Tuning、RAG 之類的技術,之是以将其單獨提出,是因為确實在推薦裡有一定的獨特之處,相關的工作與隻做 accuracy 的工作還是有一些差别的,有一些工作專門用 Agent 去完成相應的推薦任務。
3. In-context learning
In-context learning 做推薦是比較簡單的,最直白的思想就是把幾個 data sample(使用者曆史的喜好資料)放到 prompt 裡去 instruct LLM 生成使用者是否喜歡,可以實作 Point-wise、Pair-wise、List-wise 等不同方式的輸出。除此之外,還有一些工作是利用大模型的 In-context learning 方法去實作 data augmentation,比如對使用者的資訊做 misinformation 的補充,通過使用者本身的互動曆史和 profile 推理生成一段 text 描述,然後将這些資料增強後的數輸入到傳統的推薦模式中去。
總結來看:
- 一類任務是利用 In-context learning 直接做推薦任務,由于大模型沒有在推薦資料上訓練過,一般會利用語言來描述 item 和使用者的曆史,并且需要給定候選清單讓大模型去做 Point-wise、Pair-wise 或者 List-wise 的 ranking;
- 另一類任務是用 In-context learning 去抽取或者生成一些資訊,輔助傳統的推薦模型做好推薦任務。
4. Tuning LLM4Rec
利用 In-context learning 做推薦的性能是不太好的,因為大模型的預訓練和推薦任務是有 gap 的,大模型的預訓練并沒有 cover 推薦任務的 instruction 處理,也沒有見過非常多的不同的推薦任務資料的格式,當我們直接用 In-context learning 的方法去做推薦任務時,會發現有時候會拒絕回答,或者是瞎猜着回答。
為了消除這個 gap,需要将大模型對齊到推薦任務上去。
現有的工作中有很多是利用大模型的 LLM4Rec,探究如何更好地訓練一個大語言模型,使他不僅能夠做好推薦任務并且能夠利用好 Tuning 之前的大語言模型本身預訓練階段擷取的知識。
現有的 Tuning LLM4Rec 相關工作基于任務層面可以分為兩類:
- 第一類是判别式範式或者方法,就像傳統的推薦任務一樣,提供候選集,通過指令讓大模型選擇其中的一個。相應的 Prompt 可能是:這是使用者的互動曆史,請你幫我推薦一個使用者可能會喜歡的 item,然後會提供 candidate,讓大模型告訴我使用者會不會喜歡這個 item,或者從下面兩個 pair-wise 的 item 裡邊選一個,或者從一個 list 裡邊選一個,基本上都是給定 item 的候選讓大模型去做一定的判斷,是以我們認為從任務層面它是判别式的,雖然大模型确實是在 generate next token,但是從任務層面上就是通過給定曆史和候選,判斷使用者喜不喜歡,更像是 CTR 的任務,給定使用者和 item 的 pair 去預測使用者喜不喜歡或者點選的機率是多少。
- 第二類是生成式的,不提供 item 的候選,在給定互動曆史之後直接讓大模型去生成使用者下一個點選的東西或者喜歡的 item。這就需要大語言模型在待推薦的資料上訓練過,知道大概有什麼樣的候選 item 在 proposal 中,這種是 generate 生成式的。
對于第一類,分為兩個小的 subcategory,第一個是隻訓練部分參數的,比如可以接一個 Lora,或者隻訓練某一兩層這種情況;第二個是對整個 LLM 的所有的參數重新訓練,稱為 Full tuning。
5. Tuning LLM4Rec: TALLRec
首先講解一個隻訓練一部分參數的方案 TALLRec ,是我們發表在 Recsys’23 的成果。把一個比較大的 LLM,比如 7B 的 Llama 接一個 Lora 去做 fine tuning。Fine tuning Lora 的參數其實是比較少的,但是我們發現,隻 tuning 這些比較少的參數,用不是特别多的 sample,甚至幾十個 sample 就能夠讓 LLM 模型做推薦的效果提升非常大。隻需要準備比較少的 sample 以及訓練比較少的參數就能讓 LLM 快速地 adapt 到新的推薦任務上。這也證明了,大模型泛化到一個任務上,隻需要用一些 sample 告訴他應該怎樣去 follow 這個任務的格式去做一定的推理就可以了。不僅不需要很多 sample,還能夠利用本身 Pre-trained Knowledge。當然這裡我們用的是 item 的 title 作為 input,它跟大語言模型預訓練的文本資訊在一個空間裡。
我們發現用 item title 經過 few-shot tuning 的方法也能夠很好地泛化到一些跨領域的推薦上。比如可以在 movie 上訓練然後在 book 上測試,或者在 book 上訓練在 movie 上測試,也能夠有不錯的效果,再次證明了其泛化能力。
6. Tuning LLM4Rec: InstructRec
這裡介紹一個 full tuning 全參數訓練的模型 InstructRec。與 TALLRec 相比,除了訓練的參數有差別,還有其他一些不一樣的點。InstructRec 認為使用者的 instruction 是非常多樣化的,有比較明顯的 instruction,也有比較隐晦的 instruction,不同的 instruction 代表了不同的需求。這個工作首先去建構了非常多樣化的推薦 instruction,然後通過建構好的 instruction data 訓練模型去 follow 不同的 instruction 去做不同的任務,比如 Product Search、Personalize Search,以及 Sequential Recommendation 等任務。不同的任務會涉及到不同的 instruction,當然同一個任務也有不同的 instruction,比如有的使用者說得比較明顯一點,有使用者說得比較隐晦一點。
這個工作設計了很多 template。首先建構好上面的三元組,有使用者的 Preference(偏好),也有使用者的 Intention (意圖),到底是 vague (模糊) 的還是 specific (具體) 的,還有使用者的 Task(任務),任務到底是 pairwise 的還是 listwise 的等。利用 template 就可以去組合出來很多不同的 instruction。
有了這些 instruction 之後,就可以基于使用者的曆史 interaction 資料造一些 instruction tuning 的 data 出來,再利用生成出來的 instruction 去訓練模型。
7. Tuning LLM4Rec: BIGRec
生成式方法就是給定曆史之後,直接去生成下一個 item 是什麼。這就會有一些問題,比如當我們把使用者的互動曆史用自然語言的形式描述出來作為 input 的時候,大模型要生成下一個 item,就必須要知道怎麼去表示 item,并且需要通過 token sequence 的形式表示出來。
我們可以将每一個 item 的 item title 當作一個 identifier(辨別符),這時可以利用使用者的互動曆史組織成自然語言去和下一個 item 的 title 組成一個 pair 做訓練。這樣做帶來的問題是怎樣讓大語言模型知道什麼樣的 sequence 是一個可用的 title,雖然我們可以通過 instruction tuning 實作,但是在推理的時候大語言模型還是會不可避免地生成一些不存在的 title。
目前有兩種手段:
- 一種是先 free generation 再加 grounding 的形式,先讓大模型任意地生成 item title,因為大模型已經經過 instruction tuning 訓練過,是以它生成的這些 token sequence 是已經在 item title 的 space 裡的或者已經比較近似了,雖然仍然可能有某些詞,比如 10 個詞中有 3 個詞生成的不對,但是我們會加一個 grounding 的 stage,将其比對到某一個最相似的 item 上。
- 另一類手段叫做受限制的生成(constrained generation)。
在目前用 item title 的工作中,我們發現它也可以用非常少的 sample 實作還不錯的推薦效果,因為讓大語言模型去了解 item title 大概代表的意思相對是比較容易的。
工作中也發現,大模型應用很少的 sample 就能夠很快 adapt 到推薦上去,但是再給它增加 sample,提升就不明顯了,沒有像傳統模型一樣,當資料增加到一定的規模效果就會猛地提升,它的這個坡就比較緩,每一個比前面一個提升的百分比是非常少的。當資料變多的時候,傳統推薦模型能更好地利用協同資訊,比如什麼樣的人會喜歡什麼樣的 item,這也是為什麼隻有當資料積累到一定的量傳統推薦模型才會做得比較好。但是 BIGRec 的效果提升沒有那麼顯著,一個原因就是它沒有很好地利用互動曆史中的 collaborative filtering 資訊。
我們可以計算 item 的 popularity,讓 BIGRec 做推理的時候考慮到 item 的統計性資訊,比如 popularity、什麼樣的人會喜歡什麼樣的item 等,注入統計資訊與沒有注入統計資訊相比推薦效果會有顯著的提升。
8. Tuning LLM4Rec: TransRec
下面講一下前面提到的 constrained generation 怎樣去生成合法的 item identifier (辨別符)。
應用 LLM4Rec 去實作有兩個比較關鍵的步驟:
(1)怎樣把 item index 到 language model,讓模型知道這個 item。item indexing 目前有很多種方法,text base 可以用 item title、item attributes 和 description 以及 ID-based,直接像以前傳統推薦模型一樣去生成一個 ID,當然這種情況就需要大量的資料去做訓練。還可以用 codebook 的形式去生成 item 的 identifier。
(2)怎麼去 generate 下一個 item,就是 Generation Grounding 的步驟。可以直接生成 item title,生成 item identifier,也可以直接接一個分類層去做判别。
這項工作的思路是可以從多個側面去表示一個 item,構造一個多側面 (multi-facet) 的 identifier,這樣可以利用 ID 去捕捉 item 之間細微的差別,可以利用 item title 去涵蓋 item 的語義資訊并且能夠跟大模型的預訓練知識進行對齊,也可以利用 Item attributes。生成的時候就應用了前面說到的 constrained generation,直覺了解的話,可以用樹去限制模型在做 token 生成的時候隻生成合法的路徑,比如在 Beam Search 的時候,先生成第一個 token,再生成第二個 token,在生成第一個 token 之後就有限制第二個 token 隻能夠生成哪些東西,隻可以在合法的 item 辨別符集合上進行生成。這個工作用了一個技術叫 FM-index,可以保證從任意位置的 item identifier 進行生成,并在樹的基礎上去加強限制。
9. Tuning LLM4Rec: LC-Rec
Item index 有三類,一類是 ID 的,一類是 text 的,還有一類是 codebook 的。Codebook 可以利用 item 的多模态資訊或者 text 資訊、語義資訊,可以用 AutoEncoder(RQ-VAE) 的形式,将這些資訊編碼成多個 code 組合,也就是一個 codebook 裡面預存了很多 vector,這些 vector 就像一個 embedding 矩陣一樣,并且這個 embedding 是可以學習的。比如輸入一個 text 描述,可以用語言模型先把它轉化為 dense vector,然後再用 AutoEncoder 進行壓縮,壓縮的過程中去計算輸入的 dense vector 可以拆成 codebook 裡哪些 vector 的組合,比如 vector1 加 vector3 加 vector4 等于壓縮出來的 vector,那它的 code 就是 134。這種 codebook 的形式就需要大量的資料去訓練了,因為 code 所代表的含義大模型是不知道的,隻能通過多個任務的訓練投喂足夠多的資料,才能夠實作推斷。
10. Agent for Recommendation
上面我們講了怎樣用 tuning 的方法做好 accuracy,主要利用的還是 text 模态的資訊,接下來簡單介紹一下 Agent 相關的工作。
LM 賦能 Agent 做推薦主要有兩類:
- 一類是 Agent as User Simulator,通過模拟使用者的行為,做 interactive evaluation,作為一個 evaluator 去 evaluate 推薦算法的效果。這個方向上有很多工作,上圖中列舉了兩個代表性的工作。
- 另一類是 Agent for Recommendation,直接用 Agent 做推薦。這樣能夠利用 Agent 的一些特性,比如互動性,能夠通過自然語言互動以及額外的互動手段,另外 Agent 可以調用 tool,像總控大腦一樣去調用各種 tool 滿足使用者的各種資訊需求,比如 RecMind 就是屬于這類似思路的工作。當然也可以利用 LLM 的其他能力,比如規劃的能力等。
11. Agent: BiLLP
推薦是有長期目标的,比如優化使用者的留存率就是多輪推薦上的長期目标,再比如在多輪推薦裡去保證推薦的多樣性和公平性等也是長期目标。
BiLLP 是 SIGIR’24 的一個工作,将怎樣優化長期名額分為兩個階段:一個是宏觀層面的規劃,一個是微觀層面的學習。
- 首先,是在宏觀層面去規劃做多輪推薦的過程中每一輪應該執行什麼樣的政策。比如為了保證長期推薦的多樣性,需要這一輪主推什麼,下一輪主推什麼,再下一輪主推什麼,為保證推薦的 balance,需要有一個宏觀層面的規劃。
- 接着,在微觀層面去細緻地刻畫目前這次推薦要推什麼東西。在每一輪遵循指導的情況下做細粒度微觀上的推薦政策優化。
實驗中通過多輪 evaluation 的手段發現了該方案在長期推薦上的效果。
12. Trustworthy LLM4Rec
除了優化 accuracy,也有一些工作在做大語言模型對齊方面的工作,比如優化 Fairness,考慮 Privacy(利用 model unlearning 以及聯邦學習的方法),以及考慮 Attack、Explanation 和 OOD 的工作。我們把相關工作列在這裡,大家如果感興趣可以去深入閱讀。
03
Open Problems
1. Open Problems
這裡簡單介紹一些可能存在的 open problems,重點講一下我對這個事情的了解。
- Modeling:怎樣去表示推薦中的資料,讓 LLM 真正能夠利用預訓練的知識結合推薦的資料進行推理。Modeling 并沒有特别好,我們還沒有發現在跨領域或者說是跨推薦任務上有很強的泛化能力,還沒有出現推薦領域的基礎模型。
- Cost:大模型推薦會存在 delay 和 cost 的問題。
- Evaluation:如何評估大模型推薦的效果。
2. Modeling
怎樣去 tokenize 推薦的資料相對困難,因為推薦是一個關系型資料而不是 fact 資料或者說不是一個純 text 的資料。為了描述關系,比如有 N 個實體就是 O(N^2) 的複雜度,怎麼描述他們的關系是很複雜的事情,尤其是還要模組化好協同的資訊等。
3. Cost: Training
在不斷對推薦模型進行重新訓練的過程中,怎樣保證 Data-efficient 降低 cost 也是一個值得關注的問題。怎樣利用更少的資料更好地對推薦大語言模型進行 fine tuning,做好推薦任務是一個有代表性的工作。
4. Cost: Inference
除此以外,inference 加速也很重要。現有的一些想法是先訓好一個大模型,再蒸餾成一個小模型,然後在推理階段用小模型進行推理。
5. Evaluation: Data Issues
目前有很多推薦資料集,但很多都不太适合做 LLM4Rec 任務。因為我們對非匿名化的語義資訊的需求是比較高的,在大模型出來之前,很多資料集都比較老了,有一些大模型在訓練的時候已經見過一部分推薦資料了,雖然不能說全見過,但是應該見過其中一部分了,這樣怎麼去保證公平的測試就是一個問題。我們需要一些新的包含語義資訊的沒有被大模型見過的評測資料。
另外一個問題是如何去評價互動性,比如在對話式推薦中是需要互動的,當不同的 intervention 之後 policy 是怎麼變的,使用者的行為是怎麼變的,這樣一個互動式推薦的 evaluation 也很難,包括多輪推薦裡怎麼 evaluate 長期名額的實作也是一個比較難的問題。
04
Future Direction & Conclusions
接下來簡單介紹一下除了這些 open problems 之外,還有哪些 future direction 是值得做的。
1. Generative Recommendation Paradigm
以往推薦裡的内容都是人生成的,是專家或使用者生成的内容,比如專家生成的新聞、使用者上傳的短視訊等等,但我們認為未來 AI 生成的内容會進一步豐富推薦生态。
一方面,AI 可以去幫助創作者進行創作,現在已經有工具可以幫助使用者制作短視訊,未來利用 AI 的能力可以幫助創作者和專家生成更加多樣化和個性化的東西。比如同樣一個做菜的視訊,可以為每個人生成不同的版本,比如為老年人生成精簡的版本而為年輕人生成更細緻的版本。AIGC 大大降低了創作的門檻,未來個性化的内容生成将是一個重要的研究方向。
2. Rec4Agentverse
另外一個就是 Rec4Agentverse。在 OpenAI 的智能體平台 GPTs 上,越來越多人開始貢獻多種多樣的智能體,每個智能體都有自己擅長的部分。未來可能會出現不同的公司都 develop 有自己特色的智能體,這些智能體将構成一個非常多樣化的智能體宇宙,有的擅長 fashion 的推薦,有的擅長旅行的規劃。那怎樣在這麼多的智能體中進行個性化的過濾,也就是使用者需要什麼樣的智能體,哪個智能體能為他提供更加個性化的服務,就需要一個 Agent Recommender,能夠進行 Agent 的個性化推薦,能夠和 Agent 進行互動,像調用 tool 一樣讓他們來為使用者進行個性化的服務。
3. Action Speaker Louder than Words
推薦裡面的 function model 也有相關探索,這是 Meta 在做的一個 Generative Recommender 的架構。
他們發現用生成式模型做推薦,當資料量和參數量增加之後能夠實作比傳統模型更好的效果。在一些開源的和 Meta 自己的資料上都發現了這樣的效果,并且驗證了一定的 Scaling Law。
4. Large Behaviour Model
關于 Large Behaviour Model ,我們已經知道了一些事實,比如 Scaling Law 在某些場景下是存在的,并且能夠有比較好的泛化能力。
但是還有一些東西是未知的:
- 怎樣整合世界知識做推薦,有沒有真的利用好預訓練的知識。
- 怎樣 tokenize 使用者的行為,使用者的行為既包含 item,又包含使用者的行為類型,還包含不同的 context,能不能和預訓練的資訊進行一定的對齊也是未來需要探索的一個關鍵問題。
- 怎樣 model 短期的和長期的行為以及規劃短期和長期的目标,也是未來 Large Behaviour Model 需要考慮的問題。
- 了解使用者并且準确地預測好使用者的下一個行為,是非常困難的,可能涉及使用者的行為模組化,但是這個問題的瓶頸在哪裡呢?是因為輸入的資訊不夠,還是因為對使用者資訊的了解不夠,還是模型的推理能力不行,還是模組化資料的 pattern 太多樣化了,到底瓶頸在哪裡是未來值得探索的一個問題。如果能夠做好 Simulation,能夠很好地 predict 使用者的下一個行為,我們認為它就可以近似地去做 Ranking 也就是推薦了,因為二者一定程度上是等價的,就是當我能夠很好地預測使用者的下一個行為的時候,我就能夠知道推薦什麼東西對使用者更好,它們之間是相輔相成的關系,這也是未來推薦大模型值得考慮的一個問題。
05
Thanks
如果有興趣獲得更多相關資訊,可以浏覽上圖中給出的 tutorial 以及我們的公衆号“智薦閣”,我們也會在 SIGIR'24 繼續介紹最新的工作。
06
問答環節
Q1:Action Speaker Louder than Words 這個工作所用到的使用者行為大概是多長或者是怎樣的量級?具體是來自于哪些場景的資料?
A1:這個工作是 Meta 的,他們在 paper 裡沒有講具體是什麼場景,這可能涉及到 Meta 的隐私政策。大概猜測就是 Meta 主要的社交平台,有 micro video 和 image 的資訊,包括 post 等。
Q2:現在有推薦場景用起來 LLM 嗎?
A2:現在工業界可能更多的是應用 LLM 來增強現有的推薦算法或者推薦模型,工業界不會完全推翻已有的推薦算法,一般都是版本疊代。完全用 LLM 也不太現實,畢竟确實 cost 是比較高的,比如說 Meta action 那個工作也不是用的經典的 LLMs,會做架構和訓練方式上的修改。
Q3:LLM 如何幫助推薦系統激勵使用者産生更好的内容?
A3:這是個很好的問題。在推薦的生态中内容生成是很重要的。但是從學術界來講對這方面的關注度比較低,學術界認為推薦内容是給定的或者既有在那裡的,但其實對一個平台來講内容還是非常重要的,因為算法進行一定的過濾,首先得保證有好的内容,好的内容在推薦生态裡是非常重要的一環。包括很多平台像小紅書等都非常注重内容,在這種情景下,我們覺得大語言模型,包括多模态模型,未來肯定能夠很好地幫助使用者去更容易地生成更 fancy 的内容,比如同樣一個視訊可以輕易的低成本地去生成很多不同版本的視訊。
現有一些工作是在做 personalized content generation,我們有一個工作發表在今年的 SIGIR'24 上。華為也有一個工作叫做 PMG,在做 Personalized Multi-modal generation。
以上就是本次分享的内容,謝謝大家。