Google DeepMind 提出新方法,解決大模型答案的奉承行為 |
發(fā)布時間:2023-08-11 文章來源:本站 瀏覽次數(shù):2214 |
8月10日訊,據(jù) Arxiv頁面顯示,一群來自 Google DeepMind 的研討者近日發(fā)表論文,公布了一項全新的研討技能,可用于進步生成式大模型答復(fù)的準(zhǔn)確性。 研討指出,大言語模型會在必定程度上依據(jù)用戶的觀點來調(diào)整自己的答案,這將會影響答案的客觀性和正確性。該研討團隊經(jīng)過對公共NLP使命進行輕量級微調(diào),鼓舞模型對用戶在這些使命上的觀點更加穩(wěn)健。 研討顯示,添加這些數(shù)據(jù)能夠明顯削減在答復(fù)中的奉承行為。 |
|