您的当前位置:首页 > 休闲 > ChatGPT能写长篇小说了,ETH提出RecurrentGPT实现交互式超长文本天生 正文
时间:2025-02-23 10:58:03 来源:网络整理 编辑:休闲
如今大型语言模子如 ChatGPT)盛行全天下,其最紧张的运用之一便是辅助用户实现种种同样艰深写作,如撰写电子邮件,创作博客文章,都能患上到它的有力反对于。可是当初搜罗 ChatGPT 在内的种种狂语
如今大型语言模子(如 ChatGPT)盛行全天下,写长其最紧张的说E实现式超生运用之一便是辅助用户实现种种同样艰深写作,如撰写电子邮件,提出创作博客文章 ,交互都能患上到它的长文有力反对于 。可是本天当初搜罗 ChatGPT 在内的种种狂语言模子在长内容创作规模 ,如小说 ,写长剧本,说E实现式超生长篇文案等规模却显患上力不从心 。提出
近期 ,交互来自苏黎世联邦理工以及波形智能的长文团队宣告了 RecurrentGPT,一种让狂语言模子 (如 ChatGPT 等) 可能模拟 RNN/LSTM,本天经由 Recurrent Prompting 来实现交互式超长文本天生 ,写长让运用 ChatGPT 妨碍长篇小说创作成为了可能 。说E实现式超生
论文地址:https://arxiv.org/abs/2305.13304
名目地址 :https://github.com/aiwaves-cn/RecurrentGPT
在线 Demo :https://www.aiwaves.org/recurrentgpt (长篇小说写作) https://www.aiwaves.org/interactivefiction (交互式小说)
基于 Transformer 的狂语言模子最清晰的限度之一便是输入以及输入的长度限度。尽管输入真个长度限度可能经由 VectorDB 等方式缓解 ,输入内容的长度限度不断是限度 ChatGPT 等狂语言模子普遍运用于长内容天生的关键拦阻。为处置这一下场 ,以前良多钻研试图运用基于向量化的 State 或者 Memory 来让 Transformer 可能妨碍循环合计。这样的措施尽管在长文本建模上揭示了确定的优势 ,可是却要求运用者具备并可能更正模子的妄想以及参数 ,这在当初闭源模子遥遥争先的狂语言模子时期中是不适宜实际的 。
RecurrentGPT 则另辟蹊径,是运用狂语言模子妨碍交互式长文本天生的首个乐成实际 。它运用 ChatGPT 等狂语言模子清晰做作语言指令的能耐,经由做作语言模拟了循环神经收集(RNNs)的循环合计机制。
如图 2 所示 ,在每一个光阴步中 ,RecurrentGPT 会接管上一个光阴步天生的内容 、最近天生内容的摘要(短期影像),历史天生内容中以及之后光阴步最相关的内容 (临时影像) ,以及一个对于下一步天生内容的大概。RecurrentGPT 凭证这些内容天生一段内容