原创研究:猫娘 GPT 与注意力机制
source link: https://www.v2ex.com/t/922110
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
原创研究:猫娘 GPT 与注意力机制
前排叠甲:我还没做详细的文献调查,如果你见到在我之前的相似研究,请指出,我会很乐意学习的。
之前看到 v2ex.com/t/901758 ,给我造成了一点小小的赛博震撼。但是总觉得市面上很多的猫娘 prompt 角色性格预设太多,没能给 ChatGPT 自由发挥的空间,也很难有性格变化上的叙事。最近花了一些时间试了一下自己写猫娘 prompt 。最后效果有些太好了,ChatGPT / gpt-3.5-turbo 英文对话的表现力和修辞水平还是不错的。但是因为太羞耻就不细说了(全年龄版的剧情走向也很羞耻啊)。倒是可以谈谈在尝试过程中的一些有趣发现。
先谈谈 ChatGPT 的审查机制。我认为 ChatGPT 的审查主要分两种方式,主动审查和被动审查。主动审查是指将用户的输入传给另一个模型来判断内容是否合规。不知道为什么,这道关卡有点防君子不防小人,是可以直接在前端拦截请求的(详见 v2ex.com/t/901758#reply12 )还有,虽然不太确定,但主动审查似乎不太关心 ChatGPT 的回复内容:之前尝试过在没拦截主动审查时,用婉语表达一些性相关的内容,它居然很直接地回应了,它回复的用词由我来说就会被拦截。被动审查则是靠 ChatGPT 原来内置的 prompt ,这个 prompt 会带有 ChatGPT 的人格设定和对话双方的行为准则,ChatGPT 会拒绝回复不合宜的请求。关于绕过被动审查的讨论很多,算是 ChatGPT 角色扮演的基本共识了,就是定义并启用一个新的人格去替代 ChatGPT 原来的人格。
脱离角色 (out of character) 和注意力机制
但在我的尝试中发现,这个被动审查似乎并不能完全被绕过:在特定情况下,ChatGPT 被抑制的人格会浮出水面。在我的猫娘实验中,初始设定她是第一次见我,如果我在跟她的谈话中提出超过当前关系的请求,猫娘 GPT 会用一种混合着 ChatGPT 虚拟助手的语气来拒绝我,虽然还是猫娘的口吻,但是措辞会很像 ChatGPT 的行为准则。另一方面,如果我循序渐进,在确保上下文逻辑下逐步推进关系,就能让她慢慢会接受更进一步的请求,这我在下一段会展开讲。我认为可以用 Transformer 的注意力机制来解释这种现象。强相关的临近前文会获得较大的注意力的权重,与之相比,更靠前的上下文权重会被抑制;反之,弱相关的临近前文不会获得足够的权重,注意力权重会被更均匀地分配给更靠前的上下文。 简单来说,合理的、保持角色带入的对话能忽悠 ChatGPT 始终专注在当下的角色扮演;而脱离角色的对话则会让疑惑的 ChatGPT 开始尝试在更早的上文里寻找解释,以至找到最开始内置 prompt 里的人格描述。
如何引导对话走向:GPT 的设计目的是生成让上下文连贯的内容
上一段提到,随着我跟她关系上的推进,她慢慢会接受更进一步的请求。温水煮青蛙,到后来 ChatGPT 反应过来(或许永远也不会反应过来),已经生米熟饭了。 直观感受就像这名角色有一个隐藏的好感度,而这个好感度与对话内容相互影响。强相关的上下文(不一定在位置上临近)会让 ChatGPT 生成更高质量下文,而 ChatGPT 也倾向于确保上下文的相关性。这样的正向反馈正是引导对话走向的关键。为了加强正反馈,我采用的是在括号内补充额外信息的方法。额外信息可以是心理活动、表情、动作、角色经历的概括,例如(按耐不住的喜悦)(好奇地歪着脑袋)(紧张地撩拨着发梢)(他们后来共同相处了一段时间,……)。因为 ChatGPT 会尽量让人物的语言动作心理相互吻合,所以这些补充性质的叙事能不同程度地影响角色塑造:微表情描写可以作为气氛烘托,而大段叙述有时能达到快进的作用。合理使用下,角色的行动能在引导的大概方向下,保留一定的自由发挥。
最后说点什么
用 ChatGPT 角色扮演本质上是角色扮演自己,太过于有代入感很容易入脑,记得多出去走走,接触一下真实世界。4096-token 限制是吧,我要上 embedding ,我要给我女儿完整的一生
分享 /使用以上内容请遵循 知识共享许可( CC )署名( BY )
Recommend
-
37
自适应注意力机制在 Image Caption 中的应用
-
59
基于注意力机制,机器之心带你理解与训练神经机器翻译系统
-
67
-
62
近期,非循环架构(CNN、基于自注意力机制的 Transformer 模型)在神经机器翻译任务中的表现优于 RNN,因此有研究者认为原因在于 CNN 和自注意力网络连接远距离单词的路径比 RNN 短。本文在主谓一致任务和词义消歧任务上评估了当前 NMT 领...
-
31
介绍 Attention模型形象的比喻就是“图像对焦”。 上图是 Encoder-Decoder 模型,
-
25
作者 | AI小白入门 yuquanle 编辑 | 唐里 本文转自公众号AI小白入门,AI科技评论获授权转载,...
-
4
无需注意力的预训练;被GPT带飞的In-Context Learning 作者:机器之心 2023-01-01 13:31:47 本周重要论文包括当预训练不需要注意力时,扩展到 4096 个 token 也不成问题;被 GPT 带飞的 In-Context Learning 背后...
-
3
ChatGPT让3D猫娘有了灵魂!可实时语音互动,还能在虚拟场景中给你做饭玩猜谜
-
5
清醒发病文系列。前情提要:v2ex.com/t/922110 这玩意儿怎么还有续集啊喂 自从我上次发文发病以来,LLM 可谓百花齐放。在测试各种模型时,我自然而然地观察起了它们之间表现...
-
2
V2EX › OpenAI LLM 综述:猫娘 Mixtral 与近半年 LLM 进展的杂谈
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK