AI提示词毒性的解决方案?
- 内容介绍
- 文章标签
- 相关推荐
在 【转载】「你是专家」竟成AI幻觉毒药?新论文一巴掌揭穿提示词最大骗局 - 前沿快讯 - LINUX DO这篇快讯中,简单描述了为什么“扮演”类的prompt只有在特定任务重才可以发挥作用,也就是所谓病症不对药毒翻倍。但是在上面那篇快讯中却只是简单地提点了一下,并且给出了一个相对而言比较简单粗暴的解决方案,而且对于原理的描述上也是点到为止,但是今天看到了一篇项目—— deusyu/harness-engineering: Harness Engineering 学习指南 — 从概念理解到独立实践的深度学习档案以及openai发布的Harness engineering: leveraging Codex in an agent-first world报告里面才窥得更深层的解释。
从我贫瘠的总结能力出发,简要总结一下:从角色扮演到今天的prompt工程,训练数据时高质量的结构化上下文填入(清晰的说明文档注释)往往会优于杂乱随意的上下文,而我们撰写的提示词就是在向高质量的上下文结构进行靠拢,以高质量结构清晰的上下文去让模型更好的匹配清晰高质量的生成结果。清晰的说明文档、注释、接口边界、命名规范、错误反馈,本质上都在为模型提供更稳定的上下文结构。
更省流的结果,在我们构建prompt的时候或者是rules,skills的时候我们需要做到:1.把隐性经验显性化;2.把文字约束机械化;3.把一次性交付改成持续反馈回路;4.把人写代码改成人设计系统(也就是构建一个稳定生成正确代码的环境(包括skills、rules等)与机制(如构建prompt的固定结构),可能也与 拒绝重复造轮子:Mozilla 首发 cq 共享知识库,让 AI 编程学会“抄作业” - 前沿快讯 - LINUX DO这篇快讯构建的模式的作用类似)
网友解答:--【壹】--:
在 【转载】「你是专家」竟成AI幻觉毒药?新论文一巴掌揭穿提示词最大骗局 - 前沿快讯 - LINUX DO这篇快讯中,简单描述了为什么“扮演”类的prompt只有在特定任务重才可以发挥作用,也就是所谓病症不对药毒翻倍。但是在上面那篇快讯中却只是简单地提点了一下,并且给出了一个相对而言比较简单粗暴的解决方案,而且对于原理的描述上也是点到为止,但是今天看到了一篇项目—— deusyu/harness-engineering: Harness Engineering 学习指南 — 从概念理解到独立实践的深度学习档案以及openai发布的Harness engineering: leveraging Codex in an agent-first world报告里面才窥得更深层的解释。
从我贫瘠的总结能力出发,简要总结一下:从角色扮演到今天的prompt工程,训练数据时高质量的结构化上下文填入(清晰的说明文档注释)往往会优于杂乱随意的上下文,而我们撰写的提示词就是在向高质量的上下文结构进行靠拢,以高质量结构清晰的上下文去让模型更好的匹配清晰高质量的生成结果。清晰的说明文档、注释、接口边界、命名规范、错误反馈,本质上都在为模型提供更稳定的上下文结构。
更省流的结果,在我们构建prompt的时候或者是rules,skills的时候我们需要做到:1.把隐性经验显性化;2.把文字约束机械化;3.把一次性交付改成持续反馈回路;4.把人写代码改成人设计系统(也就是构建一个稳定生成正确代码的环境(包括skills、rules等)与机制(如构建prompt的固定结构),可能也与 拒绝重复造轮子:Mozilla 首发 cq 共享知识库,让 AI 编程学会“抄作业” - 前沿快讯 - LINUX DO这篇快讯构建的模式的作用类似)
在 【转载】「你是专家」竟成AI幻觉毒药?新论文一巴掌揭穿提示词最大骗局 - 前沿快讯 - LINUX DO这篇快讯中,简单描述了为什么“扮演”类的prompt只有在特定任务重才可以发挥作用,也就是所谓病症不对药毒翻倍。但是在上面那篇快讯中却只是简单地提点了一下,并且给出了一个相对而言比较简单粗暴的解决方案,而且对于原理的描述上也是点到为止,但是今天看到了一篇项目—— deusyu/harness-engineering: Harness Engineering 学习指南 — 从概念理解到独立实践的深度学习档案以及openai发布的Harness engineering: leveraging Codex in an agent-first world报告里面才窥得更深层的解释。
从我贫瘠的总结能力出发,简要总结一下:从角色扮演到今天的prompt工程,训练数据时高质量的结构化上下文填入(清晰的说明文档注释)往往会优于杂乱随意的上下文,而我们撰写的提示词就是在向高质量的上下文结构进行靠拢,以高质量结构清晰的上下文去让模型更好的匹配清晰高质量的生成结果。清晰的说明文档、注释、接口边界、命名规范、错误反馈,本质上都在为模型提供更稳定的上下文结构。
更省流的结果,在我们构建prompt的时候或者是rules,skills的时候我们需要做到:1.把隐性经验显性化;2.把文字约束机械化;3.把一次性交付改成持续反馈回路;4.把人写代码改成人设计系统(也就是构建一个稳定生成正确代码的环境(包括skills、rules等)与机制(如构建prompt的固定结构),可能也与 拒绝重复造轮子:Mozilla 首发 cq 共享知识库,让 AI 编程学会“抄作业” - 前沿快讯 - LINUX DO这篇快讯构建的模式的作用类似)
网友解答:--【壹】--:
在 【转载】「你是专家」竟成AI幻觉毒药?新论文一巴掌揭穿提示词最大骗局 - 前沿快讯 - LINUX DO这篇快讯中,简单描述了为什么“扮演”类的prompt只有在特定任务重才可以发挥作用,也就是所谓病症不对药毒翻倍。但是在上面那篇快讯中却只是简单地提点了一下,并且给出了一个相对而言比较简单粗暴的解决方案,而且对于原理的描述上也是点到为止,但是今天看到了一篇项目—— deusyu/harness-engineering: Harness Engineering 学习指南 — 从概念理解到独立实践的深度学习档案以及openai发布的Harness engineering: leveraging Codex in an agent-first world报告里面才窥得更深层的解释。
从我贫瘠的总结能力出发,简要总结一下:从角色扮演到今天的prompt工程,训练数据时高质量的结构化上下文填入(清晰的说明文档注释)往往会优于杂乱随意的上下文,而我们撰写的提示词就是在向高质量的上下文结构进行靠拢,以高质量结构清晰的上下文去让模型更好的匹配清晰高质量的生成结果。清晰的说明文档、注释、接口边界、命名规范、错误反馈,本质上都在为模型提供更稳定的上下文结构。
更省流的结果,在我们构建prompt的时候或者是rules,skills的时候我们需要做到:1.把隐性经验显性化;2.把文字约束机械化;3.把一次性交付改成持续反馈回路;4.把人写代码改成人设计系统(也就是构建一个稳定生成正确代码的环境(包括skills、rules等)与机制(如构建prompt的固定结构),可能也与 拒绝重复造轮子:Mozilla 首发 cq 共享知识库,让 AI 编程学会“抄作业” - 前沿快讯 - LINUX DO这篇快讯构建的模式的作用类似)

