AI大模型企业应用实战(22)-Prompt让LLM理解知识
2024-06-23 本文已影响0人
JavaEdge
1 Prompt
Prompt 可理解为指导AI模型生成特定类型、主题或格式内容的文本。
NLP中,Prompt 通常由一个问题或任务描述组成,如“给我写一篇有关RAG的文章”,这句话就是Prompt。
Prompt赋予LLM小样本甚至零样本学习的能力:
LLM能力本质上说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果:
无具体指令,模型只会续写。输出结果可能出人意料或远高于任务要求:
告知模型去完善句子,因此输出结果和最初输入完全符合。Prompt Engineering就是探讨如何设计最佳Prompt,用于指导LLM高效完成某项任务。
2 Prompt的进阶技巧CoT
Chain of Thought,让模型输出更多的上下文与思考过程,提升模型输出下一个token的准确率。
3 优化Prompt,提升模型推理能力和问答准确率
3.1 分布式引导提问
把解决问题的思路分成多步,引导模型分步执行
3.2 Prompt代码化
LLM通常都会有代码数据,prompt代码化进一步提升模型的推理能力。
关注我,紧跟本系列专栏文章,咱们下篇再续!
作者简介:魔都架构师,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。
各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。
负责:
- 中央/分销预订系统性能优化
- 活动&券等营销中台建设
- 交易平台及数据中台等架构和开发设计
- 车联网核心平台-物联网连接平台、大数据平台架构设计及优化
- LLM应用开发
目前主攻降低软件复杂性设计、构建高可用系统方向。
参考:
本文由博客一文多发平台 OpenWrite 发布!