程序员

AI大模型企业应用实战(22)-Prompt让LLM理解知识

2024-06-23  本文已影响0人  JavaEdge

1 Prompt

Prompt 可理解为指导AI模型生成特定类型、主题或格式内容的文本。

NLP中,Prompt 通常由一个问题或任务描述组成,如“给我写一篇有关RAG的文章”,这句话就是Prompt。

Prompt赋予LLM小样本甚至零样本学习的能力:

LLM能力本质上说是续写,通过编写更好的prompt来指导模型,并因此获得更好的结果:

无具体指令,模型只会续写。输出结果可能出人意料或远高于任务要求:

告知模型去完善句子,因此输出结果和最初输入完全符合。Prompt Engineering就是探讨如何设计最佳Prompt,用于指导LLM高效完成某项任务。

2 Prompt的进阶技巧CoT

Chain of Thought,让模型输出更多的上下文与思考过程,提升模型输出下一个token的准确率。

3 优化Prompt,提升模型推理能力和问答准确率

3.1 分布式引导提问

把解决问题的思路分成多步,引导模型分步执行

3.2 Prompt代码化

LLM通常都会有代码数据,prompt代码化进一步提升模型的推理能力。

关注我,紧跟本系列专栏文章,咱们下篇再续!

作者简介:魔都架构师,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。

各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。

负责:

  • 中央/分销预订系统性能优化
  • 活动&券等营销中台建设
  • 交易平台及数据中台等架构和开发设计
  • 车联网核心平台-物联网连接平台、大数据平台架构设计及优化
  • LLM应用开发

目前主攻降低软件复杂性设计、构建高可用系统方向。

参考:

本文由博客一文多发平台 OpenWrite 发布!

上一篇下一篇

猜你喜欢

热点阅读