提示词工程

月伴飞鱼 2024-06-23 15:20:26
AI相关
支付宝打赏 微信打赏

如果文章对你有帮助,欢迎点击上方按钮打赏作者!

Prompt Engineering随着大模型的出现,发展成了一门较新的学科。

  • 主要关注提示词的开发和优化,帮助用户将LLM用于个场景和研究领域。

  • 可利用提示工程来提升大语言模型处理复杂任务场景的能力,如问答和算术推理能力。

开发人员可通过提示工程设计、研发强大的工程技术,实现和大语言模型或其他生态工具的高效接轨。

提示工程不仅仅是关于设计和研发提示词。

  • 它包含了与大语言模型交互和研发的各种技能和技术。

提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。

用户可以通过提示工程来提高大语言模型的安全性,也可以赋能大语言模型,比如借助专业领域知识和外部工具来增强大语言模型能力。

大型语言模型分类

基础大型语言模型(Base LLM)和指令调整大型语言模型(Instruction Tuned LLM)。

基础大型语言模型:

基础大型语言模型是基于大量文本数据训练出来的,它可以根据之前的文本预测下一个单词。

而指令调整大型语言模型则可以根据给定的指令或任务进行微调,以更好地适应特定任务的需求。

以基础大型语言模型为例,当输入 从前有一只独角兽 时,模型可以根据之前的文本预测接下来的单词:

  • 如:它和所有独角兽朋友一起生活在一个神奇的森林中。

如果输入 法国的首都是什么,模型可能会回答 法国最大的城市是什么 或 法国的人口是多少 ,因为它是基于大量的互联网文章训练出来的,这些文章往往是问答题目列表,而不是简单的事实陈述。

指令调整大型语言模型:

相比之下,一个经过指令调整的大型语言模型已经被训练成遵循指令的模型。

因此,如果你问它 法国的首都是什么,它更有可能输出 法国的首都是巴黎。

指令调整的大型语言模型首先使用已经训练好了大量文本数据的基础型语言模型,然后使用输入和输出作为指令来进一步训练和微调它。

这样训练出的大型语言模型经过指令调整后,已经被训练成为有帮助、诚实和无害的。

  • 相比于基础大型语言模型,它们更不可能输出有问题的文本,例如有害的输出。

为了使系统更能够提供帮助并遵循指令,通常会使用一种称为RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)的技术进一步优化。

这种方法可以在保证语言模型的准确性和安全性的同时,提高其输出的质量和可用性。

在实际应用中,许多场景已经开始使用指令调整的大型语言模型。

尽管在互联网上可能可以找到一些针对基础大型语言模型的最佳实践,但针对大多数实际应用,大多数人应该集中精力使用指令调整的大型语言模型。

这些模型更易于使用,而且由于OpenAI和其他大型语言模型公司的工作变得更加安全和对齐,这些模型也更加可靠。

因此,建议在大多数应用中使用指令调整的大型语言模型,并专注于使用这些模型的最佳实践。

当使用指令调整大型语言模型时,可以看作向一个聪明但不了解您任务具体细节的人提供指令。

因此,如果模型无法按照您的期望工作,很可能是因为提示词不够清晰。

举个例子,如果您只说 请写一些关于艾伦·图灵的东西,这并不足够明确。

更明确地指定您想要文本重点关注艾伦·图灵的科学工作、个人生活、历史角色或其他内容,会更有助于模型理解您的意图。

此外,如果您要指定文本的语气,您想让它像专业记者写的文章,还是更像随意便条?

如果您想让一名新毕业的大学生为您完成这项任务,提前指定他们需要阅读哪些文本片段,将有助于为这个新毕业生的成功做好准备。

支付宝打赏 微信打赏

如果文章对你有帮助,欢迎点击上方按钮打赏作者!