使用大模型的最重要的一步就是编写好的提示词 ,但是 prompt 既容易被也容易被。被低估是因为设计良好的提示词可以显著提升效果。被高估是因为即使是基于提示的应用也需要大量的工程工作才能使其发挥作用。下面我会介绍在编写 prompt 的时候,有助于提升性能的技术点。
一般我们会给大模型定义一个,简要明确告诉它需要做的任务是什么即可,只要框定助手要干的事情边界,不至于跑偏即可。比如可以告诉大模型是一个精通撩妹的高手。
我们在这里可以详细描述助手具体要干的事情,以及需要注意的点。内容一定要,要点一定要,前后文的描述中的地方,否则很容易在推理阶段让大模型不知所措。简要明了的任务要求描述,能让大模型更好的执行任务,减少误差或者歧义。例如:你想撩妹但是你无房无车无存款等要求。
如果我们有可以获取的也可以加入到提示词中,这里有助于模型减少出现幻觉的可能,让它的回答能更加真实可靠有依据。比如我们现在有一个《如何撩妹.txt》 ,我们放入向量库,在针对不同问题的时候召回相应的 doc 喂给大模型,提升其撩妹的能力。有外部的知识可用,这比大模型空想瞎想如何撩妹靠谱的多。
需要注意的是单纯使用可能效果很差,我们可以结合的方式进行关键词的 doc 召回,最后得到的 doc 相对来说会有用的多。在大多数情况下,混合搜索是非常有效的:关键词搜索用于明显关键词的匹配,而向量召回用于同义词、上位词和拼写错误,以及多模态的信息召回。
一般我们会给大模型一些例子,这些例子要有代表性,基本上能把你的任务中的常见情况和特殊情况都覆盖即可,一般 5 个左右足够了,复杂任务可以适当增多。好的例子能大幅度提升大模型对于任务的理解和推理能力。
如果你还不知道什么是,可以先看这里了解一下。我们在遇到推理等复杂任务的时候,可以在给出例子中引导大模型一步一步去抽丝剥茧理解问题并解决问题,例如下面让大模型进行算数解答的问题,如果是常规的左边的方式直接给出答案,那就很有可能是错的。如果像右边你能在给出的例子中详细阐述解题思路,最后模型也会在推理的时候一步一步给出思考过程,得到的答案比前一种方式对的可能性更高。
一般我们的输入都是夹在 prompt 中的进行提问的,而输出的内容我们需要提取有效的信息,我一般都有自己的特殊符号,定义了合适的输入和输出格式,有利于我们生成美观的 prompt 和获取有效的信息。
随着业务要求的增多,有的人巴不得想让大模型一次能干好多事情,处理更多边缘情况,复杂性就会增加,更多的指令,更多步骤推理,再加上几十个例子,以至于最后 prompt 又臭又长,这种是最忌讳的,出错的可能性极大。还不如拆解一下,每次写的 prompt 能干好一件事情。
我们上面的理论也讲了很多,下面就让我们结合上面的知识实战一把。下面的例子比较简单,大家理解要领即可。
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “?”“”等问题热议不断。
事实上,
继等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
不如成为「」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 分享出来:包括等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
目标:了解AI大模型的基本概念、发展历程和核心原理。
内容:
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
内容:
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
内容:
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
内容:
这份 包括等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈
本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com
本文链接:http://www.xrbh.cn/tnews/3870.html