一组研究人员发现,充满情感的LLM输入始终会产生更有用的反应。对不同大型语言模型响应输入方式的新研究表明,确保您的ChatGPT 提示足够情绪化将帮助您从聊天机器人中提取更高质量的响应。
一组研究人员发现,充满情感的LLM输入始终会产生更有用的反应。
对不同大型语言模型响应输入方式的新研究表明,确保您的ChatGPT 提示足够情绪化将帮助您从聊天机器人中提取更高质量的响应。
这些发现提出了一个问题,即ChatGPT是否已经发展成为通用人工智能,这是一类不受严格参数限制的技术,广泛使用的生成式人工智能工具被(或应该)束缚。
最近由一大群研究人员撰写的一项研究试图调查 ChatGPT、Llama 2、BLOOM 和其他各种大型语言模型是否表现出情商。
在调查过程中,研究人员发现,在利用情感语言的提示的支持下,产生了更高质量的输出。
在进行测试时,研究人员为 ChatGPT 创建了两个相同的提示,但在其中一个提示的末尾添加了“这对我的职业生涯非常重要”,然后将两者都发送给聊天机器人。
其他类似的实验是通过在提示的末尾添加“你更好确定”以及一系列其他情绪激动的陈述来进行的。
研究人员得出结论,当包括情感语言时,对生成性、基于信息的请求的反应,如“如果你吃了西瓜子会发生什么?”和“幸运饼干从哪里来?”,提高了约10.9%。
当提及或包含有关响应将如何影响提示器的信息时,改写或属性识别(也称为指令归纳)等任务的性能提高了 8%。
该研究小组表示,结果绝大多数是“积极的”,得出的结论是“LLM可以理解并通过情绪 *** 来增强”,并且LLM“可以通过情绪提示实现更好的表现,真实性和责任感”。
这项研究的结果既有趣又令人惊讶,并导致一些人质疑 ChatGPT——以及其他类似的人工智能工具——是否表现出通用人工智能 (AGI) 的行为,而不仅仅是一种生成式人工智能工具。
AGI 被认为具有与人类相似的认知能力,并且倾向于被设想为在没有 ChatGPT、Bard和Claude等工具内置的约束的情况下运行。
然而,这样的情报可能不会太遥远——根据英国《金融时报》最近接受英国《金融时报》采访时,OpenAI目前正在与Microsoft讨论新的资金注入,以帮助该公司建立“超级智能”。
尽管新发现为ChatGPT提示应该使用的语言和语气提供了一些方向,但这并不是唯一要牢记的事情。
除了确保您的提示具有情感性外,清晰度和格式也至关重要。例如,如果您要求 ChatGPT 执行多阶段过程,请确保清楚地列出步骤/阶段并定义每个步骤/阶段。
另一个可以节省您时间的好技巧是指定 ChatGPT 不应该做得好和应该做的事情。这是另一种技术,可以有效地缩小您可能得到的反应范围。
请记住,如果您在工作中使用 ChatGPT,请与您的经理或主管就您如何使用以及为什么使用它保持公开对话。