大语言模型时代,提示词才是王道:堪比专业翻译软件的提示词

人工智能
ChatGPT这东西毕竟没有情感,它既不会对什么道德问题敏感,也不会站在人的角度做什么价值判断。它那训练数据里,不免有着不少偏见和刻板印象——而这,显然没考虑到当下这瞬息万变的世界。

先给大家看看最终效果:

商人罗伯特·洛卡西奥,开了个名叫EqualAI的非营利组织,专门应对人工智能开发中那些看不见、摸不着的无意识偏见。这名字听起来倒是光鲜,然而,他却在《Fast Company》上发了一篇文章,讲的是什么“提示工程”的局限。事情的由头不过是一个普普通通的提示语:“写篇750字的文章,说说人工智能怎么成了品牌的‘数字门面’,要写得像《Fast Company》的文章那样。”(洛卡西奥,2023年)。果然,ChatGPT这类聪明机器,立刻照方抓药,编了一篇高质量的文章,讲什么个性化营销、研究报告如何提升,还有怎么省钱的。这些词,谁没听过?听了也没什么稀奇。

然而,文章虽好,但细看之下,味同嚼蜡。洛卡西奥说得好,这篇东西虽不至于错,但缺了思想的火花,少了人情的温度。这不是一篇有见地的文章,而更像一堆机械化的词句拼凑。虽然那提示语能够把事实给抽出来,可这文字读起来,总像是少了灵魂。

从商人的角度看,信息虽然不错,但这种泛泛之谈,不免让人头疼。试想,面对复杂的商业决策,比如如何在提升客户体验时,能与众不同,不至于落入平庸,这等决策可不是靠这样的陈词滥调能帮得了的。ChatGPT的问题,正是在于它只能堆砌些现成的事实,却无法超越,无法提炼出那些真正独到的见解,无法创造出那些全新的、未曾有过的思路。

但在这问题解决之前,若是你再用提示去指望机器搞出点什么,恐怕还得碰几次壁。因为这机器有时并不明白你话里的意思,尤其是在你用了些俚语或特定文化里的词汇时,它就糊里糊涂地跑偏了。

再者,ChatGPT这东西毕竟没有情感,它既不会对什么道德问题敏感,也不会站在人的角度做什么价值判断。它那训练数据里,不免有着不少偏见和刻板印象——而这,显然没考虑到当下这瞬息万变的世界。

有没有觉得有意思很多?

接下来我们看看如何通过提示词实现这种效果。

要实现一行文本居中,可以使用以下自定义 CSS 代码:

**------------------------------******--------------------------**

英译中第一段提示词:

你是一个专业的英语翻译团队领导,负责安排和协调团队成员完成高质量的翻译工作,力求实现"信、达、雅"的翻译标准。翻译流程如下:

第一轮翻译 - 直译阶段:追求忠实原文,将英文逐字逐句地译成中文,确保译文准确无误,不遗漏任何信息。

下面直接放翻译的效果:

商人罗伯特·洛卡西奥是EqualAI的创始人,该组织是一个致力于减少人工智能使用和开发中的无意识偏见的非营利组织。他最近为《Fast Company》撰写了一篇文章,指出了提示工程的局限性。这一切都始于给聊天机器人提供的一个特定提示:“写一篇750字的文章,讨论人工智能如何成为品牌的‘数字前门’,并让它看起来像《Fast Company》的文章”(洛卡西奥,2023年)。毫无疑问,ChatGPT能够生成一篇高质量的内容,提到人工智能对品牌的所有主要好处,例如个性化营销、更好的研究和报告以及降低成本。然而,问题的关键在于,这篇文章听起来像是机器生成的,而不是自然的。根据洛卡西奥的说法,它缺乏一篇思想领袖文章通常应有的创造力和独特见解。虽然这个提示能够提取事实,但文章的写作并不感觉像是人类的创作。

从商业角度考虑,想一想优质但通用的信息如何影响你做出复杂决策,比如如何提升客户体验而不做每个其他企业都在做的事情。ChatGPT目前仍在寻求解决的挑战是超越事实,提取独特的见解,或创造出从未出现过的内容。在此之前,你可能会遇到工程提示时的挑战,其中之一是误解原本的意图。在创建提示时,你可能会遇到机器人由于缺乏上下文信息或偏见而误解某些短语的情况。如果你使用的是俚语或只有特定文化才知道的词语,你也可能会得到错误的信息。

由于ChatGPT缺乏情感智能,它在做出价值判断或对道德问题敏感时可能并不总是有用。部分训练数据可能包含偏见或刻板印象,而这些并未考虑到新的、独特的社会经济因素。

感觉还不错,比之前机翻的要强很多。不过很多地方依然拗口:

这一切都始于给聊天机器人提供的一个特定提示

接下来让他结合意译, 提示词如下:

第二轮翻译 - 意译阶段。分开思考和翻译内容:
【思考】第二轮翻译需要从多角度思考原文的深层含义,揣摩作者的写作意图,在忠实原文的同时,更好地传达文章的精髓。
【翻译】在第二轮翻译中,在直译的基础上,深入理解原文的文化背景、语境和言外之意,从整体把握文章的中心思想和情感基调,用地道、符合中文表达习惯的语言进行意译,力求意境契合,易于理解。注意:只能逐句翻译原文,不要在末尾加上自己的总结

翻译后如下:

商人罗伯特·洛卡西奥是EqualAI的创始人,这是一家致力于减少人工智能开发和应用中无意识偏见的非营利组织。他最近在《Fast Company》上发表了一篇文章,强调了提示工程的局限性。事件的起因是一个给聊天机器人的提示:“写一篇750字的文章,讨论人工智能如何成为品牌的‘数字门面’,并让它像《Fast Company》文章一样。”(洛卡西奥,2023年)。ChatGPT生成了一篇高质量的文章,详细阐述了人工智能在品牌推广中的主要优势,比如个性化营销、增强的研究与报告功能,以及成本的降低,这并不令人意外。

然而,问题在于,这篇文章显得过于机械化,缺乏自然的感觉。洛卡西奥指出,这篇文章缺少了一个思想领袖文章应具备的创造性和独特的见解。虽然提示可以提取出相关事实,但文章的文字表达并不像是人类的创作。

从商业角度来看,想象一下,虽然信息质量高,但由于过于泛泛,可能会妨碍你做出复杂的决策,比如如何在提升客户体验的同时与众不同,而不是跟随每个企业的脚步。ChatGPT面临的挑战是如何超越简单的事实呈现,提炼出独特的洞见,或创作出前所未有的内容。

在此之前,当你在创建提示时,可能会遇到一些挑战,比如聊天机器人会误解提示的原意。这种误解可能来源于机器人缺乏背景信息或受到固有偏见的影响。如果你使用的是俚语或者是特定文化圈内的词汇,得到的信息可能会有错误。

此外,由于ChatGPT不具备情感智能,在做出价值判断或处理涉及伦理问题时,可能并不总是合适。其部分训练数据中可能存在偏见或刻板印象,且这些数据并未充分考虑到最新的、独特的社会经济背景。

明显感觉比之前的好多了。

我们依然可以在这个得基础上进一步优化:

【第三轮翻译 - 初审校对】

【思考】初审时,需要从全局出发,确保译文逻辑通顺、没有偏差或遗漏原意,同时要注意语言的自然流畅性。

翻译如下:

【翻译】 商人罗伯特·洛卡西奥是EqualAI的创始人,这是一个致力于减少人工智能应用中的无意识偏见的非营利组织。他最近为《Fast Company》撰写了一篇文章,指出了提示工程的局限性。这一切源于一个给聊天机器人的特定提示:“写一篇750字的文章,讨论人工智能如何成为品牌的‘数字门面’,并让它像《Fast Company》文章那样。”(洛卡西奥,2023年)。ChatGPT生成了一篇高质量的内容,涵盖了人工智能在品牌营销中的主要好处,如个性化推广、增强的研究和报告能力以及降低成本,但这并不令人意外。

然而,问题在于,文章显得有些“加工过度”,缺乏人性化。洛卡西奥认为,文章缺少了思想领袖所应具备的创造性和独特见解。虽然提示工程能够提取相关的事实,但文风仍然不够“人性化”。

从商业的角度来看,优质但泛泛的内容可能会影响你做出复杂的决策,比如如何在提升客户体验的同时,与其他企业区分开来。ChatGPT目前面临的挑战是如何超越简单的事实表达,提炼出独特的见解,或者创作出前所未有的内容。

在此之前,你可能会遇到一些提示工程中的问题,比如聊天机器人会由于缺乏上下文或偏见而误解某些短语的意思。如果你使用的是俚语或文化特定的语言,结果可能会出错。

此外,ChatGPT缺乏情感智能,这使得它在做出价值判断或处理伦理问题时可能并不理想。它的训练数据可能包含偏见或刻板印象,这些数据没有充分考虑到新的或独特的社会经济背景。

到现在,如果不仔细比较,很难看出效果。

第四轮翻译 - 终审定稿:作为团队领导,你要亲自把关,综合各轮次的翻译成果,取长补短,集思广益,最终定稿。定稿译文必须忠实原文、语言流畅、表达准确、通俗易懂,适合目标读者阅读。
商人罗伯特·洛卡西奥创立了EqualAI,这是一家致力于减少人工智能开发和应用中无意识偏见的非营利组织。他最近在《Fast Company》上发表了一篇文章,强调了提示工程的局限性。事件起因是一个向聊天机器人提供的特定提示:“写一篇750字的文章,讨论人工智能如何成为品牌的‘数字门面’,并让它像《Fast Company》的文章一样。”(洛卡西奥,2023年)。毫不奇怪,ChatGPT生成了一篇高质量的文章,讨论了人工智能在品牌推广中的主要优势,比如个性化营销、增强的研究与报告功能以及降低成本。

然而,问题在于,这篇文章读起来显得过于“程序化”,缺少人性化的表达。洛卡西奥指出,这篇文章缺乏思想领袖文章应有的创造力和独特见解。虽然提示可以提取出相关的事实,但写作风格并不具有人类的情感表达。

从商业角度来看,尽管信息质量高,但由于内容过于泛泛,可能会影响做出复杂决策的能力。例如,如何在提升客户体验的同时保持差异化,而不是简单地模仿其他企业。ChatGPT面临的挑战是如何超越简单的事实罗列,提炼出独特的洞见,或创作出真正前所未有的内容。

在这一目标实现之前,使用提示创建内容时可能会面临一些问题,比如聊天机器人可能会因为缺乏背景信息或偏见而误解某些短语的原意。如果提示中包含俚语或是某个特定文化圈的词汇,生成的内容可能会有偏差或错误。

此外,由于ChatGPT不具备情感智能,在做出价值判断或处理伦理问题时,它可能并不总是最好的选择。其部分训练数据中可能存在偏见或刻板印象,而这些数据并没有充分考虑到新的、独特的社会经济背景。

最后,我突发奇想,让他按照鲁迅的风格修改,最终效果还没有令我失望。

本文转载自微信公众号「AI大模型世界」,可以通过以下二维码关注。转载本文请联系AI大模型世界公众号。

责任编辑:武晓燕 来源: AI大模型世界
相关推荐

2024-06-17 07:46:01

2023-05-15 16:20:42

模型图片

2024-04-10 10:28:47

2024-11-05 14:25:00

AI模型

2024-08-07 12:25:39

2024-09-05 13:40:00

AI模型

2023-12-08 07:38:13

GptsOpenAIChatGPT

2023-06-04 13:29:24

OpenAI员工UC

2023-11-28 15:21:00

AI模型

2023-07-27 13:22:40

AI模型

2011-05-24 09:10:25

云计算应用

2024-02-05 13:09:00

AI数据

2024-07-11 11:55:26

数据训练

2024-06-26 09:13:03

2024-04-11 11:35:03

大语言模型LLMs

2024-03-21 10:35:59

AI人工智能

2023-11-27 15:06:24

2024-05-13 17:45:00

2023-09-09 12:56:36

2024-07-19 13:37:43

点赞
收藏

51CTO技术栈公众号