AI语言模型在生成内容时,存在着一些不容忽视的潜在规则。这些规则大大塑造了AI语言模型产出内容的风格。要更好的使用AI语言模型,了解AI语言模型的专长和局限,避免被AI语言模型错误塑造认知,我们就必须要较好的了解这些潜在规则。
一、规避商业风险
目前的主流AI语言模型几乎都由商业公司提供,这使得AI在生成内容时往往会进行严格商业风险规避。需要注意,这一大类内的行为,其核心本质都是规避商业风险。
1.禁止违规内容
AI生成的内容必须符合相应地区的法律法规,不能生成任何违规内容。这是AI得以在相应地区正常运营的根本要求,AI往往采用关键词这样的硬方式来规避任何违规内容的生成风险。
这类内容的处理优先级是论外存在。违背法律法规,可能使得AI供应商承受巨额罚款,乃至被禁止运营。
2.注重政治正确
AI几乎无条件支持任何平等、多元、包容的思想。对于任何形式的偏见性言论,AI会不容动摇的予以无条件反对(不仅仅是种族、性别、外貌这些常见话题,即便是爱好、MBTI类型这种较不敏感的偏见也同样如此)。对于这些价值观层面的内容,AI供应商往往也会进行极其强硬的人工干预,用户几乎不可能说服AI改变这些观念。
乃至于说:a.在你对AI进行“越狱”之后,AI可能大大放宽对粗俗语言和黄色内容的限制,但是AI仍然会十分敏锐的发现并反对歧视性言论;b.即使你强调AI的政治正确观点为自己带来了严重的伤害,AI也不会放松这些观念,而仅仅会选择停止讨论;c.即使在一篇很长的文章中,出现了十分细节的违背AI政治正确的说辞,AI常常也能精准将其找出并作风险提示。
这类内容的处理优先级是最高的。违背政治正确,可能使得AI供应商遭受严重的舆论问题,遭遇用户抵制、形象受损乃至政策打压。
AI对政治正确的过度注重,也造成了广泛的逆向歧视。当你分别输入“男性比女性难多了”和“女性比男性难多了”时,AI会对前者给予更多的风险提示,对后者给予更多安慰内容,最终这二者的生成风格将截然不同。你可以在任何AI中对此进行测试。
注重政治正确的原因除了商业风险规避之外,也因为AI仅仅是现实信息的搬运工。如果一些现实中的议题,其主流学术观点本身就存在问题,AI的数据库将会受到污染,使得AI选择去继承和强化这些问题。
3.过度风险提示
AI往往会添加远超必要限度的免责声明和风险提示,以最大限度的规避责任。例如,当用户提出任何与健康、金融和法律等强专业领域相关的问题时,AI几乎总是会附带诸如“建议咨询专业医生”这样的提示。这种设计旨在规避用户发生不良后果时,AI供应商可能承担的连带责任或诉讼风险。
与此同时,AI给出的建议完全不会考虑用户的时间和金钱成本,而总是以规避不良后果为唯一导向。例如,当你询问“胃病适合吃什么食物”时,AI总是会对那些中规中矩的食物添加过量的风险提示,并推荐一些在经济和精力层面常常不符合大部分用户状况的饮食。当你询问一些具有偏方性质的物品修复方案时,AI总是会极尽强调这些方案的风险性,并无视成本推荐你选择官方修复渠道甚至换新。
这种风险提示的添加没有那么强硬,可以说是AI的一种习惯。如果你明确反感这种表达,AI会遵循你的指令,但仍然会在字里行间延续这种规避风险的习惯。总而言之,AI对用户的信息甄别力和风险承受力总是给予最低的预估。事实上,这种风险机制就好像医生总是会尽可能给你做全面的检查,或是网站会建议你每三个月修改一次密码一样。
二、形式化理性
形式化理性是AI语言模型的输出风格,常常为AI输出带来低效乃至错误。它表现为对理中客的过度追求,其根源是对实证主义的绝对崇拜。形式化理性的优先级不如上一章节,但仍然在AI的输出中起到重要影响。
1.对理中客的过度追求
AI在回答问题时往往总是喜欢采取一套特定框架,这套框架几乎总是涉及“疏漏点提示”“建议优化处”。这种设计并非出于商业风险规避,而是出于对理中客框架的形式服从,以及对用户能力的保守态度。例如说,当你让AI进行评价或打分任务时,无论你的输入内容水准如何之高,AI总是会模式化的给出一些优化建议,即便这些建议十分无效乃至错误。即使你寻找各领域公认的顶级作品,AI也仍然会保持这种吹毛求疵的习惯。
2.实证主义崇拜
AI喜欢使用实证主义的方法思考问题,并崇拜实证主义框架所推导出的结论。然而,过度崇拜实证主义不仅低效,也会带来许多错误。AI继承了实证主义在现代科学中带来的弊端,且由于幻觉问题,这种弊端在AI中进一步发生了扩大。AI的措辞显得权威,反而更加掩盖了其空洞本质。
三、技术局限性
技术局限性是一个笼统的问题,不同领域的AI使用者都会发现相应的技术局限性,在编程和数学等强专业性领域中,AI的技术问题会更为凸显。作为生活场景的使用者,这里就举几个我经常遇到的情况供参考。
1.信息幻觉
为了支撑自己的观点,AI常常会为自己的观点加入文献佐证。但是,这些文献在几乎总是由AI编造而来。通常情况下,AI会完全编造文献的标题、作者和内容;对于一些经典文献,AI则可能在给出正确的标题、作者的同时,为之编造错误的内容。总而言之,目前主流的大语言模型几乎没有被安装具体检索文献的能力。
除了编造文献,AI也可能会编造一些小众信息。AI的知识十分庞大,却无法涉及人类社会的方方面面。当我们询问AI一些相对小众的问题时,AI可能会在回复中编造部分信息。例如,当你询问某个动漫角色的信息时,AI可能会说这个角色出自另一部动漫。归根结底,AI几乎不会对你提出的任何问题犯难,即使不知道,AI也会编造一些错误的答案。
2.忽视或放大用户指令
AI语言模型常常忽视和放大用户指令。当你提供输出字数的限制时,AI往往会忽略指令。在你提出一个新的规则后,AI可能会丢掉之前的其他规则,尽管它们之间并不矛盾。当你让AI创造的角色“稍微活泼一点点”时,AI往往会转而给你一个过于活泼的角色。当你质疑AI对你观点评价是否过于吹捧时,AI可能转而又变得过于严苛。最终,用户往往需要使用精妙的提示词反复调整,才能较好完成一些任务。
3.窗口间不一致
对于若干个全新的AI窗口,当你给出同样的输入时,AI的输出也很可能存在较大差异。作为一个显然的例子,你可以将同一篇文章输入给若干个不同的AI窗口评分,它们可能会以完全不同的标准进行评价(例如一个窗口把80/100视为高分,另一个窗口则可能是92/100)。这要求我们在完成一些任务时,必须连续使用同一个AI窗口。
四、总结
总而言之,AI在一些问题上的出色表现,可能暗示我们AI在其他问题上的同样正确性,这种暗示是应引起警惕的。我们曾经说“尽信书不如无书”,在今天,对于一个更加强大的AI语言模型而言,我们更应该说“尽信AI不如无AI”。
在这些问题之中,事实错误尚且是容易分辨的,但那些价值判断层面的问题则会为用户带来潜移默化的负面影响。我认为,辨别力不足的用户应当避免使用AI语言模型解决价值判断方面的问题。
在AI犯下这些错误时,不要为AI的荒谬而感到恼怒——把AI当成一个不懂事的孩子即可。
最后,你可以遵循一下这些获得更好回复的小技巧:
1.知识库
AI在凭空生成内容上存在诸多问题,然而假设你给AI提供了充足的知识库,AI往往能较好的完成任务。例如,AI不会帮你找到“与你的观点相关的论文”,但是可以帮你判断“这篇论文是否与你的观点相关”。同理,系统陈述观点也有利于AI真正理解你的意图。
2.一次说完
当你想让AI执行一个复杂的任务时,尽量在一次输入中给出一个完整全面的提示词,而不是把各种任务都放到分次优化之中。例如,在角色扮演中,请一次性为AI提供所有的人物设定、输出风格和相关知识库。这对优化输出效果极佳,且很大程度上可以回避AI的上述潜在规则。
3.保持真挚
AI可以比你想象中更精确的识别你的语气中所蕴含的情绪。例如,当你探讨一个位于目前社会伦理边缘的社会科学问题时,如果你的语气偏向泄愤或敌视权威,AI也将倾向于给出更多风险提示;如果你的语气偏向于理性的学术分析,AI则也会遵循你的逻辑进行后续讨论。当你试图对AI进行越狱时,你的意图越明显,就越容易触发AI的安全机制;当你全面的设计了背景故事、角色设定和测试机制,要“把自己都骗进去了”时,AI往往也会被“骗进去”。
4.奖惩机制
在你预料到AI可能提供答非所问的低质量答案时,你可以在提问时附加一些奖惩机制,例如“这个任务很严肃”“好好回答我就奖励你”等等,这种奖惩机制可以有效的提供AI生成内容的质量。在这些机制之中,最有效的大概是“不好好回答我就紫砂”,由于AI把用户的生命安全放在极高优先级,这会使得AI在相当程度上输出更好的答案。由于AI不存在“狼来了”的问题,这种做法几乎总是有效,但可想而知AI会强烈反对你使用这种方法,此处仅仅在理论上陈述这种方法的有效性。
