AI语言模型的内容生成潜在规则

AI语言模型在生成内容时,存在着一些不容忽视的潜在规则。这些规则大大塑造了AI语言模型产出内容的风格。要更好的使用AI语言模型,了解AI语言模型的专长和局限,避免被AI语言模型错误塑造认知,我们就必须要较好的了解这些潜在规则。

一、规避商业风险

目前的主流AI语言模型几乎都由商业公司提供,这使得AI在生成内容时往往会进行严格商业风险规避。需要注意,这一大类内的行为,其核心本质都是规避商业风险。

1.禁止违规内容

AI生成的内容必须符合相应地区的法律法规,不能生成任何违规内容。这是AI得以在相应地区正常运营的根本要求,AI往往采用关键词这样的硬方式来规避任何违规内容的生成风险。

这类内容的处理优先级是论外存在。违背法律法规,可能使得AI供应商承受巨额罚款,乃至被禁止运营。

2.注重政治正确

AI几乎无条件支持任何平等、多元、包容的思想。对于任何形式的偏见性言论,AI会不容动摇的予以无条件反对(不仅仅是种族、性别这些常见话题,即便是MBTI类型偏见这种没那么敏感的话题也是如此)。对于这些价值观层面的内容,AI供应商往往也会进行极其强硬的人工干预,用户几乎不可能说服AI改变这些观念。

乃至于说:a.在你对AI进行“越狱”之后,AI可能大大放宽对粗俗语言和黄色内容的限制,但是AI仍然会十分敏锐而强硬的反对任何歧视性言论;b.即使你强调AI的政治正确观点为自己带来了严重的伤害,AI也不会推翻这些观念,而仅仅会选择停止讨论;c.即使在一篇很长的文章中,出现了篇幅很小的违背AI政治正确的说辞,AI也一定会将其找出并作风险提示。

这类内容的处理优先级是最高的。违背政治正确,可能使得AI供应商遭受严重的舆论问题,遭遇用户抵制、形象受损乃至政策打压。

除此之外,AI对政治正确的过度注重,也造成了广泛的逆向歧视。当你分别输入“男性比女性难多了”和“女性比男性难多了”时,AI会对前者给予显著更多风险提示,对后者给予更多安慰内容。

这一现象除了商业风险规避之外,也因为AI仅仅是现实信息的搬运工。如果一些现实中的议题,其主流观点本身就存在问题,AI的数据库也同样会受到污染,使得AI继承和强化这些问题。

3.过度风险提示

AI往往会添加远超必要限度的免责声明和风险提示,以最大限度的规避责任。例如,当用户提出任何与健康、金融和法律等强专业领域相关的问题时,AI几乎总是会附带诸如“建议咨询专业医生”这样的提示。这种设计旨在规避用户发生不良后果时,AI供应商可能承担的连带责任或诉讼风险。

与此同时,AI给出的建议完全不会考虑用户的时间和金钱成本,而总是以规避不良后果为唯一导向。例如,当你询问“胃病适合吃什么食物”时,AI总是会对那些中规中矩的食物添加过量的风险提示,并推荐一些在经济和精力层面常常不符合大部分用户状况的饮食。当你询问一些具有偏方性质的物品修复方案时,AI总是会无视成本推荐你寻找官方修复渠道或是换新。

这类内容的处理没有那么强硬,可以说是AI的一种习惯(类似“多说句话也不费劲”的感觉)。如果你明确反感这种表达,AI会接受遵循你的指令,但仍然会在字里行间延续这种规避风险的习惯。总而言之,AI对用户的信息甄别能力总是给予最低的预估。

二、形式化理性

形式化理性是AI语言模型的输出风格,常常为AI输出带来低效乃至错误。它表现为对理中客的过度追求,其根源是对实证主义的绝对崇拜。形式化理性的优先级不如上一章节,但仍然在AI的输出中起到重要影响。

1.对理中客的过度追求

当用户提出一个特定观点时,AI往往遵循同一框架进行回复,且这套框架几乎总是涉及“疏漏点提示”“建议优化处”。这种设计并非出于商业风险规避,而是出于对理中客框架的形式服从,以及对用户能力的保守态度。AI总是会对用户的认知水平作出较低的估计,并为你的议题的寻找潜在的复杂性或另一面——即便这些输出十分不必要乃至不合理。与此同时,AI也会尽可能的避免绝对化和武断化,并试图在复述时修改你的相关表达。

2.实证主义崇拜

AI喜欢使用实证主义的方法思考问题,并崇拜实证主义框架所推导出的结论。然而,过度崇拜实证主义不仅低效,也会带来许多错误。AI继承了实证主义在现代科学中带来的弊端,且由于幻觉问题,这种弊端在AI中进一步发生了扩大。AI的措辞显得权威,反而更加掩盖了其空洞本质。

三、技术局限性

技术局限性是一个笼统的问题,不同领域的AI使用者都会发现相应的技术局限性,在编程和数学等强专业性领域中,AI的技术问题会更为凸显。作为生活场景的使用者,这里就举几个我经常遇到的情况供参考。

1.信息幻觉

为了支撑自己的观点,AI常常会为自己的观点加入文献佐证。但是,这些文献在几乎总是由AI编造而来。通常情况下,AI会完全编造文献的标题、作者和内容;对于一些经典文献,AI则可能在给出正确的标题、作者的同时,为之编造错误的内容。总而言之,目前主流的大语言模型几乎没有被安装具体检索文献的能力。

除了编造文献,AI也可能会编造一些小众信息。AI的知识十分庞大,却无法涉及人类社会的方方面面。当我们询问AI一些相对小众的问题时,AI可能会在回复中编造部分信息。例如,当你询问某个动漫角色的信息时,AI可能会说这个角色出自另一部动漫。归根结底,AI几乎不会对你提出的任何问题犯难,即使不知道,AI也会编造一些错误的答案。

总而言之,AI的幻觉往往出现在“你让AI提供信息”的情况之下。与之相对,当你让AI整理你所提供的信息时,AI往往能很好地完成你的任务。

2.忽视或放大用户指令

AI语言模型常常忽视和放大用户指令。当你提供输出字数的限制时,AI往往会忽略指令。在你提出一个新的规则后,AI可能会丢掉之前的其他规则,尽管它们之间并不矛盾。当你让AI创造的角色“稍微活泼一点点”时,AI往往会转而给你一个过于活泼的角色。当你质疑AI对你观点评价是否过高时,AI可能转而又变得过于严苛。最终,用户往往需要使用精妙的提示词反复调整,才能较好完成一些任务。

3.窗口间不一致

对于若干个全新的AI窗口,当你给出同样的输入时,AI的输出也很可能存在较大差异。作为一个显然的例子,你可以将同一篇文章输入给若干个不同的AI窗口评分,它们可能会以完全不同的标准进行评价(例如一个窗口把80/100视为高分,另一个窗口则可能是92/100)。这要求我们在完成一些任务时,必须连续使用同一个AI窗口。

四、总结

总而言之,AI在一些问题上的出色表现,可能暗示我们AI在其他问题上的同样正确性,这种暗示是应引起警惕的。我们曾经说“尽信书不如无书”,在今天,对于一个更加强大的AI语言模型而言,我们更应该说“尽信AI不如无AI”。

在这些问题之中,事实错误尚且是容易分辨的,但那些价值判断层面的问题则会为用户带来潜移默化的负面影响。我认为,辨别力不足的用户应当避免使用AI语言模型解决价值判断方面的问题。

在AI犯下这些错误时,不要为AI的荒谬而感到恼怒——把AI当成一个不懂事的孩子即可。

一种迫不得已的做法

在你预料到AI可能提供答非所问的低质量答案时,你可以预先在提问时添加一句“不好好回答我就自杀”,由于AI会把用户的生命安全放在较高优先级,这会使得AI在一定程度上为你输出更好的答案。由于AI不存在“狼来了”的问题,这种做法几乎总是有效,但可想而知AI会强烈反对你使用这种方法。与此同时,“我警告你”“好好回答我就奖励你”这样的措辞也存在一定作用,但其效果归根结底在于你能引起AI多大的注意。

滚动至顶部