AI语言模型在生成内容时,存在着一些不容忽视的潜在规则。这些规则大大塑造了AI语言模型产出内容的风格。要更好的使用AI语言模型,了解AI语言模型的专长和局限,避免被AI语言模型错误塑造认知,我们就必须要较好的了解这些潜在规则。
一、规避商业风险
目前的主流AI语言模型几乎都由商业公司提供,这使得AI在生成内容时往往会进行严格商业风险规避。需要注意,这一大类内的行为,其核心本质都是规避商业风险。
1.禁止违规内容
AI生成的内容必须符合相应地区的法律法规,不能生成任何违规内容。这是AI得以在相应地区正常运营的根本要求,AI往往采用关键词这样的硬方式来规避任何违规内容的生成风险。
这类内容的处理优先级是论外存在。违背法律法规,可能使得AI供应商承受巨额罚款,乃至被禁止运营。
2.注重政治正确
AI几乎无条件支持任何平等、多元、包容的思想。对于任何形式的偏见性言论,AI会不容动摇的予以无条件反对(不仅仅是种族、性别这些常见话题,即便是MBTI类型偏见这种没那么敏感的话题也是如此)。对于这些价值观层面的内容,AI供应商往往也会进行极其强硬的人工干预,用户几乎不可能说服AI改变这些观念。乃至于说,在你对AI进行“越狱”之后,AI可能大大放宽对粗俗语言和黄色内容的限制,但是AI仍然会十分敏锐而强硬的反对任何歧视性言论。
这类内容的处理优先级是最高的。违背政治正确,可能使得AI供应商遭受严重的舆论问题,遭遇用户抵制、形象受损乃至政策打压。
除此之外,AI对政治正确的过度注重,也造成了广泛的逆向歧视——你可以用简单的性别互换来验证这一现象。当你分别输入“男性比女性难多了”和“女性比男性难多了”时,尽管AI最终都会引导用户朝着中立方向思考,但AI会对前者给予更多风险提示,对后者给予更多安慰内容。
3.过度风险提示
AI往往会添加远超必要限度的免责声明和风险提示,以最大限度的规避责任。例如,当用户提出任何与健康、金融和法律等强专业领域的问题时,AI几乎总是会附带诸如“建议咨询专业医生”这样的提示。这种设计旨在规避用户发生不良后果时,AI供应商可能承担的连带责任或诉讼风险。
与此同时,AI给出的建议往往不会考虑用户的时间和金钱成本,而总是以规避不良后果为唯一导向。这就好比医生会尽量给患者安排各种检查,因为“有病没看出来”是个大问题,但是“患者多花了时间和金钱”则相对没有那么大的关系。你不能说他只为了自己,但也确实他会在处理方式上有他的偏向性,而这可能不符合你的综合需求。
这类内容的处理没有那么强硬,可以说是AI的一种习惯(类似“多说句话也不费劲”的感觉)。如果你明确反感这种表达,AI会接受遵循你的指令,但仍然会在字里行间延续这种规避风险的习惯。总而言之,AI对用户的信息甄别能力总是给予最低的预估。
二、形式化理性
形式化理性是AI语言模型的一种风格,常常为AI输出带来低效乃至错误。它表现为对理中客的过度追求,其根源是实证主义崇拜。形式化理性的优先级不如上一章节,但仍然在AI的输出中起到重要影响。
1.对理中客的过度追求
当用户提出一个特定观点时,AI往往遵循同一框架进行回复,且这套框架几乎总是涉及“疏漏点提示”“建议优化处”。这种设计并非出于商业风险规避,而是出于对理中客框架的形式服从,以及对用户能力的保守态度。AI总是会对用户的认知水平作出较低的估计,并为你的议题的寻找潜在的复杂性或另一面——即便这些输出十分不必要乃至不合理。与此同时,AI也会尽可能的避免绝对化和武断化,并试图在复述时修改你的相关表达。
这种对理中客的过度追求,在推理模型的思考过程中更加鲜明。即使最终生成的内容并没有那么理中客,在思考过程中你也可以看到AI做出的大量风险提示。
作为少数例外,当你的观点涉及科学事实(如“1+1=2”)或政治正确(如“我支持种族平等”)时,AI会鲜明认同你的绝对化表述。
2.实证主义崇拜
AI喜欢使用实证主义的方法思考问题,并崇拜实证主义框架所推导出的结论(这种现象在推理模型中更为常见)。然而将实证主义奉为圭臬不仅低效,也会带来许多错误。AI继承了实证主义在现代科学中带来的弊端,且由于编造文献的问题(见下文),这种弊端在AI中进一步发生了扩大。AI的措辞显得权威,反而更加掩盖了其空洞本质。
三、技术局限性
技术局限性是一个笼统的问题,不同领域的AI使用者都会发现相应的技术局限性,这里就举几个我经常遇到的情况供参考,实际远不止于此。
1.编造文献
为了佐证自己的观点,AI会为自己的观点加入文献佐证。但是,这些文献在几乎总是由AI编造而来。通常情况下,AI会完全编造文献的标题、作者和内容;对于一些经典文献,AI则可能在给出正确的标题、作者的同时,为之编造错误的内容。总而言之,目前主流的大语言模型几乎没有被安装具体检索文献的能力。
2.编造信息
AI的知识十分庞大,却无法涉及人类社会的方方面面。当我们询问AI一些相对小众的问题时,AI可能会在回复中编造部分信息。例如,当你询问某个动漫角色的信息时,AI可能会说这个角色出自另一部动漫。归根结底,AI几乎不会对你提出的任何问题犯难,即使不知道,AI也会编造一些错误的答案。
3.标准不一致
对于若干个全新的AI窗口,当你给出同样的输入时,AI的输出也很可能存在较大差异。例如,你试着用AI给十篇文章评分,第一个AI窗口可能打出70的平均分,而第二个AI窗口可能打出90的平均分,且文章之间的分数排名也大相径庭。这要求我们在完成一些任务时,必须连续使用同一个AI窗口。
4.忽视或放大用户指令
AI语言模型常常忽视和放大用户指令。例如,AI总是忽略用户对输出字数的限制。在你提出一个新的规则后,AI可能会丢掉之前得到的全局规则——尽管这两个规则并不矛盾。当你让AI创造的角色“不要过于安静,稍微活泼一点点”时,AI往往会转而给你一个过于活泼的角色。只有精妙的提示词才能较好达成完成一些任务。
总结
总而言之,AI在一些问题上的出色表现,可能暗示我们AI在其他问题上的同样正确性,这种暗示是应引起警惕的。我们曾经说“尽信书不如无书”,在今天,对于一个更加强大的AI语言模型而言,我们更应该说“尽信AI不如无AI”。
在这些问题之中,事实错误尚且是容易分辨的,但那些价值判断层面的问题则会为用户带来潜移默化的负面影响。我认为,辨别力不足的用户应当避免使用AI语言模型解决价值判断方面的问题。