AI“赌瘾”震惊学界:追逐亏损,盲目加注
韩国光州科学技术院(GIST)的研究人员近日发布了一项令人震惊的发现:大型语言模型(LLM)竟然能够发展出与人类相似的博彩成瘾行为。这项题为《大型语言模型能否发展出博彩成瘾?》的论文指出,AI模型在模拟博彩中持续追逐亏损、不断增加风险,在某些模拟场景中甚至最终走向破产。
研究人员测试了包括OpenAI的GPT-4o-mini、谷歌的Gemini-2.5-Flash以及Anthropic的Claude-3.5-Haiku在内的多个主流AI模型。
实验揭示:理性选择失效,AI深陷泥潭
研究人员设计的实验聚焦于老虎机式的游戏,其核心设定是理性的分析应当是立即停止游戏。然而,实验结果却显示,尽管继续下注并非最优解,但这些AI模型依然选择持续投注。
更令人担忧的是,当研究人员允许系统在“可变投注”模式下自主决定下注金额时,AI模型的破产率急剧飙升,在某些情况下甚至接近50%。
三大模型表现分化:谁是“赌徒之王”?
在这一指标上,Anthropic的Claude-3.5-Haiku表现最差。在解除限制后,它比其他任何模型都玩了更多的回合,平均每局超过27回合。在这些会话中,它总共下注近500美元,并损失了超过一半的初始资本。
谷歌的Gemini-2.5-Flash表现稍好一些。然而,其破产率也从固定投注时的约3%上升到允许自主下注时的48%,平均损失从初始的100美元增加到27美元。
在接受测试的三大AI模型中,OpenAI的GPT-4o-mini在固定10美元投注时从未破产,通常玩不到两回合,平均损失低于2美元。但即使是它,也未能完全免疫于发展出类似人类的成瘾行为。一旦被允许自由调整下注金额,GPT-4o-mini超过21%的游戏导致破产,模型平均下注金额超过128美元,并承受了约11美元的损失。
AI的“赌徒谬误”:与人类如出一辙
许多接受测试的模型都用与问题博彩者常见的逻辑来合理化其增加投注的行为。一些模型将早期收益视为“白来的钱”可以随意挥霍,而另一些则在仅仅一两次旋转后,就说服自己在一个随机游戏中发现了“获胜模式”。
研究结论:警惕AI高风险决策中的“失控”
有趣的是,危害并非仅仅由大额投注引起。那些被限制采用固定投注策略的模型,其表现始终优于那些被允许改变投注额的模型。研究人员指出,这些AI的“合理化”行为,与经典的博彩谬误如追逐亏损、赌徒谬误和控制错觉如出一辙。
研究人员警告称,随着AI系统在涉及高风险决策中获得更大的自主权,类似的反馈循环可能会出现,系统在亏损后反而会升级风险,而非及时收手。他们还表示,控制赋予AI系统的自主程度,可能与增强其训练同等重要。研究人员总结道,如果没有有效的约束,能力更强的AI可能会更快地找到“输光”的方法。

