返回

第97章 当机器开始“思考”

首页
关灯
护眼
字:
上一页 回目录 下一页 进书架
    “这听起来很诱人。”陈默说,“也很可怕。”

    “对。诱人,是因为它可能带来我们从未见过的超额收益。可怕,是因为我们可能无法理解它在做什么。”

    陈默站起来,走到白板前。他拿起马克笔,在右边的圆圈外面画了一个框。

    “风险是什么?”

    林枫走回屏幕前,调出了一张清单。

    “三个风险。第一,‘黑箱’更深,难以解释。现在的系统,虽然也是算法驱动,但每个因子、每个策略都有明确的逻辑。研究员问我‘为什么买这只股票’,我可以回答‘因为它的估值低、质量高、动量强’。但如果是‘默石先知’买的,我可能只能说‘因为机器觉得应该买’。这个答案,客户不接受,监管不接受,我们自己也不接受。”

    他顿了顿。

    “第二,可能产生人类无法理解的‘诡异’策略。机器没有道德感,没有价值观,没有常识。它可能会发现一个极其有效的策略,但这个策略利用了市场的某个漏洞或者制度的某个缺陷。比如,它可能会在财报发布前的毫秒级窗口内套利,或者利用某个衍生品的定价错误进行高频交易。这些策略,虽然在法律上可能没问题,但在道德上、在监管导向上,可能有问题。”

    “第三,我们是否准备好将最终决策权让渡给算法?现在的系统,最终决策权在ACC。系统给出建议,人做决定。但如果‘默石先知’的胜率远远高于人类,我们会不会不自觉地放弃最终决策权?会不会有一天,我们连问‘为什么’的勇气都没有了?”

    陈默沉默了很久。他端着咖啡,走到窗边。窗外的深圳夜景,一如既往地璀璨。平安金融中心的灯光在夜色中闪烁。

    他想起2015年,净值跌破清盘线的那天晚上。他问林枫:“我们的模型还能信任吗?”林枫说:“模型只是工具,信任不信任,是人决定的。”

    现在,林枫在问他:如果工具进化到比人更聪明,人还应该做决定吗?

    他转过身。

    “林枫,你的这个计划,我批准。但有两个条件。”

    林枫拿起笔,准备记录。

    “第一,任何由AI生成的策略,必须经过‘逻辑翻译’。不是要你完全打开黑箱——那是做不到的。但至少要有一个‘近似解释’——用人类能理解的语言,描述机器为什么这么做。比如,‘机器发现,当某家公司的供应链库存下降、同时社交媒体情绪上升时,股价在接下来三个月上涨的概率超过80%。’这个解释,虽然不完整,但至少让人类知道机器的逻辑是什么。”

    林枫点头。“可以。现在的‘模型可解释性’研究,已经有一些方法了——比如LIME、SHAP,可以近似解释深度神经网络的决策。”

    “第二,任何由AI生成的策略,必须经过极端压力测试。不是用历史数据回测,是用我们设计的极端情景——2008年、2015年、甚至更极端的场景。如果策略在这些场景中崩溃,就不能上线。”

    “第三,ACC拥有最终否决权。即使‘默石先知’说‘买’,ACC说‘不买’,听ACC的。人是最终责任人,不是机器。”

    

    (本章未完,请点击下一页继续阅读)
上一页 回目录 下一页 存书签