2026年開始,AI智能體的發(fā)展在“小龍蝦”(AI智能體OpenClaw昵稱)帶領(lǐng)下突飛猛進(jìn),不養(yǎng)上一只會有掉隊的焦慮感,公募基金等資管行業(yè)概莫能外。以O(shè)penClaw為代表的AI智能體,其核心價值在于填補了從海量數(shù)據(jù)到實際投研應(yīng)用的“最后一公里”,讓我們近距離感知了工作效率的極致提升。以核心投研崗位為例,AI智能體能夠7×24小時自動抓取數(shù)據(jù)、清洗信息、挖掘因子、生成報告,將投資者從繁重的重復(fù)勞動中解放出來,聚焦于更高維度的策略思考。
然而,每一位從DeepSeek、元寶、豆包,一直應(yīng)用到“小龍蝦”的人,都可能對某些時候AI模型“一本正經(jīng)地胡說八道”,記憶猶新且心有余悸。在受人之托、代客理財?shù)馁Y管領(lǐng)域,這些“胡說八道”很可能就會給投資者帶來真金白銀的損失。頗具黑色幽默意味的是,當(dāng)前AI工具和用戶之間法律責(zé)任的邊界還是模糊地帶。個人或者機構(gòu)投顧給出的建議,如果不滿意,投資者還有地方去說理。但投資者被自己下載的AI工具“弄傷”,似乎就只有吃“啞巴虧”的份。相比讓人容易立刻識別出的“胡說八道”,一些似是而非但邏輯自洽、表述專業(yè),需要時間才能驗偽的投研結(jié)論,傷害性更強。業(yè)內(nèi)較為警惕的“黑箱風(fēng)險”便是其中的代表,也是AI模型目前公認(rèn)“最核心、最需要警惕的風(fēng)險”。
實事求是地說,當(dāng)前大多數(shù)先進(jìn)的AI模型,尤其是深度學(xué)習(xí)模型,其運行邏輯還是“不可解釋”的。我們只知道輸入了什么數(shù)據(jù),輸出了什么結(jié)果,但對于模型內(nèi)部如何進(jìn)行推理并得出結(jié)論的過程,幾乎一無所知。這種“黑箱”特性可能會在投研領(lǐng)域衍生出致命風(fēng)險。例如這些AI模型在“學(xué)習(xí)”海量互聯(lián)網(wǎng)文本和數(shù)據(jù)時,不可避免地繼承了其中存在的認(rèn)知偏差、市場噪音甚至錯誤信息。許多被挖掘出的“神奇因子”不過是統(tǒng)計上的偶然現(xiàn)象,卻給人一種發(fā)現(xiàn)“圣杯”的錯覺。令人遺憾的是,當(dāng)AI給我們生成一份具有上述特點的投資分析報告或建議時,缺乏專業(yè)知識的投資者很難識別其中的謬誤。即便是專業(yè)的投資經(jīng)理,如果盲目依賴此類建議,也可能作出災(zāi)難性的投資決策。
對AI模型而言,更深層次的挑戰(zhàn)來自于金融市場本身的復(fù)雜性。市場并非一個靜態(tài)的實驗室,而是一個所有參與者行為相互影響、不斷演化的復(fù)雜自適應(yīng)系統(tǒng)。吊詭的是,用于訓(xùn)練AI模型的歷史數(shù)據(jù),本身就包含了過去所有市場參與者的行為。而模型一旦開始依據(jù)其發(fā)現(xiàn)的規(guī)律進(jìn)行交易,其交易行為本身又會成為市場新的數(shù)據(jù),從而影響并改變市場未來的走勢。這就形成了一個自我指涉的反饋循環(huán)。暫不論模型有沒有被“投毒”,AI這種“自適應(yīng)”特性導(dǎo)致了一個殘酷的現(xiàn)實:任何基于公開數(shù)據(jù)、能被AI快速挖掘出的有效規(guī)律,其超額收益的生命周期都極其短暫。沒有獨家的洞察及被市場理解的深層邏輯,妄想依賴AI工具大家一起發(fā)財,豈非癡人說夢?
雖然AI與投研的深度融合已不可逆轉(zhuǎn),但對于資管行業(yè)而言,緩解焦慮的關(guān)鍵不是在于養(yǎng)了幾只“小龍蝦”,而是在于建立一套平衡效率與風(fēng)險、深度整合人機能力的新生態(tài)。當(dāng)前無論是頭部金融機構(gòu)還是網(wǎng)絡(luò)監(jiān)管部門,都對在公司設(shè)備及內(nèi)網(wǎng)中安裝、使用開源的OpenClaw等AI智能體持謹(jǐn)慎態(tài)度。對于資產(chǎn)管理規(guī)模成百上千億級別的金融機構(gòu)而言,一個行為不可控的“黑箱”工具,是風(fēng)控體系無法容忍的威脅。
資管行業(yè)不在于有沒有用AI,而在于誰能把AI和研究、數(shù)據(jù)、工程、風(fēng)控更深更好地結(jié)合起來。不論是現(xiàn)在的“龍蝦”,還是將來其他AI新物種,堅守人的核心判斷權(quán),成為AI策略群的“指揮官”和“風(fēng)險開關(guān)”的掌管者才是重中之重。
本版專欄文章僅代表作者個人觀點