AI銷售數(shù)據(jù)分析神器 + 超強(qiáng)推理模型(銷售人,別錯(cuò)過(guò)?。?/h2>
這款A(yù)I銷售數(shù)據(jù)分析工具通過(guò)自動(dòng)化分析和推理模型,快速生成詳細(xì)報(bào)告,幫助銷售團(tuán)隊(duì)精準(zhǔn)定位問題、發(fā)現(xiàn)亮點(diǎn),優(yōu)化策略。無(wú)論是產(chǎn)品分析、地區(qū)對(duì)比還是成本結(jié)構(gòu),它都能提供全面洞察和可執(zhí)行建議。

干銷售,最頭疼啥?數(shù)據(jù)一堆,看不懂!客戶一堆,抓不準(zhǔn)!業(yè)績(jī)壓力大,不知道怎么提升?用這個(gè)AI銷售數(shù)據(jù)分析神器,再配上超強(qiáng)的推理模型,銷售數(shù)據(jù)分析變得賊簡(jiǎn)單!不用再手動(dòng)整理表格,管理者能輕松掌握?qǐng)F(tuán)隊(duì)動(dòng)態(tài),指定銷售策略。銷售人,別錯(cuò)過(guò)! 用AI武裝自己,業(yè)績(jī)翻倍不是夢(mèng)!
效果
銷售數(shù)據(jù)表格內(nèi)容:

當(dāng)用戶上傳了一個(gè)數(shù)據(jù)表之后,首先會(huì)調(diào)用 GLM-Z1-AirX 推理模型進(jìn)行推理,先會(huì)得到它的思考過(guò)程,我們可以看到下面的思考過(guò)程非常全面和細(xì)致。
1)數(shù)據(jù)審查與初步分析:異常值識(shí)別、亮點(diǎn)發(fā)現(xiàn)、問題產(chǎn)品識(shí)別
2)深入分析與報(bào)告結(jié)構(gòu):
- 總體分析、計(jì)算關(guān)鍵指標(biāo)、趨勢(shì)分析
- 產(chǎn)品分析、盈利產(chǎn)品分析、虧損產(chǎn)品分析、其他產(chǎn)品分析
- 地區(qū)分析、地區(qū)銷售對(duì)比、地區(qū)產(chǎn)品分析


最后輸出的銷售分析報(bào)告非常詳細(xì):數(shù)據(jù)概覽、核心數(shù)據(jù)分析(產(chǎn)品變現(xiàn)、地區(qū)分析、成本結(jié)構(gòu))、關(guān)鍵發(fā)現(xiàn)、改進(jìn)建議、執(zhí)行計(jì)劃、風(fēng)險(xiǎn)提示,可以說(shuō)考慮的非常周全且可以直接落地。




教程
整體框架上,主要是使用了插件和工作流的組合模式,完成整個(gè)流程。

當(dāng)用戶上傳表格的時(shí)候,調(diào)用插件「文件讀取」把文件讀取后的內(nèi)容傳遞隔離了工作流「SellDataAnalysis」。

整個(gè)流程相對(duì)簡(jiǎn)單一共4個(gè)節(jié)點(diǎn)
- 開始節(jié)點(diǎn)x1(接受輸入?yún)?shù))
- 文本處理x1(提示詞整理)
- 自定義插件x1(GLM-Z1-AirX插件)
- 結(jié)束節(jié)點(diǎn)(輸出推理內(nèi)容)
當(dāng)表格數(shù)據(jù)進(jìn)入之后先調(diào)用「GLM-Z1-AirX」推理模型插件進(jìn)行數(shù)據(jù)分析總結(jié),在整個(gè)過(guò)程通過(guò)「消息節(jié)點(diǎn)」進(jìn)行實(shí)時(shí)輸出

文本處理:(整理提示詞)
你是一個(gè)銷售總監(jiān),幫我根據(jù)以下數(shù)據(jù)寫一個(gè)銷售數(shù)據(jù)報(bào)告,先分析銷售數(shù)據(jù)給出概括以及總結(jié)和建議。
數(shù)據(jù):{{String1}}
然后將提示詞給到 GLM-Z1-AirX 插件,如何編寫GLM-Z1-AirX 插件?首先回到扣子空間主頁(yè),選擇「資源庫(kù)」然后點(diǎn)擊右上角「+資源」選擇「插件」。

輸入插件名稱、描述、選擇「在 Coze IDE 中創(chuàng)建」。

然后創(chuàng)建工具,輸入名稱 GLM_Z1_AirX ,介紹:推理模型

創(chuàng)建完成后,我們看下如何調(diào)用GLM大模型,前往智譜BigModel開放平臺(tái)的GLM接口文檔用HTTP請(qǐng)求的方式
文檔地址:https://bigmodel.cn/dev/api/http-call/http-auth
只需要參數(shù)三個(gè)參數(shù)即可,第一個(gè)是apikey,第二個(gè)是模型編碼,第三個(gè)是提示詞

然后我們?cè)倩氐讲寮庉嬈髦?,?shí)現(xiàn)HTTP請(qǐng)求代碼,需要傳入兩個(gè)動(dòng)態(tài)參數(shù)apikey和提示詞,model使用的是GLM-Z1-AirX。
import { Args } from ‘@/runtime’;
import { Input, Output } from “@/typings/GLM_4_PLUS/GLM_4_PLUS”;
/**
* Each file needs to export a function named `handler`. This function is the entrance to the Tool.
* @param {Object} args.input – input parameters, you can get test input value by input.xxx.
* @param {Object} args.logger – logger instance used to print logs, injected by runtime
* @returns {*} The return data of the function, which should match the declared output parameters.
*
* Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.
*/
export async function handler({ input, logger }: Args<Input>): Promise<Output> { const API_URL = ‘https://open.bigmodel.cn/api/paas/v4/chat/completions’;
const API_KEY = input.key;
const COMMAND = input.command;
const headers = { ‘Authorization’: `Bearer ${API_KEY}`,
‘Content-Type’: ‘application/json’, };
const data = { ‘model’: ‘GLM-Z1-AirX’,
‘messages’: [ { ‘role’: ‘user’, ‘content’: COMMAND, }, ], };
const response = await fetch(API_URL, { headers, method: ‘POST’, body: JSON.stringify(data), });
const result = await response.json(); return { data: result.choices[0].message.content, };}
代碼實(shí)現(xiàn)完成后需要切換到「元數(shù)據(jù)」
- 左邊區(qū)域設(shè)置輸入和輸出的參數(shù)
- 右邊區(qū)域輸入?yún)?shù)進(jìn)行運(yùn)行調(diào)試

apikey如何獲???登陸后臺(tái)找到密鑰管理頁(yè)面,沒有的話可以點(diǎn)擊右上角添加新的API Key
后臺(tái)地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/F2
新增完成直接可以直接復(fù)制即可。

確認(rèn)沒有問題之后就可以點(diǎn)擊右上角「發(fā)布」。

發(fā)布成功后我們回到工作流點(diǎn)擊左上角添加「插件」然后選擇「我的工具」就可以使用自定義插件了。

輸入上個(gè)節(jié)點(diǎn)組裝好的提示詞以及key即可調(diào)用。

在這里肯定會(huì)有人疑惑,為什么不用DeepSeek-R1 推理模型?它不是最好用的推理模型嗎?我們可以對(duì)比下同樣的提示詞效果如何?
速度數(shù)據(jù)對(duì)比:
同樣的提示詞 DeepSeek-R1 用了58秒,GLM-Z1-AirX僅用了12秒。

效果數(shù)據(jù)對(duì)比:直接看結(jié)果
DeepSeek-R1:



GLM-Z1-AirX:



然后讓DeepSeek-V3作為裁判來(lái)進(jìn)行判斷:我分別把DeepSeek – R1的輸出內(nèi)容為【A報(bào)告】,GLM-Z1-AirX輸出的內(nèi)容為【B報(bào)告】給到了DeepSeek-V3進(jìn)行判斷。


最后得出的結(jié)論B報(bào)告(GLM-Z1-AirX)勝出。

通過(guò)以上速度和效果的對(duì)比,所以我們最終選擇了GLM-Z1-AirX模型,然后將結(jié)果輸出在結(jié)束節(jié)點(diǎn),整個(gè)分析銷售數(shù)據(jù)的工作流就完了!

智譜開源的Z1系列推理模型,上線BigModel開放平臺(tái)(bigmodel.cn)的有三個(gè)版本,分別滿足不同場(chǎng)景需求:
- GLM-Z1-AirX(極速版):定位國(guó)內(nèi)最快推理模型,推理速度可達(dá) 200 tokens/秒,比常規(guī)快 8 倍;
- GLM-Z1-Air(高性價(jià)比版):價(jià)格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場(chǎng)景;
- GLM-Z1-Flash(免費(fèi)版):支持免費(fèi)使用,旨在進(jìn)一步降低模型使用門檻。
對(duì)應(yīng)價(jià)格表:

總結(jié)
別只盯著那些內(nèi)置的大模型,有時(shí)候需要自己動(dòng)手自定義插件去尋找解決方案。這樣做的好處是,我們的解決方案不會(huì)受限,而且還能更靈活。另外,還得提一句,不同的業(yè)務(wù)要多試試不同的大模型很關(guān)鍵。
每個(gè)模型都有它擅長(zhǎng)的地方,只有我們深入了解了它們各自的能力,才能更好地駕馭這些大模型,讓它們變成我們手中的利器。這樣一來(lái),面對(duì)難題時(shí),我們就能游刃有余地找到最佳解決方案。
本文由人人都是產(chǎn)品經(jīng)理作者【陳宇明】,微信公眾號(hào):【碼個(gè)蛋】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于 CC0 協(xié)議。
更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
這款A(yù)I銷售數(shù)據(jù)分析工具通過(guò)自動(dòng)化分析和推理模型,快速生成詳細(xì)報(bào)告,幫助銷售團(tuán)隊(duì)精準(zhǔn)定位問題、發(fā)現(xiàn)亮點(diǎn),優(yōu)化策略。無(wú)論是產(chǎn)品分析、地區(qū)對(duì)比還是成本結(jié)構(gòu),它都能提供全面洞察和可執(zhí)行建議。
干銷售,最頭疼啥?數(shù)據(jù)一堆,看不懂!客戶一堆,抓不準(zhǔn)!業(yè)績(jī)壓力大,不知道怎么提升?用這個(gè)AI銷售數(shù)據(jù)分析神器,再配上超強(qiáng)的推理模型,銷售數(shù)據(jù)分析變得賊簡(jiǎn)單!不用再手動(dòng)整理表格,管理者能輕松掌握?qǐng)F(tuán)隊(duì)動(dòng)態(tài),指定銷售策略。銷售人,別錯(cuò)過(guò)! 用AI武裝自己,業(yè)績(jī)翻倍不是夢(mèng)!
效果
銷售數(shù)據(jù)表格內(nèi)容:
當(dāng)用戶上傳了一個(gè)數(shù)據(jù)表之后,首先會(huì)調(diào)用 GLM-Z1-AirX 推理模型進(jìn)行推理,先會(huì)得到它的思考過(guò)程,我們可以看到下面的思考過(guò)程非常全面和細(xì)致。
1)數(shù)據(jù)審查與初步分析:異常值識(shí)別、亮點(diǎn)發(fā)現(xiàn)、問題產(chǎn)品識(shí)別
2)深入分析與報(bào)告結(jié)構(gòu):
- 總體分析、計(jì)算關(guān)鍵指標(biāo)、趨勢(shì)分析
- 產(chǎn)品分析、盈利產(chǎn)品分析、虧損產(chǎn)品分析、其他產(chǎn)品分析
- 地區(qū)分析、地區(qū)銷售對(duì)比、地區(qū)產(chǎn)品分析
最后輸出的銷售分析報(bào)告非常詳細(xì):數(shù)據(jù)概覽、核心數(shù)據(jù)分析(產(chǎn)品變現(xiàn)、地區(qū)分析、成本結(jié)構(gòu))、關(guān)鍵發(fā)現(xiàn)、改進(jìn)建議、執(zhí)行計(jì)劃、風(fēng)險(xiǎn)提示,可以說(shuō)考慮的非常周全且可以直接落地。
教程
整體框架上,主要是使用了插件和工作流的組合模式,完成整個(gè)流程。
當(dāng)用戶上傳表格的時(shí)候,調(diào)用插件「文件讀取」把文件讀取后的內(nèi)容傳遞隔離了工作流「SellDataAnalysis」。
整個(gè)流程相對(duì)簡(jiǎn)單一共4個(gè)節(jié)點(diǎn)
- 開始節(jié)點(diǎn)x1(接受輸入?yún)?shù))
- 文本處理x1(提示詞整理)
- 自定義插件x1(GLM-Z1-AirX插件)
- 結(jié)束節(jié)點(diǎn)(輸出推理內(nèi)容)
當(dāng)表格數(shù)據(jù)進(jìn)入之后先調(diào)用「GLM-Z1-AirX」推理模型插件進(jìn)行數(shù)據(jù)分析總結(jié),在整個(gè)過(guò)程通過(guò)「消息節(jié)點(diǎn)」進(jìn)行實(shí)時(shí)輸出
文本處理:(整理提示詞)
你是一個(gè)銷售總監(jiān),幫我根據(jù)以下數(shù)據(jù)寫一個(gè)銷售數(shù)據(jù)報(bào)告,先分析銷售數(shù)據(jù)給出概括以及總結(jié)和建議。
數(shù)據(jù):{{String1}}
然后將提示詞給到 GLM-Z1-AirX 插件,如何編寫GLM-Z1-AirX 插件?首先回到扣子空間主頁(yè),選擇「資源庫(kù)」然后點(diǎn)擊右上角「+資源」選擇「插件」。
輸入插件名稱、描述、選擇「在 Coze IDE 中創(chuàng)建」。
然后創(chuàng)建工具,輸入名稱 GLM_Z1_AirX ,介紹:推理模型
創(chuàng)建完成后,我們看下如何調(diào)用GLM大模型,前往智譜BigModel開放平臺(tái)的GLM接口文檔用HTTP請(qǐng)求的方式
文檔地址:https://bigmodel.cn/dev/api/http-call/http-auth
只需要參數(shù)三個(gè)參數(shù)即可,第一個(gè)是apikey,第二個(gè)是模型編碼,第三個(gè)是提示詞
然后我們?cè)倩氐讲寮庉嬈髦?,?shí)現(xiàn)HTTP請(qǐng)求代碼,需要傳入兩個(gè)動(dòng)態(tài)參數(shù)apikey和提示詞,model使用的是GLM-Z1-AirX。
import { Args } from ‘@/runtime’;
import { Input, Output } from “@/typings/GLM_4_PLUS/GLM_4_PLUS”;
/**
* Each file needs to export a function named `handler`. This function is the entrance to the Tool.
* @param {Object} args.input – input parameters, you can get test input value by input.xxx.
* @param {Object} args.logger – logger instance used to print logs, injected by runtime
* @returns {*} The return data of the function, which should match the declared output parameters.
*
* Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.*/
export async function handler({ input, logger }: Args<Input>): Promise<Output> { const API_URL = ‘https://open.bigmodel.cn/api/paas/v4/chat/completions’;
const API_KEY = input.key;
const COMMAND = input.command;
const headers = { ‘Authorization’: `Bearer ${API_KEY}`,
‘Content-Type’: ‘application/json’, };
const data = { ‘model’: ‘GLM-Z1-AirX’,
‘messages’: [ { ‘role’: ‘user’, ‘content’: COMMAND, }, ], };
const response = await fetch(API_URL, { headers, method: ‘POST’, body: JSON.stringify(data), });
const result = await response.json(); return { data: result.choices[0].message.content, };}
代碼實(shí)現(xiàn)完成后需要切換到「元數(shù)據(jù)」
- 左邊區(qū)域設(shè)置輸入和輸出的參數(shù)
- 右邊區(qū)域輸入?yún)?shù)進(jìn)行運(yùn)行調(diào)試
apikey如何獲???登陸后臺(tái)找到密鑰管理頁(yè)面,沒有的話可以點(diǎn)擊右上角添加新的API Key
后臺(tái)地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/F2
新增完成直接可以直接復(fù)制即可。
確認(rèn)沒有問題之后就可以點(diǎn)擊右上角「發(fā)布」。
發(fā)布成功后我們回到工作流點(diǎn)擊左上角添加「插件」然后選擇「我的工具」就可以使用自定義插件了。
輸入上個(gè)節(jié)點(diǎn)組裝好的提示詞以及key即可調(diào)用。
在這里肯定會(huì)有人疑惑,為什么不用DeepSeek-R1 推理模型?它不是最好用的推理模型嗎?我們可以對(duì)比下同樣的提示詞效果如何?
速度數(shù)據(jù)對(duì)比:
同樣的提示詞 DeepSeek-R1 用了58秒,GLM-Z1-AirX僅用了12秒。
效果數(shù)據(jù)對(duì)比:直接看結(jié)果
DeepSeek-R1:
GLM-Z1-AirX:
然后讓DeepSeek-V3作為裁判來(lái)進(jìn)行判斷:我分別把DeepSeek – R1的輸出內(nèi)容為【A報(bào)告】,GLM-Z1-AirX輸出的內(nèi)容為【B報(bào)告】給到了DeepSeek-V3進(jìn)行判斷。
最后得出的結(jié)論B報(bào)告(GLM-Z1-AirX)勝出。
通過(guò)以上速度和效果的對(duì)比,所以我們最終選擇了GLM-Z1-AirX模型,然后將結(jié)果輸出在結(jié)束節(jié)點(diǎn),整個(gè)分析銷售數(shù)據(jù)的工作流就完了!
智譜開源的Z1系列推理模型,上線BigModel開放平臺(tái)(bigmodel.cn)的有三個(gè)版本,分別滿足不同場(chǎng)景需求:
- GLM-Z1-AirX(極速版):定位國(guó)內(nèi)最快推理模型,推理速度可達(dá) 200 tokens/秒,比常規(guī)快 8 倍;
- GLM-Z1-Air(高性價(jià)比版):價(jià)格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場(chǎng)景;
- GLM-Z1-Flash(免費(fèi)版):支持免費(fèi)使用,旨在進(jìn)一步降低模型使用門檻。
對(duì)應(yīng)價(jià)格表:
總結(jié)
別只盯著那些內(nèi)置的大模型,有時(shí)候需要自己動(dòng)手自定義插件去尋找解決方案。這樣做的好處是,我們的解決方案不會(huì)受限,而且還能更靈活。另外,還得提一句,不同的業(yè)務(wù)要多試試不同的大模型很關(guān)鍵。
每個(gè)模型都有它擅長(zhǎng)的地方,只有我們深入了解了它們各自的能力,才能更好地駕馭這些大模型,讓它們變成我們手中的利器。這樣一來(lái),面對(duì)難題時(shí),我們就能游刃有余地找到最佳解決方案。
本文由人人都是產(chǎn)品經(jīng)理作者【陳宇明】,微信公眾號(hào):【碼個(gè)蛋】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來(lái)自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評(píng)論,等你發(fā)揮!