午夜精品久久久久久不卡,天天爽夜夜爽夜夜爽精品视频,午夜精品久久久久久久久久久久,天堂+中文+资源,天堂а√中文在线官网

  • 產(chǎn)品與服務(wù)矩陣
  • 資源中心
  • 關(guān)于我們

平衡人工智能的可解釋性與性能要求,實(shí)現(xiàn)可信AI在銀行業(yè)務(wù)場(chǎng)景的高質(zhì)量應(yīng)用

行業(yè)監(jiān)測(cè)分析 陳晨 2022-05-24 6897
內(nèi)容標(biāo)簽:可信AI、可解釋性、風(fēng)控 易觀分析:基于對(duì)“科技向善”理念的理解,易觀分析提出了銀行業(yè)可信AI應(yīng)具備穩(wěn)定性、魯棒性、可解釋性、安全性、公平性、普惠性、客戶自治性、可追溯性八個(gè)特征。其中,AI的可解釋性是人工智能領(lǐng)域近年來(lái)非常受關(guān)注的話題,聚焦到金融行業(yè),可解釋AI在銀行的營(yíng)銷、風(fēng)控、運(yùn)營(yíng)等主要場(chǎng)景下應(yīng)該如何發(fā)揮作用,人為因素在其中所處的位置,如何判斷AI是否可以被信任等,是銀行業(yè)的技術(shù)使用者普遍關(guān)心的問(wèn)題。

可解釋性是可信AI的核心特征

 


人腦的決策通常是一個(gè)邏輯和推理的過(guò)程,技術(shù)的使用者會(huì)同樣希望人工智能模型能具備一定的透明度,能夠描述、監(jiān)督、重現(xiàn)分析和決策的邏輯和判斷過(guò)程,以及使用和創(chuàng)立的數(shù)據(jù)來(lái)源、動(dòng)態(tài)變化等。易觀分析認(rèn)為,判斷一個(gè)人工智能是否可信,包含了被解釋、被理解、被信任三個(gè)層次的內(nèi)涵。可解釋性是可信的基礎(chǔ),也是公平性、普惠性、可追溯性等特征的前提;相應(yīng)地,不可解釋的AI會(huì)帶來(lái)不同程度的風(fēng)險(xiǎn)和倫理問(wèn)題。例如,算法歧視相較人為因素更不易察覺(jué),可能會(huì)放大公平性偏差,不利于金融的普惠化;機(jī)器學(xué)習(xí)在金融領(lǐng)域的試錯(cuò)成本很高,決策的錯(cuò)誤可能會(huì)引發(fā)嚴(yán)重的信用風(fēng)險(xiǎn),造成銀行損失。


一個(gè)可解釋的AI是可以在數(shù)據(jù)點(diǎn)和決策點(diǎn)進(jìn)行人為復(fù)盤和驗(yàn)證的,確保AI做出的決策容易理解,才能放心地使用AI進(jìn)行銀行業(yè)務(wù)活動(dòng),發(fā)揮降本增效的作用。在客戶評(píng)級(jí)、信用風(fēng)險(xiǎn)預(yù)測(cè)、反欺詐、反洗錢、客戶畫像等銀行典型場(chǎng)景中,AI模型的可解釋性顯得尤為重要。


根據(jù)業(yè)務(wù)的風(fēng)險(xiǎn)要求來(lái)平衡AI的可解釋性和性能

 

如今,深度神經(jīng)網(wǎng)絡(luò)正在向著更準(zhǔn)確、更智能的方向發(fā)展,然而算法的精確度和黑盒度也是此消彼長(zhǎng)的,越是復(fù)雜和精確的模型,解釋和理解的難度就越高。模型從黑盒到灰盒再到白盒的過(guò)程中,模型的透明度提升,但這并非最終的目的,解釋的易理解性、準(zhǔn)確性、合理性、一致性、實(shí)用性才是關(guān)鍵,更確切地說(shuō)技術(shù)使用者需要評(píng)估AI的解釋力。從銀行業(yè)的視角來(lái)看,在安全可控的前提下充分發(fā)揮人工智能價(jià)值,需要根據(jù)不同業(yè)務(wù)場(chǎng)景下風(fēng)險(xiǎn)敏感程度、風(fēng)控要求、精準(zhǔn)性要求的不同,在可解釋性與性能之間進(jìn)行權(quán)衡和相應(yīng)側(cè)重,結(jié)合專家經(jīng)驗(yàn)來(lái)提升決策的解析度,逐漸增加人機(jī)之間的理解與信任。


綜合應(yīng)用可解釋方法幫助業(yè)務(wù)人員理解和評(píng)估

 

在機(jī)器學(xué)習(xí)領(lǐng)域,目前主流的可解釋性方法包括自身可解釋、全局可解釋、局部可解釋等,如下表所示:



銀行可結(jié)合業(yè)務(wù)需要進(jìn)行綜合使用,以可視化平臺(tái)的方式來(lái)展現(xiàn)不同樣本的預(yù)測(cè)結(jié)果、決策因子和評(píng)判標(biāo)準(zhǔn)等,便于在事前或事后理解特征如何影響變量,或是單個(gè)樣本中的決策邏輯,從而更好地調(diào)整業(yè)務(wù)策略和風(fēng)險(xiǎn)考量。


例如:客戶在線上貸款的申請(qǐng)被拒絕后,銀行業(yè)務(wù)人員可以通過(guò)局部可解釋性看出導(dǎo)致客戶未達(dá)標(biāo)的關(guān)鍵因素;或是通過(guò)全局可解釋性,為業(yè)務(wù)部門提供整體性的貸款指標(biāo)定性要求及重要性占比,使業(yè)務(wù)人員理解哪些特征對(duì)提高客戶貸款的成功率更重要,協(xié)助銀行進(jìn)行精細(xì)化的客群經(jīng)營(yíng),提升貸款通過(guò)率的同時(shí)保證銀行風(fēng)控要求和客戶體驗(yàn)。


給銀行的兩個(gè)建議

 

1.針對(duì)不同的應(yīng)用場(chǎng)景設(shè)定不同的解釋程度和驗(yàn)證優(yōu)先級(jí)


人工智能可解釋性方法的研究目前還處于探索階段,也尚未形成通用標(biāo)準(zhǔn)的衡量體系,銀行業(yè)務(wù)部門在評(píng)估AI的可解釋性和性能時(shí),可對(duì)不同場(chǎng)景設(shè)定相應(yīng)的透明度、準(zhǔn)確度的等級(jí)要求。在進(jìn)行小規(guī)模驗(yàn)證時(shí),可優(yōu)先從客戶評(píng)級(jí)、反洗錢、反欺詐等風(fēng)險(xiǎn)敏感、可解釋必要性最高的場(chǎng)景進(jìn)行驗(yàn)證,其次考慮智能客服等交互場(chǎng)景,再考慮智能推薦等營(yíng)銷場(chǎng)景。


2.以機(jī)器學(xué)習(xí)+專家經(jīng)驗(yàn)交互協(xié)同的模式優(yōu)化決策模型


可解釋是為了使模型變得容易理解,并幫助業(yè)務(wù)提升和風(fēng)險(xiǎn)防控。因此在使用中需要融入銀行業(yè)務(wù)專家的經(jīng)驗(yàn),使專家能夠理解并對(duì)AI決策的邏輯進(jìn)行解析,來(lái)控制模型和算法風(fēng)險(xiǎn),并將業(yè)務(wù)經(jīng)驗(yàn)反哺到模型中;同時(shí),機(jī)器在深度學(xué)習(xí)和自我優(yōu)化中,也需要業(yè)務(wù)專家對(duì)特征影響分布的變化、引入新因子帶來(lái)的決策變化等進(jìn)行及時(shí)評(píng)估,在和機(jī)器的不斷交互和相互理解中提高人機(jī)協(xié)同的效果。


更多閱讀推薦:


》》銀行需要明確低代碼與無(wú)代碼開發(fā)平臺(tái)的差異,以便于在技術(shù)規(guī)劃及產(chǎn)品選型上降低試錯(cuò)成本


》》《數(shù)字經(jīng)濟(jì)全景白皮書》銀行數(shù)字化篇 重磅發(fā)布!


》》銀行業(yè)RPA趨向主動(dòng)觸發(fā)流程,補(bǔ)足營(yíng)銷場(chǎng)景執(zhí)行末端的渠道協(xié)同能力


微信掃描下方二維碼,每日推送更多有趣的數(shù)據(jù)&有料的報(bào)告,記得點(diǎn)贊哦!