微軟開(kāi)源可解釋機(jī)器學(xué)習(xí)工具包lnterpretML
【 圖片來(lái)源:Microsoft Research Blog 所有者:Microsoft Research Blog 】
人類(lèi)創(chuàng)造出人工智能,并且被人工智能影響著自己的生活。如果人工智能的行為具有可理解性,那么人類(lèi)可以更進(jìn)一步地利用人工智能。近期,微軟研究院就機(jī)器學(xué)習(xí)的可理解性發(fā)表了相關(guān)文章,雷鋒網(wǎng)全文編譯如下。
當(dāng)人工智能系統(tǒng)能夠影響人類(lèi)生活時(shí),人們對(duì)它的行為理解是非常重要的。通過(guò)理解人工智能系統(tǒng)的行為,數(shù)據(jù)科學(xué)家能夠適當(dāng)?shù)卣{(diào)試它們的模型。如果能夠解釋模型的行為原理,設(shè)計(jì)師們就能夠向最終用戶傳遞這些信息。如果醫(yī)生、法官或者其它決策制定者相信這個(gè)強(qiáng)化智能系統(tǒng)的模型,那他們就可以作出更好的決策。更廣泛的講,隨著模型的理解更加全面,最終用戶可能會(huì)更快接受由人工智能驅(qū)動(dòng)的產(chǎn)品和解決方案,同時(shí),也可能更容易滿足監(jiān)管機(jī)構(gòu)日益增長(zhǎng)的需求。
事實(shí)上,要實(shí)現(xiàn)可理解性是復(fù)雜的,它高度依賴許多變量和人為因素,排除了任何“一刀切”的方法。可理解性是一個(gè)前沿的、跨學(xué)科的研究領(lǐng)域,它建立在機(jī)器學(xué)習(xí)、心理、人機(jī)交互以及設(shè)計(jì)的思想上。
微軟研究院這些年一直致力于研究如何創(chuàng)造出具有可理解性的人工智能,如今,如今微軟在MIT開(kāi)源協(xié)議下開(kāi)源了lnterpretML軟件工具包,開(kāi)源地址是 https://github.com/Microsoft/interpret,它將使開(kāi)發(fā)人員能夠嘗試各種方法去解釋模型和系統(tǒng)。InterpretML能夠執(zhí)行許多可理解的模型,包括可解釋的Boosting Machine(相對(duì)于一般的加性模型做了改進(jìn)),以及為黑箱模型的行為或者它們的個(gè)別預(yù)測(cè)生成解釋的幾種方法。
通過(guò)一些簡(jiǎn)單的方式去評(píng)估可理解性方法,開(kāi)發(fā)人員就能夠比較不同方法產(chǎn)生的解釋?zhuān)瑥亩ミx擇那些***他們需求的方法。例如,通過(guò)檢查方法之間的一致性,這樣一來(lái),比較法就能夠幫助數(shù)據(jù)科學(xué)家去了解在多大程度上相信那些解釋。
微軟正期待與開(kāi)源社區(qū)合作,繼續(xù)開(kāi)發(fā)InterpretML,開(kāi)源地址是https://github.com/Microsoft/interpret
本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請(qǐng)至雷鋒網(wǎng)官網(wǎng)申請(qǐng)授權(quán)。