人工智能廣泛應(yīng)用,算法公平性重要性突顯
近日,高考考生考場(chǎng)用小猿搜題的事鬧得沸沸揚(yáng)揚(yáng),高考的公平性被挑戰(zhàn),高考公平與否,不僅關(guān)系到考生能否平等地享有高等教育的入學(xué)機(jī)會(huì),甚至關(guān)乎其他考生的命運(yùn)。
高考的公平性也一度成為人們關(guān)注的焦點(diǎn),成為考生和家長(zhǎng)們心中敏感脆弱、不能觸碰的紅線。
如果公平性出現(xiàn)偏差,則會(huì)造成很嚴(yán)重的社會(huì)后果,對(duì)于人工智能來(lái)說(shuō)也是一樣。隨著AI算法在社會(huì)各行業(yè)的廣泛落地應(yīng)用,作為輔助人們決策的重要工具,算法的公平性問(wèn)題正受到越來(lái)越多的關(guān)注。
近日,騰訊優(yōu)圖實(shí)驗(yàn)室聯(lián)合廈門大學(xué)人工智能研究院發(fā)布《2021十大人工智能趨勢(shì)》報(bào)告中顯示,算法公平性研究將推動(dòng)AI應(yīng)用走向普惠無(wú)偏見(jiàn)。
由于數(shù)據(jù)偏差、算法本身缺陷、甚至是人為偏見(jiàn)的存在,現(xiàn)有AI算法普遍存在對(duì)于某些特定人群效果不公平的"歧視性現(xiàn)象"。
隨著人工智能的發(fā)展,機(jī)器學(xué)習(xí)的技術(shù)來(lái)幫助人們進(jìn)行決策,其潛在的影響力已經(jīng)變得越來(lái)越大,特別是在具有重要影響力的領(lǐng)域。
因此,考慮一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)在做決策時(shí),尤其是有高影響力的決策時(shí),是否會(huì)對(duì)弱勢(shì)群體造成更加不利的影響,至關(guān)重要。
過(guò)去的幾年業(yè)界已在逐步探索一些針對(duì)性的解決方案,包括構(gòu)建更公正的數(shù)據(jù)集、算法訓(xùn)練中引入公平性約束損失、提高機(jī)器學(xué)習(xí)算法的可解釋性等。
然而,想要確保一個(gè)公正、公平而又合乎倫理的結(jié)果,不僅僅要面對(duì)來(lái)自數(shù)據(jù)科學(xué)的挑戰(zhàn),還需要設(shè)置人工智能學(xué)習(xí)程序的人,有巨大的責(zé)任和堅(jiān)韌的信念,以設(shè)置出最為公平的程序。