成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

對(duì)于人工智能的恐懼及其5個(gè)解決方法

人工智能 深度學(xué)習(xí)
實(shí)施人工智能技術(shù)的IT領(lǐng)導(dǎo)人可能會(huì)感到一些恐懼,這有著充分的理由。人工智能在擁有數(shù)十年發(fā)展和應(yīng)用歷史的同時(shí)卻有著奇怪的定位,但對(duì)于許多人來說,人工智能仍然是一種未來主義的感覺。

 實(shí)施人工智能技術(shù)的IT領(lǐng)導(dǎo)人可能會(huì)感到一些恐懼,這有著充分的理由。

[[278980]]

人工智能在擁有數(shù)十年發(fā)展和應(yīng)用歷史的同時(shí)卻有著奇怪的定位,但對(duì)于許多人來說,人工智能仍然是一種未來主義的感覺。實(shí)際上人工智能并不是新事物,但它始終是一個(gè)永恒的“新”領(lǐng)域。沒有人可以確切地知道其發(fā)展到底會(huì)何去何從。

對(duì)于不了解的事物,一些人會(huì)感到害怕。而人工智能的未來發(fā)展也讓很多人徹夜難眠,這是有道理的,尤其是考慮到可能出現(xiàn)的不利后果時(shí)。人們可以合理地假設(shè)任何重大技術(shù)發(fā)展都是如此:它們將會(huì)產(chǎn)生變化,從而令人感到恐懼。但是,與人工智能相關(guān)的恐懼卻有不同的優(yōu)先級(jí)。例如,大多數(shù)人不知道什么是微服務(wù)架構(gòu),即使他們每天使用的一些應(yīng)用程序是以分離的方式構(gòu)建的。但是像微服務(wù)這樣的技術(shù)進(jìn)化并不會(huì)像人工智能那樣對(duì)潛在的社會(huì)和經(jīng)濟(jì)影響產(chǎn)生這樣的情感反應(yīng)。微服務(wù)也不會(huì)在流行文化中一直存在。

這主要說明了人們對(duì)人工智能發(fā)展前途并不明朗的擔(dān)憂,當(dāng)人們的想象力失控時(shí),就會(huì)很難評(píng)估它們的有效性。這對(duì)于如今試圖構(gòu)建實(shí)用人工智能戰(zhàn)略的IT領(lǐng)導(dǎo)人和其他高管來說并不是特別有用。然而,很多人會(huì)對(duì)人工智能感到恐懼,并且有著充分的理由。對(duì)于人工智能的入門者來說,他們更容易失敗,因?yàn)樗麄兺ǔ;诋?dāng)前的現(xiàn)實(shí),而不是未來的推測(cè)。

加州大學(xué)歐文分校神經(jīng)科學(xué)研究助理、ContinualAi公司聯(lián)合負(fù)責(zé)人Keiland Cooper表示,“人們對(duì)人工智能的恐懼類型取決于人們所談?wù)摰娜斯ぶ悄茴愋汀Ec當(dāng)今普遍使用的更現(xiàn)實(shí)的人工智能算法相比,理論性更強(qiáng)、更遙遠(yuǎn)的‘通用人工智能’(一種能夠完成人類所能做的所有事情的計(jì)算機(jī))將引發(fā)更多的恐懼。”

以下了解一下當(dāng)今有關(guān)人工智能的五個(gè)問題,以及專家為解決這些問題而提供的建議,這樣就不會(huì)破壞企業(yè)實(shí)施人工智能的計(jì)劃。

1. 恐懼:人工智能會(huì)產(chǎn)生有偏見的結(jié)果

人們?cè)絹碓疥P(guān)注人工智能系統(tǒng)中的偏見和其他問題及其導(dǎo)致的決策或結(jié)果的可能性。與好萊塢電影的一些更富想象力的人工智能故事不同,人們應(yīng)該對(duì)于人工智能的偏見感到恐懼。

SkyMind公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Chris Nicholson說,“人工智能的算法只和訓(xùn)練數(shù)據(jù)一樣好。因此,如果一個(gè)數(shù)據(jù)集包含了組織的歷史偏見,那么它所做的預(yù)測(cè)將反映這一歷史行為,例如,如果一家公司通常會(huì)將擁有常春藤名校學(xué)位的白人男性提升到權(quán)威職位,那么經(jīng)過培訓(xùn)的人工智能算法可以識(shí)別出未來的領(lǐng)導(dǎo)才能,并將其重點(diǎn)放在同一類型的應(yīng)聘者身上,并且忽略不屬于該類別的應(yīng)聘者。”

解決方法:

人們應(yīng)該接受這種恐懼并采取行動(dòng)。無需擔(dān)心人工智能偏見會(huì)增加其不受控制地?cái)U(kuò)散的可能性。

人工智能算法不應(yīng)免除個(gè)人和組織對(duì)結(jié)果的責(zé)任。人工監(jiān)督和管理是絕對(duì)必要的,并且有很好的例子說明了另一種恐懼(不再需要人類)可能有點(diǎn)言過其實(shí)。

Nicholson說,“人們不能相信人工智能能夠知道一切或做出完美的決定。人工智能算法是由人類創(chuàng)造的,但人類也會(huì)犯錯(cuò)。所以每個(gè)公司都要做的是建立一個(gè)系統(tǒng)來檢查人工智能,或者定期抽取人工智能的決策樣本并展示給專家,并詢問他們:這看起來正確嗎?而其結(jié)果至少不會(huì)比專家差,這是企業(yè)最初所希望的結(jié)果。”

這在醫(yī)療、保險(xiǎn)、銀行、政府等行業(yè)可能尤為重要。但事實(shí)上,在任何地方這都是一個(gè)重要的問題。

Tara-Ai公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Iba Masood表示,“人工智能從業(yè)者和機(jī)器學(xué)習(xí)工程師必須確保他們?cè)谝欢ǔ潭壬献袷厮惴ㄘ?zé)任制,IT主管應(yīng)該有專門的數(shù)據(jù)團(tuán)隊(duì)為他們現(xiàn)有的數(shù)據(jù)集構(gòu)建消除偏見的程序。這將有助于在利用系統(tǒng)進(jìn)行決策過程中,特別是在涉及最終消費(fèi)者的情況下,需要實(shí)現(xiàn)一定程度的公平和公正。”

這是一個(gè)道德和公平的問題。Masood認(rèn)為,人工智能倫理也可能成為一種競(jìng)爭(zhēng)性的區(qū)分標(biāo)準(zhǔn)。

Masood說,“我相信,未來五年將會(huì)有更多的具有公平意識(shí)的消費(fèi)者,他們希望與那些在人工智能輔助下的決策過程中部署公平機(jī)制的公司進(jìn)行交易。通過努力減輕用于基于決策的系統(tǒng)的數(shù)據(jù)集的偏差,IT團(tuán)隊(duì)可以在這種消費(fèi)者行為轉(zhuǎn)變中產(chǎn)生重大影響。”

2.恐懼:人們不知道人工智能為什么會(huì)這么做

這是對(duì)未知事物的另一種自然恐懼:許多人工智能的結(jié)果很難解釋。

Nicholson說,“人工智能先進(jìn)的形式能夠?qū)?shù)據(jù)做出最準(zhǔn)確的預(yù)測(cè),但也最難解釋為什么做出這種預(yù)測(cè)。”

這有時(shí)被稱為人工智能的“黑盒”,指的是缺乏對(duì)人工智能系統(tǒng)決策的可視性,這對(duì)許多組織來說可能是一個(gè)重要的問題。

Nicholson說,“在許多情況下,人們都需要知道為什么要做某事。在受到嚴(yán)格監(jiān)管的行業(yè)組織中尤其如此。例如醫(yī)療保健行業(yè)不希望人工智能算法在不知道為什么做出決定的情況下就患者的診斷或治療做出決定。”

Cooper提供了另一個(gè)場(chǎng)景,指出黑盒模型在出現(xiàn)問題時(shí)變得特別重要。

Cooper說,“假設(shè)訓(xùn)練一種算法來挑選優(yōu)秀股票,并且做得很好,可能賺取9%的利潤。如果在金融投資中獲得了足夠或更好的回報(bào)(如果Cooper的假設(shè)合理的情況下),那么可能就不太在乎其原因。畢竟已經(jīng)獲得。但是如果損失了9%的成本應(yīng)該怎么辦?如果失去了一切那么該怎么辦?人們可能會(huì)更關(guān)心的是為什么。”

他說,“問題在于,在許多情況下,人們不知道為什么要選擇它所選擇的東西。這很可怕,因?yàn)樗粌H使人們減少了與正在使用的人工智能系統(tǒng)的聯(lián)系,而且如果它做錯(cuò)了什么,也不會(huì)帶來太多的洞察力。”

解決方法:

解決這種恐懼的方法之一是確保即使在人工智能技術(shù)得以改進(jìn)的情況下,人類的智能和決策仍然是任何過程中至關(guān)重要的部分,在某些情況下還是最終的部分。換句話說,即使人工智能在這些流程和決策中的作用不斷擴(kuò)展,也可以通過確保人們保留對(duì)流程和決策的適當(dāng)控制來緩解這種恐懼。

Nicholson說:“在醫(yī)療保健案例中,最好采用人工智能作為人類專家的決策支持形式。也就是說,不能讓人工智能獨(dú)自運(yùn)作并且不受監(jiān)督。可以將人工智能集成到現(xiàn)有的決策過程中,在此過程中可以向人類專家提出建議,并且專家將是做出最終決策的人,他們將能夠解釋做出該決定的原因。”

3.恐懼:人工智能將會(huì)做出錯(cuò)誤的決定

人工智能將會(huì)做出錯(cuò)誤的決定,這是一個(gè)非常明確的問題。如何評(píng)估人工智能結(jié)果的準(zhǔn)確性和有效性?如果它做出錯(cuò)誤的選擇會(huì)怎么樣?(可以看到這些恐懼的某些組合是如何產(chǎn)生復(fù)合效應(yīng)的:如果人工智能做出錯(cuò)誤的決定而無法解釋原因,將會(huì)發(fā)生什么情況?)假設(shè)所有人工智能產(chǎn)生的結(jié)果都是“良好”的結(jié)果,那么即使是對(duì)于人工智能應(yīng)用最樂觀的人士也會(huì)感到不舒服。

偏見會(huì)導(dǎo)致錯(cuò)誤的決定。不過,這實(shí)際上是一種更為廣泛的恐懼,這種恐懼除了其他負(fù)面影響之外,還可能導(dǎo)致團(tuán)隊(duì)不信任任何的人工智能得出的結(jié)果。當(dāng)人工智能團(tuán)隊(duì)之外的人(或者IT部門)分析結(jié)果時(shí),這種可能性就更大。它還可能導(dǎo)致組織的業(yè)務(wù)發(fā)展停滯。

Very公司工程主管Jeff McGehee說,“許多人擔(dān)心人工智能會(huì)做出錯(cuò)誤的決定。從技術(shù)角度來看,這種恐懼通常是非常廣泛的,但它總是歸結(jié)為人們認(rèn)為“這個(gè)決定是不正確的。對(duì)于從業(yè)者來說,這一點(diǎn)很難確定,尤其是在無法給出‘良好’決策的量化定義的情況下。”

解決方法:

人為因素的重要性再次占據(jù)主導(dǎo)地位。如果人們無法量化什么是積極的結(jié)果,那么需要提出一個(gè)定性的框架,同時(shí)確保依靠正確的人員和信息組合來解決諸如偏見之類的實(shí)際問題。

McGehee說:“為了確定這樣一個(gè)定義,利益相關(guān)者必須認(rèn)真考慮所有可能的關(guān)于好/壞決策的定義。正確性可能是理想的,但是某些類型的錯(cuò)誤通常更容易接受,或者更像是人為的。此外,‘正確性’可能指的是人們是否滿足某些標(biāo)準(zhǔn)的預(yù)測(cè)列表,但如果此列表包含固有的人為因素偏見,這可能是一個(gè)不好的目標(biāo)。當(dāng)非技術(shù)利益相關(guān)者評(píng)估人工智能決策的質(zhì)量時(shí),所有這些因素都可以發(fā)揮作用。”

4.恐懼:人工智能將導(dǎo)致匿名性的喪失

McGehee指出了一個(gè)鮮為人知的問題,它可能成為人工智能安全中一個(gè)更引人注目的領(lǐng)域:當(dāng)匿名性假定為給定時(shí),將會(huì)喪失匿名性或隱私性。

McGehee說,“在以前,人工智能從業(yè)者普遍認(rèn)為,一旦機(jī)器學(xué)習(xí)模型得到訓(xùn)練,其權(quán)重(使其能夠進(jìn)行預(yù)測(cè)的參數(shù))就不包含任何可追蹤的訓(xùn)練數(shù)據(jù)。”然而,最近出現(xiàn)了一些技術(shù),這些技術(shù)將使惡意行為者能夠檢查經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型,并對(duì)用于訓(xùn)練的各個(gè)數(shù)據(jù)點(diǎn)進(jìn)行有意義的推斷。這與個(gè)人數(shù)據(jù)點(diǎn)是否是希望保持匿名的人有關(guān)。”

解決方法:

同樣,通過認(rèn)識(shí)到恐懼背后的合法問題,人們可以采取措施來解決它。在必要時(shí)保護(hù)數(shù)據(jù)的隱私或匿名性是一個(gè)組織可以采取主動(dòng)措施作為其總體安全策略一部分的領(lǐng)域。這也是機(jī)器學(xué)習(xí)中正在進(jìn)行的一個(gè)研究和開發(fā)領(lǐng)域。

McGehee說,“雖然這是一種有效的恐懼,但對(duì)模型權(quán)重進(jìn)行適當(dāng)?shù)谋Wo(hù)和加密可以減少它們落入壞人手中的可能性,而創(chuàng)造不易受這種威脅影響的新的機(jī)器學(xué)習(xí)技術(shù)將是一個(gè)活躍的研究領(lǐng)域。”

5.恐懼:人工智能會(huì)讓人們失業(yè)

人們可能面臨這個(gè)很大的恐懼,它彌合了當(dāng)前現(xiàn)實(shí)和更多推測(cè)場(chǎng)景。大多數(shù)專家都認(rèn)為,人工智能將會(huì)取代更多的工作崗位。在某些情況下,這將意味著失業(yè)。

在可預(yù)見的未來,越來越多的人工智能(以及更廣泛的自動(dòng)化)的應(yīng)用比電腦時(shí)代更為廣泛,當(dāng)時(shí)電腦的興起也引發(fā)了人們類似的擔(dān)憂。研究發(fā)現(xiàn),電腦在影響工作崗位的同時(shí)創(chuàng)造了更多的工作崗位。

解決方法:

Nicholson說,“從歷史上看,新技術(shù)不僅使工作實(shí)現(xiàn)自動(dòng)化,而且可能帶來新的工作崗位。考慮一下采用電腦完成的所有工作。新技術(shù)通常需要人們對(duì)其進(jìn)行掌握、支持和維護(hù),而人工智能也不例外。”

積極應(yīng)對(duì)這種恐懼將是人工智能在商業(yè)領(lǐng)域成功的關(guān)鍵,否則人們將無法參與其中。人們將會(huì)注意到,以上這些不僅要求人類參與其中,還要積極管理組織中的人工智能。

Nicholson說,“需要理解的關(guān)鍵是,未來的工作將是人類與機(jī)器之間的協(xié)作。但是機(jī)器仍然需要人類來操作和維護(hù)。人工智能就是如此。”

 

責(zé)任編輯:華軒 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2021-01-05 15:39:30

人工智能科學(xué)技術(shù)

2023-06-30 11:08:13

AI人工智能

2018-08-17 15:17:56

人工智能層次極端

2022-07-01 10:37:27

人工智能AI

2023-05-16 10:02:30

2018-12-09 14:35:58

人工智能預(yù)測(cè)

2021-01-26 11:04:30

人工智能AI數(shù)字化轉(zhuǎn)型

2022-07-06 10:42:05

人工智能AI

2020-04-07 09:59:40

人工智能AI機(jī)器學(xué)習(xí)

2021-03-05 10:12:53

人工智能物聯(lián)網(wǎng)自動(dòng)駕駛

2020-12-27 21:11:02

人工智能框架AI

2023-04-06 15:21:34

IIoT自動(dòng)化

2019-09-11 11:09:54

人工智能數(shù)據(jù)機(jī)器學(xué)習(xí)

2022-06-20 11:05:58

通用人工智能機(jī)器人

2020-06-01 08:34:41

人工智能AI工業(yè)應(yīng)用

2020-07-14 08:23:34

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-03-09 10:25:37

人工智能AI智能

2020-09-03 10:37:07

人工智能AI技術(shù)

2017-04-06 18:34:16

人工智能

2021-08-31 22:41:32

人工智能教育無人駕駛
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 97av在线 | 免费在线成人 | www久久久 | 美女爽到呻吟久久久久 | 男女又爽又黄视频 | 狠狠干美女 | 国产精品视频在线播放 | 综合国产在线 | 日本激情视频网 | 久久久久久国产 | 麻豆亚洲 | 全免费a级毛片免费看视频免费下 | 午夜不卡福利视频 | 精品国产18久久久久久二百 | www.97zyz.com | www.99re | 99精品电影| 色偷偷888欧美精品久久久 | 欧美视频第二页 | 超碰日本 | 久久国产成人 | a亚洲精品| 美女国产一区 | 中文精品一区二区 | 日韩二 | 岛国精品 | 日韩一区在线播放 | 91在线电影 | 中文字幕欧美日韩一区 | 永久免费视频 | 亚洲不卡在线观看 | 91久久久久 | 爱爱免费视频 | 中文字幕一区二区三区日韩精品 | 亚洲一区 中文字幕 | 91精品国产美女在线观看 | 亚洲色图在线观看 | 国产免费一区二区 | 日韩在线免费视频 | 中文字幕免费观看 | 国产99视频精品免费视频7 |