人工智能系統(tǒng)和人工智能項目如今變得越來越普遍,因為企業(yè)可以利用這種新興技術的力量來自動化決策和提高效率。
如果企業(yè)正在實施一個大規(guī)模的人工智能項目,那么應該如何準備?以下是與人工智能相關的三個最重要的風險,以及如何預防和減輕它們。
1.從隱私到安全
人們都很關注自己的隱私,而面部識別人工智能在某些方面正在迅速發(fā)展,引發(fā)了關于隱私和監(jiān)控的倫理擔憂。例如,這項技術可以讓企業(yè)在未經(jīng)用戶同意的情況下跟蹤用戶的行為,甚至是情緒。美國政府最近提出了一項“人工智能權利法案”,以防止人工智能技術造成與核心價值觀相悖的真正傷害,包括基本的隱私權。
IT領導者需要讓用戶知道正在收集什么數(shù)據(jù),并獲得用戶的同意。除此之外,關于數(shù)據(jù)集的適當培訓和實施對于防止數(shù)據(jù)泄露和潛在的安全漏洞至關重要。
測試人工智能系統(tǒng)以確保它實現(xiàn)目標,而不會產(chǎn)生意想不到的影響,例如允許黑客使用虛假的生物識別數(shù)據(jù)訪問敏感信息。實施人工智能系統(tǒng)的監(jiān)督,可以使企業(yè)在必要時停止或撤銷它的行動。
2.從不透明到透明
許多使用機器學習的人工智能系統(tǒng)是不透明的,這意味著不清楚它們是如何做出決定的。例如,對抵押貸款數(shù)據(jù)廣泛的研究表明,用于批準或拒絕貸款的預測性人工智能工具對少數(shù)族裔申請者的準確性較低。技術的不透明性侵犯了貸款被拒絕的申請者的“解釋權”。
當企業(yè)的人工智能/機器學習工具對其用戶做出了重要的決定時,需要確保他們得到通知,并能得到關于為什么做出這個決定的完整解釋。
企業(yè)的人工智能團隊還應該能夠追蹤導致每個決策的關鍵因素,并在這一過程中診斷出任何錯誤。內(nèi)部面向員工的文檔和外部面向客戶的文檔應該解釋人工智能系統(tǒng)是如何以及為什么這樣運作的。
3.從偏見到公平
最近的一項研究表明,根據(jù)具有偏見的數(shù)據(jù)訓練的人工智能系統(tǒng)強化了歧視模式,從醫(yī)學研究招募不足到科學家參與度降低,甚至少數(shù)族裔患者不太愿意參與研究。
人們需要問問自己:如果意想不到的結果發(fā)生了,它會影響誰或哪個群體?它是否平等地影響所有用戶,還是只影響特定群體?
仔細查看歷史數(shù)據(jù),評估是否引入了任何潛在的偏見或減輕了偏見。一個經(jīng)常被忽視的因素是企業(yè)的開發(fā)團隊的多樣性,而更加多樣化的團隊通常會引入更公平的過程和結果。
為了避免意外的傷害,企業(yè)需要確保來自人工智能/機器學習開發(fā)、產(chǎn)品、審計和治理團隊的所有涉眾完全理解指導企業(yè)的人工智能項目的高級原則、價值和控制計劃。獲得獨立的評估,以確認所有項目都符合這些原則和價值觀。
注:文章來源于網(wǎng)絡,如有侵權,請聯(lián)系刪除