沒有監管的AI會產生倫理偏見

在組織中,人工智能顯示出巨大的潛力,但在很大程度上,它仍然是一種解決問題的方法。這是一個被誤解的概念,實際應用尚未在企業中完全實現。另外,很多公司缺少人工智能的預算,這是真正的轉型方式。人工智能遠未達到臨界規模,容易被濫用的人才和遠見youtube视频推广

但是,這並不意味著人工智能在你的組織中的某個地方不起作用,僅僅因為人工智能可能不會在日常業務中超級可見。人工智能中的道德錯誤經常發生在黑暗中,就像商業中的許多其他道德困境一樣。打破道德邊界的後果可能是人工智能項目或應用程序的噩夢。從一開始就管理項目是避免人工智能道德錯誤的關鍵。

構建人工智能的透明度和信任。

到目前為止,我們都熟悉人工智能錯誤的流行例子。對皮膚黝黑的顧客來說,他們無法正常工作,對白人來說,更准確的脈血氧儀,甚至是預測罪犯會不會再次坐牢的算法,都是人工智能的偏見故事(可以說是無心)。

這種情況不僅會引起壞頭條新聞和社交媒體的強烈反對,還會破壞更合法的人工智能用例。這些用例將無法實現,如果我們繼續以不信任的態度看待這項技術。舉例來說,只有在醫療保健領域,人工智能才能對再次入院的高危患者進行癌症診斷和標記,從而獲得額外的支持。除非我們學會建立對人工智能的信任,否則我們不會看到這些強大解決方案的所有好處。

我從一開始就支持人工智能的透明度和治理理念,當時我和同行和商業領袖談論人工智能。更具體地說,這是我的建議:

1.真空中不可能發生道德人工智能。

如果實現不當,人工智能應用可能會產生重大連鎖反應。這種情況通常發生在沒有監督的情況下,單個部門或IT團隊開始嘗試人工智能驅動的過程。如果在實驗中出錯,團隊是否意識到可能帶來的倫理影響?部署是否符合公司現有的數據留存和訪問策略?如果沒有監管,這些問題都難以回答手機上網Plan。

另外,如果沒有治理,如果有道德錯誤,可能更難召集利益相關者糾正道德錯誤。在一定的道德范圍內,監,而應被視為必要的檢查,以確保人工智能在一定的道德范圍內運行。監管最終應該屬於擁有其組織的首席數據官,或者首席信息官不應該對CDO角色負責。

2.始終有計劃。

我們人工智能項目的問題,我們看到的最糟糕的標題通常有一個共同點,那就是公司不准備在問題出現時回答問題或解釋決策。監督可以解決這個問題。當組織對人工智能和健康哲學能和健康哲學時,不太可能因為問題而措手不及。

3.盡職調查和測試是強制性的。

通過更多的耐心和測試,人工智能偏見的許多經典例子都可以得到緩解。一家公司展示新技術的興奮最終會適得其反,就像洗手液分配器的例子一樣。在產品發布前的進一步測試中可能會發現這種偏見。此外,任何人工智能應用程序都需要從一開始就嚴格審查。它必須在戰略上謹慎使用,因為人工智能的複雜性和不確定的潛力。

4.考慮人工智能監督功能。

為了保護客戶的隱私,金融機構投入了大量資源來管理對敏感文件的訪問。他們的記錄團隊仔細地對資產進行分類,並建立基礎設施,以確保只有正確的工作角色和部門才能看到每一個。該結構可用於構建組織人工智能治理功能的模板。一個特殊的團隊可以估計人工智能應用程序的潛在積極或消極影響,並確定需要多長時間來審查結果以及誰將審查結果Au Tau。

對於尋求數字逆轉的公司來說,測試人工智能是下一個重要的步驟。它解放了普通任務中的人類工人,並使某些活動(如圖像分析)以以前不謹慎的財務方式擴展。但這並不能被輕視。人工智能的應用程序必須在適當的監督下仔細開發,以避免偏見。有道德問題的決定和糟糕的業務結果。確保組織中的人工智能工作得到正確的培訓。最嚴重的道德錯誤經常發生在黑暗中。

Top