人工智能,是由人制造出來的機器所表現(xiàn)出來的智能,是通過普通計算機程序來呈現(xiàn)人類智能的技術,人工智能正越來越廣泛地應用于商業(yè)領域。
比如商家考慮使用人工智能來設置要出售給特定客戶的保險產品的價格,為不同的客戶設置不同的價格。這可以說是有正當理由的,但是“玩弄”客戶的心理或購物意愿時常為的是可能會有利可圖。
人工智能具有很多潛在的策略可供選擇,這其中涉及到道德問題,有些策略不道德。這些策略不僅會帶來道德上的損失,而且會帶來巨大的潛在經(jīng)濟損失,因為如果利益相關者發(fā)現(xiàn)使用了這樣的策略,他們將對其施加一定的懲罰,比如客戶可能會投訴、抵制,還有監(jiān)管者可能會懲罰高達數(shù)十億美元的巨額罰款。
因此,在越來越多的決策無需人工干預而完全應用人工智能的情況中,無論是商家還是客戶都有強烈的訴求,想了解人工智能系統(tǒng)在什么情況下可能采取不道德的策略,從而降低這種風險,或者在可能的情況下完全消除這種風險。
最近,由英國華威大學(University of Warwick)、帝國理工大學(Imperial College London)、洛桑聯(lián)邦理工學院(Lausanne EPFL)數(shù)學研究所和沃里克大學數(shù)學學院的數(shù)學家和統(tǒng)計學家組成的一個研究團隊,發(fā)現(xiàn)了一種數(shù)學方法,可以幫助監(jiān)管機構和業(yè)務管理并監(jiān)管人工智能系統(tǒng)偏向做出不道德、可能非常昂貴和破壞性商業(yè)選擇的偏見,幫助企業(yè)和監(jiān)管機構制定了新的“不道德優(yōu)化原則”,并提供一個簡單的公式來估算其影響。他們的題為“不道德優(yōu)化原則”的論文發(fā)表在最近的皇家學會科學雜志上。
論文作者、華威大學數(shù)學研究所的羅伯特·麥凱教授說:“我們建議的‘不道德優(yōu)化原則’可用于幫助監(jiān)管機構、合規(guī)人員和其他人員找到可能隱藏在大型策略空間中的問題策略??梢云谕麅?yōu)化會不成比例地選擇許多不道德策略,對其進行檢查應顯示在哪里可能會出現(xiàn)問題,因此建議應如何修改人工智能搜索算法,以免今后避免使用它們。
該數(shù)學方法所體現(xiàn)的原則還表明,可能有必要重新考慮人工智能在非常大的戰(zhàn)略空間中的運作方式,以便在優(yōu)化與學習過程中明確拒絕不道德的結果。
-
AI
+關注
關注
91文章
41374瀏覽量
302752 -
人工智能
+關注
關注
1821文章
50376瀏覽量
267096 -
數(shù)學
+關注
關注
0文章
99瀏覽量
19935
發(fā)布評論請先 登錄
一種新型數(shù)學方法,可遏制AI做出不道德的選擇
評論