導(dǎo)讀:人工智能本來并不存在偏見,它不會因為無法通過邏輯來解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機器學習中存在著人類的偏見,并且直到現(xiàn)在,幾乎沒有人試圖解決這個嚴重的問題。

人工智能本來并不存在偏見,它不會因為無法通過邏輯來解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機器學習中存在著人類的偏見,并且直到現(xiàn)在,幾乎沒有人試圖解決這個嚴重的問題。
來自捷克和德國的科學家團隊最近進行了一項研究,以確定人類認知偏見對解釋用于創(chuàng)建機器學習輸出規(guī)則的影響。
該團隊的白皮書解釋了20種不同的認知偏見如何潛在地改變機器學習規(guī)則的開發(fā),并提出了給它們“去偏”(debiasing)的方法。
偏見,諸如“確認偏見”(confirmation bias)(當一個人接受一個結(jié)果是因為它確認了一個先前的信念)或“可用性偏見”(availability bias)(比較重視與個體有關(guān)的信息,而不是同樣有價值的不太熟悉的信息)會使機器學習數(shù)據(jù)的解釋變得豪無意義。
當這些類型的人為錯誤成為人工智能的一部分時——這意味著我們的偏見負責選擇一種訓練規(guī)則,這種訓練規(guī)則塑造了機器學習模型的創(chuàng)造——我們不是在創(chuàng)造人工智能:我們只是混淆我們自己在黑盒子里面有缺陷的觀察。
根據(jù)白皮書所述,這是全新的領(lǐng)域:
由于缺乏先前的研究,我們的研究將認知心理學中的一般結(jié)果轉(zhuǎn)移到機器學習領(lǐng)域。它需要通過專門針對機器學習領(lǐng)域的實證研究來取得成功。
隨著越來越多的人工智能系統(tǒng)上線,個人責任感也在發(fā)生變化。很快,大多數(shù)車輛將由機器操作,大量的手術(shù)和醫(yī)療程序?qū)⒂蓹C器人進行。當悲劇發(fā)生時,人們會指責AI開發(fā)人員,甚至會把某些人當作替罪羊。
研究人員針對他們所研究的每種認知偏見提出了一種去偏旁解決方案。對于許多問題,解決方案與改變數(shù)據(jù)表示方式一樣簡單。例如,該團隊假設(shè),將算法的輸出更改為使用比自然數(shù)更多的比率可以大大減少誤解某些結(jié)果的可能性。
不幸的是,總的問題并沒有簡單的解決方法。大多數(shù)時候,我們不知道自己有偏見。我們相信自己非常聰明或直覺 ,或者我們只是不去想。機器學習程序員需要關(guān)注的不僅僅是20種不同的認知偏見。
即使算法是完美的,輸出是不變的,我們的認知偏見也使得我們對數(shù)據(jù)的解釋不怎么可靠。每個人都有這樣或那樣的偏見,這使得它關(guān)于如何影響數(shù)據(jù)解釋的研究很少。
該團隊介紹:
據(jù)我們所知,認知偏見尚未涉及機器學習結(jié)果的可解釋性討論。因此,我們發(fā)起了這項研究,研究結(jié)果發(fā)表在認知科學上,目的是為歸納規(guī)則學習算法的變化以及結(jié)果傳播的方式提供心理基礎(chǔ)。我們的審查確定了20種認知偏見,啟發(fā)式和效應(yīng),當解釋歸納學習規(guī)則時可能引起系統(tǒng)性錯誤。
重要的是,全世界的研究人員都要依靠這項工作并發(fā)現(xiàn)避免機器學習中的認知偏見的方法。 否則AI只不過是人類偏見的放大器而已。糟糕的科學勢必造就更糟糕的機器人。