(2019-11-05)AI用在非技術性領域,尤其涉及到人,出現偏差的情況越來越引人注意,對AI運算的有失公允,也越來越教人憂心...

你是否需要醫療的特別照顧,可能是由AI軟體來決定。(圖:Pixaby from Pexels)

(2019-11-05)AI用在非技術性領域,尤其是涉及到人,出現偏差的情況越來越引人注意,對AI運算的有失公允,也越來越教人憂心。

《科學》(Scicnece)雜誌簡單的舉了幾個例子:高薪求才廣告觸及女性的機率較低、用影像搜尋專業CEO很少出現女性的照片、用在治安的臉部辨識對女性與非裔則有欠精確、搜尋非裔有名望的人卻轉到通緝嫌犯的名單。對性別與族群忽隱忽現的歧視,AI究竟在哪裡出了問題?

 

有人說歧視是設計者故意留下的,如果屬實,是違法的,即使有這樣的人也是極少數。AI的製程是一個很複雜的流程,在先天上有偏差的元素,例如首先要決定這個AI要做什麼事,就要製造一個機器學習的模型,做什麼事可能是含糊的語言,要逐項具體化才能轉換成機器學習的模型,這是人與機器的溝通,不同的思維與語言,出入難免。

收集訓練機器的資料,是可能導致AI偏差的最大原因。資料從多處不同來源,品質不一,如果本身就有偏差,那結果必然偏差。資料代表性不足,例如用太多淺膚色的照片訓練認臉,那對深膚色的臉部辨識就不精準。歷史資料代表一個機構的特質,如果一家公司男性員工多,用應聘的歷史資料訓練求才的AI,必然傾向雇用男性,造成性別失衡。

有了資料,就要從龐大資料群選擇內容,也就是用哪些項目來訓練機器,希望AI來考慮。涉及到人的事情,不外年齡、性別、住址等基本資料,或學歷、經驗、專長、財務狀況等職業資料,但這些資料項目相互關連,選用哪些、放棄哪些,往往是一大挑戰,因為都會影響結果的精確性。

AI在製作上有這麼多發生偏差的機會,一旦發現偏差要改正卻是另一個難題,因為首先要找到哪一項或哪幾項資料導致偏差,即使找到更改,有時會製造另一個偏差。其實基本問題在AI的技術性製程,幾乎全由電腦技術人員負責,涉及到的許多社會問題,往往疏於考慮,像是「公平」並沒有明確定義,同一AI在甲地認為偏差不公,在乙地就可能沒有問題。

加州大學柏克萊分校的學者最近做了一大善事,破解了美國健保的一大偏差,受惠人無以估計。美國健保機構用AI來預估病人是否需要額外照顧,但這一結果卻傾向白種人,對於需要特別治療的複雜病情如腎臟或糖尿病,白種人則優先於非裔黑種人。生病不分黑白,治療卻分先後,這是10月25日《科學》期刊的一篇研究報告「剖析管理大眾健康演算法的種族偏差」報導的。

研究人員從一家大型教學醫院取得五萬份資料,發現白種人較同樣病情的非裔族群更容易獲得較高的「危險分數」,被選為需要額外照顧的病人,經研究人員估算,這一偏差可能讓原本應得到額外照顧的非裔病人減少一半。

華盛頓郵報指出,這一性命交關的軟體叫Optum,為有7,000萬顧客的保險機構UnitedHealth所擁有,研究人員又找出業界最常用的10種演算法,累積的類似偏差涉及到2億美國人。

美國的醫保為營利機構,以商業方法來決定病人的保健,因此電腦軟體的演算法採用了歷史資料,也就是用病歷年來預估醫保系統的成本,歷年醫療花費越多,「危險分數」越高,遇到複雜病情就越需要特別照顧。邏輯不錯,社會現象卻錯了,因為非裔族群由於社會經濟的種種原因,同樣的病情在醫療的花費較白種人少,所以同一電腦「危險分數」,非裔病人就較白種病人病情嚴重得多。

現在問題就非常明確了,病人需不需要特別照顧,是看病情、不是看估算出來的成本。這一原本認為可以準確預估成本的系統,卻假設同一病情的非裔病人較白種病人健康,分配到較少醫療資源,造成不平等現象。

幸好研究人員及時改正了Optum軟體,偏差矯正了八成以上,新版本除了預估病人未來的成本,也預估病人今後舊病復發的次數,使需要特別照顧的裁決因素更為合理。

AI偏差不是不能矯正,但找到偏差問題所在並不容易,找到後又如何更改,是不是會延伸另一偏差,也是大家所顧慮,這恐怕是看到偏差卻少有人更改的原因。加州大學柏克萊分校的學者找出醫保偏差,然後公允矯正,值得讚揚。但像徵才、信用評等、保險估價、乃至刑事公正,電腦運算或有欠公允的情況,就仍待專家們去剖析匡正了。


本文取材自2019年11月3日「那福忠西海岸數位隨筆(124)」:醫保AI的偏差與矯正
對本文有任何看法,歡迎 E-Mail:frank.na@gmail.com 給作者,分享您對本文的看法。