(2019-01-15)2018是人工智慧成長快速的一年,但在成長對面,也存在了陰暗的一面...

人工智慧的陰暗面相(The Dark Side of Artificial Intelligence)。(圖:itij.com)

(2019-01-15)2018年,是人工智慧(AI)成長快速的一年,也可以說是「智慧」增進的一年,運用的範圍也擴大到科技以外,工商各業從工廠到辦公室,居家生活的衣食住行,不冠以AI就好像落伍似的。

這好比上一世紀70年代電腦發展初期,任何事都要加電腦兩個字;又好比90年代網路紅翻了天,記得當時英國有人設計方便上網的茅房(Loo),讓人真的一邊「方便」、一邊上網。現在的AI,看起來是步電腦與網路的後塵。

 

在成長的對面,也就是正向光明的另一面,存在了陰暗的一面。自駕車的車禍,無疑引起行人與一般駕駛人的憂慮;臉書(Facebook)洩漏大量個資,操縱政治活動,引發的軒然大波是否會重演;深度學習技術,可以維妙維肖的仿製變造語音與影視,精密到真假難辨。

Google為國防部提供AI技術,分析中東影片,引發Google員工抗議,AI的軍事用途成為全球話題;偏差的演算法與數據,導致AI偏差,弱勢族群或遭受不平等待遇。這許多陰暗面的AI,在2019年能否清理消除?

自駕車、無人車的發展
自駕車,可以自動行駛但有人坐在駕駛座,遇到狀況切換成手動駕駛。去年一輛自駕車,在一條亞利桑納州公路夜間行駛,一名婦人推自行車橫跨馬路,自動系統沒有煞車,駕駛人也一時疏忽沒看到路上有人,當場撞死這名婦人。即使如此,亞利桑納州還是開闢有限的區域,供Google的Waymo無人車以計程車載客行駛,無人車,指的是駕駛座上不坐人。

無人車的下一步發展,是車內沒有方向盤、腳踏板、以及任何控制行車的器具,是一輛完全自己駕駛的車輛。目前交通法規還不允許上路,唯各大車廠都躍躍欲試,通用汽車(General Motors)還向交通單位請求放寬這一規定。

無人車發展的初衷,在減少數以百萬的車禍死亡,川普政府有意放寬法規,唯一旦施行,路上的車輛與行人都成了白老鼠,安全不無堪虞,看樣子今年可能還是無解。

臉書個資的洩漏
臉書的紕漏,可以說驚天動地,同時也暴露了設計的缺失,製造機會任人玩弄,讓放大不實、暗藏爭論、分化族群的新聞與資訊,在適當時機浮出水面。

臉書執行長札克伯格(Mark Zuckerberg)在國會被煎熬兩天,應允訓練AI找出有害的內容。但基本的問題,是機器無法理解人類的溝通語言,即使學習,仍難瞭解文字、圖像、影視的真正意涵。所以臉書為此仍雇用人力,偵測有害內容,提出警訊。

紐約時報比喻社群網路有如每晚與500個朋友喝酒,你可能聽到一些消息,但不太會記得誰說了什麼,也不會在意消息是否真實向誰求證,因為消息太多了。

我們聽到的幾乎都是二手消息,但是否相信,多取決於對傳播者的信任,但這種證言規範(Norm of Testimony)並不存在於社群網路,因為大多數的「朋友」在真實世界可能都不認識。今年有南非與奈及利亞選舉,且看臉書預防的措施能否生效。

​深度學習的進展
深度學習(Deep Learning)的進展,把AI帶入新的境界,生成對抗網路(Generative adversarial networks)用兩個網路對抗,網路一盡量挑剔網路二的缺點,網路二盡量避開網路一的挑剔,這樣相競的最後,可以製作出幾可亂真的圖像與影視。

AI技術固然因此前進一大步,造假的技術也跟著前進一大步。去年5月29日的「從深度學習到深度造假」,例舉一段前美國總統歐巴馬的「談話」影視,再次播放如下。(不是歐巴馬說的歐巴馬談話。)

一個月以前,Nvidia宣佈把深度學習推向另一層次,製造出的精緻人臉,不是幾可亂真,因為就是真的,從式樣、皮膚、毛髮,與真人的照片無異,無法辨認是製造出來的,但這是假人,在世界上不存在的人。

Nvidia從大批的人臉照片取出各部位的式樣,用來建造不存在的人像,這不是AI造假,是造「真」。國防部外圍組織DARPA預備用新技術偵測深度造假,新技術免不了還得用AI,AI捉AI?貓捉耗子的遊戲。


Nvidia AI的產品,真人面孔不存在的人。(圖:Nvidia)

去年Google參與國防部Maven計畫,用AI工具協助美軍分析在中東空拍的圖片,Google員工知道後大力反彈,堅持AI不能用於戰爭,引發學界、科技業的聲援,有點像當年反越戰的味道,迫使Google當局停止Maven計畫的合作,宣示不發展戰爭AI,並制定倫理規範。

AI用在軍事,似乎是再自然不過了,軍方除了自行發展,也需要業界協助,即使Google不幫忙,微軟與亞馬遜仍保留協助的態度。但AI化的戰爭是否會肆無忌憚的殺戮,成為有識者最關心的事,像「制止機器殺人運動」組織,就試圖藉一連串的會議,寄望聯合國盡快約制這些不需人操控的全自動武器。

當AI的運用逐漸普及,在漫不經心之下,進入了我們的生活,許多生活上的選擇,求學、謀事、借貸、醫保,都不再由人,而是由機器來決定。

理論上大家用同一尺度,摒棄人為的偏頗,是一個公平的法則,但背後所用的數學模型,既不受管制、又無法驗證,即使錯了也任其走下去,致不斷的擴大歧視,支撐了幸運的人,卻懲罰了不幸的人,數學就成了毀滅武器。

這是去年2月6日「我們背後的數學引擎」所闡述的AI負面效應。AI之所以有用,是由演算法、或說是數學模型,用大量資訊、或稱大數據,訓練學習產生。無論演算法在設計上的偏差,或大數據取得的不確實,都會扭曲AI的運作。

說起來這是一個嚴重的問題,長期下去,AI所製造的不平等,更增加社會的分歧。去年9月,IBM推出一個AI Fairness 360工具,幫助偵測AI的偏差,效果如何,拭目以待。

AI像是一把兩面利刃,希望兩面的銳利不要相等,反面要不停的磨,磨的越鈍越好。


本文取材自2019年1月13日「那福忠西海岸數位隨筆(83)」:清理AI的陰暗面向
對本文有任何看法,歡迎 E-Mail:frank.na@gmail.com 給作者,分享您對本文的看法。