Home 閱讀一輩子 Trustworthy, a business guide for navigating trust and ethics in A

Trustworthy, a business guide for navigating trust and ethics in A

by admin

什麼是AI(Artificial Intelligence)?

AI是工具,是數學運算,是功能模型,是解決方案。

‘…AI does not “think.” AI tools are in fact highly complex mathematical calculations  that have been constructed such that the solution to the calculations accurately describes something in the real world. More than this, AI as a concept is not just a discrete thing. It is as much a collection of model types performing different functions as it is a professional practice area for data scientists and the technology ecosystem that permits their work and AI they develop.’*

AI運用的主要範疇是:

Computer vision. 影像處理。

Natural language processing(NLO). 語言處理。

Speech recognition. 語言辨識。

Planning, scheduling, and prediction. 規劃、排程、預測。

Recommendation system. 精準行銷。

Robotics. 機器人。

……

為了達成這些AI的運用,AI除了程式之外,主要還倚賴大型數據資料的分析(學習)來建立功能模型。方法很多,舉幾個例子供大家參考:

Machine learning(ML). 機器學習:計算資料來自動產生相應的邏輯(algorithms),這個過程也叫做「學習」。

Neural network(NN). 神經網絡:在輸入和輸出之間的關係,就像人腦(多層次)的神經網絡一樣。電腦計算資料,建立神經網絡的交接點及它們之間的關係(也叫做「學習」)。簡化言之,一旦神經網絡建立了,未來有新的輸入,透過這個神經網絡,輸出就可以產生了。

Deep learning(DL). 深度學習:這是Machine learning(ML) 機器學習的一支。最主要的是,除了有固定格式(structured)的資料之外,深度學習的技術更有彈性,還可以從不固定格式(unstructured)的資料或未標明(unlabeled)的資料中進行學習。這裏的「深」,是指深度學習的神經網絡(NN),有非常多層,更複雜。

Supervised learning. 控制下的學習:這是Machine learning(ML) 機器學習的一支,指針對特定的邏輯,輸入特定的資料(分類或廻歸分析),來提高模型的精確程度。

Unsupervised learning. 非完全控制下的學習:最主要是從不固定格式(unstructured)的資料或未標明(unlabeled)的資料中學習,來尋求模式、建立模型。

Reinforcement learning. 嘗試錯誤的學習:機器從嘗試中得到回饋,然後逐步改善功能模型的方式,這有點像人類的學習模式。

AI的挑戰,在於它往往非常複雜,牽涉到非常多的運算,對人而言,並不直觀。

譬如,以 「Neural network(NN) 神經網絡」的技術為例,它的模型功能中的網絡點既多,網絡也可能有非常多的層次,輸出和輸入之間的關係就令人無法理解(有若黑箱一般)。

而AI的功能,又經常是如此強大,因此有人就害怕,會不會有一天AI會反過來主宰,傷害甚至毀滅了人類呢?

如果看到AI運用之一的無人機在戰場上發揮的殺戮功能,AI毀滅人類,似乎並不是危言聳聽。

早在Isaac Asimov 於1942年出版的‘Runarund’的故事書中,就提出了設計機器人時,必須遵循以下三點基本原則,以保護人類:

Three Law of Robotics

1. A robot may not injure a human or allow a human to be injured.

2. A robot must follow human orders except when they conflict with Law 1.

3. A robot must protect its own existence except when it conflicts with Law 1 and Law2.

以現今AI的複雜程度,已經不是簡單的邏輯程式,前述的三點基本原則,已經遠遠不足以保證AI不造成傷害,更惶論保護人類了。

’Trustworthy, a business guide for navigating trust and ethics in AI ’ 這本書的作者Beena Ammanath,提出了一個從公司治理這樣的高度,如何引進AI促進效率的同時,也能避免或減少AI所產生的負作用。

現在AI的發展,尚在新一期產業革命的初期階段。

Beena Ammanath舉汽車剛問世為例,當時的交通法規及交通設施並不完備,行人自己必須小心過馬路。但是這並未阻止汽車上路,相關的配套措施,是逐漸摸索而產生的。

生產汽車的公司或駕車的人造成的任何傷害,相關的人還是有責任的。譬如,汽車的瑕疵,會造成車廠的巨額損失,所以汽車生產相關的人就得負起相對的責任,這就是廣義的公司治理。

AI也是類似。

AI就像一部「未來的」汽車,要確保它產生利益、減少損害,公司上上下下,當然都要負起相關的責任才可以。

以審核貸款或招募員工的AI為例,必須透過充分的測試,以確保它會不對特定的貸款申請者產生歧視。因為在訓練AI的時候,如果不小心,可能會用到充滿歧視的資料庫,訓練出會歧視的AI。那麼這是誰的責任呢?當然是使用該項AI的公司要負起完全的責任。

在公司治理上,為什麼在錄用員工時,要強調廣納百川(diversity),因為處理資料的人員也可能因為他的背景,而不經意採用了充滿歧視的資料,訓練出來的AI也會有歧視的傾向了。有各種背景的員工來處理資料,可以平衡一下。

公司的高層,不能說不了解AI就可以的。就公司治理而言,並不是不知者無罪。

公司的資訊部門,必須讓公司的高層和管理人員儘可能理解所運用的AI是什麼。在策略上,對於不懂的AI,也就是不了解該項AI所帶來的風險,那麼決策人員決不採用它,也是一種選擇呢!

曾經有投資公司,太仰賴AI進行即時的自動交易,以致造成巨大損失而引發公司的倒閉。這個問題就在於公司的高層對於該AI的風險事先認識不足,事後,對AI的授權沒有控制,或沒有及時預警的機制。公司的倒閉,是人為的結果、公司治理的問題,不能怪AI。

在訓練AI時,會用到大量的客戶資料,這就牽涉到個人資料的運用是否已經取得同意,資料的保護的措施是否充足,資料外洩的風險和損失等等的問題。

個人資料的保護,在現行的公司治理上,就已經是挑戰了。而運用AI的公司更挑戰的是,用來訓練AI的資料數量往往很龐大,濫用、外洩等在聲譽損失及適法性的法律風險更大,所以在採用AI之前、之中及之後,整個AI的軟體生命循環,都必須要持續密切評估和監控的。

AI是時勢所趨。要駕駁AI,就要在公司治理的高度上,使得採用的AI是值得信賴的,也就是說,這些AI系統必須要符合以下的幾個原則:

1. Fair and impartial. 不產生歧視。

2. Robust and reliable. 穩定可靠。

3. Respectful of privacy. 尊重個人隱私。

4. Safe and secure. 兼顧資料的安全。

5. Responsible and accountable. 相關人員能負起責任。

6. Transparent and explainable. 系統透明且容易理解。

AI在不斷地演進,採用AI技術的所有利害關係人(stack holders),都必須在各個層次上充分了解AI的機會和風險。其中最重要的,以AI潛在的影響力,公司的決策人員必須有深度的參與,這也是為什麼我們要再三強調公司治理的重要性。只把AI放在資訊部門的位階,既有可能錯過了它在策略上可以帶來的巨大機會,也可能因此忽略了它潛在的風險以致公司蒙受重大損失甚至倒閉。

*:Beena Ammanath,’Trustworthy, a business guide for navigating trust and ethics in AI ,’  2022, John Wiley & Sons, Inc. Hoboken, New Jersey

2023/5/12 Trustworthy, a business guide for navigating trust and ethics in AI  Damakey

You may also like

Leave a Comment