Home 閱讀一輩子 2062 人工智慧創造的世界

2062 人工智慧創造的世界

by


當機器人AI(Artificial Intellegence)已經發展到一個程度,我們不妨想想這個世界會變得怎樣?

 

  1. 會有更多的工作被機器人AI所取代,無法適應這種變化的人會失業。所以,怎麼辦呢?要終身學習。做能和機器人AI協同的工作或者機器AI比較做不到的工作。
  2. 修理機器人AI可能是一種新工作。但隨著機器人AI被訓練成能修理機器人AI,這種工作也會被限縮。
  3. 機器人AI比較做不到的工作:藝術家、需要手藝的工作(木工、釀酒、製乳酪、有機葡萄酒、手塑陶瓷…..)、和你聊天的咖啡師和酒保、挑禮服的銷售員、健身教練、法官、醫師…..

什麼樣的工作我們不希望機器人AI幫我們做呢?

殺人。我們不希望有殺人機器人AI,應該像大規模毀滅性武器如化武及核武一樣,予以禁止。

現在已經在運作的半自動殺人機器人AI就是軍用無人機,已經造成諸多無辜平民被誤殺的死亡案例了。而現在這些無人機還是有人在背後做遙控呢!

有一個叫「電車兩難」的經典哲學問題是:『電車開在軌道上,眼看就要撞死綁在主幹道上的五個人。但你手上握有控制桿,只要用力一拉,就能將電車導向支線,支線上「只」綁著一個人。這時候你該不該拉下控制桿?』*

這個問題對一般人就已經夠頭痛了,但是設想如果未來我們仰賴機器人做類似的判斷,那麼在它的程式及相關的考量上,就不能有模糊的空間。那麼在機器人AI的設計裏,到底該不該拉下控制桿呢?這就是問題之所在。

這是一個極端的例子,但是在未來一旦機器AI有更大範圍決定要怎麼做的時候,類似的兩難就有可能發生。所以《2062 人工智慧創造的世界》這本書的作者托比·沃爾許就預測,在未來的每一間公司裏,我們必須要有一位「哲學長」,在事前做好規劃,讓機器人AI依據我們認為最佳的方式來下決定。

譬如,全自駕的車子,在碰到無法避免的車禍時,要優先保護的是誰呢?是不是讓車主有可能受點傷但減少對方的死亡呢?

工業革命發生時,生產力大增,在長期而言,人們改去做不同的工作,而且工時也縮小了,休閒的時間變多了。在未來機器人AI的時代,會不會也是這樣呢?

現在很多國家的人口都老化了,機器人AI應該可以彌補一些勞動力的缺口。然而,我們不會喜歡完全由機器人照護或陪伴我們的老年,我們希望有溫度的人,有情緒、有感情的人。所以,照護的工作機會還是會有,只在於我們願不願意做。而至於機器人,則可以協助。那麼怎麼設計更符合人體工學的機器人AI,也就需要人的介入了,而且,那需要俱備跨知識領域的人。

透過機器人AI,對於有心人而言,要掌握我們的隱私相對容易,我們可能會不知不覺被銷售了自己想要但不見得需要的產品或服務。

獨裁的政權對人民的控制,可以做得更嚴密,甚至可以做到差異化的效果,對每個人用機器人AI做評分,讓比較「乖」的享有更多自由,非常有意見的則可能寸步難行,最後達到依照評分項目馴服的目的。

而至於所謂的民主選舉,機器人AI可能可以透過投票意向和意願進行特定的宣傳和催票,這在美國的大選中已經讓人感受到它的威力了,新的民主的主人是偏向能夠掌握機器人AI的侯選人團隊。

我們的現在就是過去的未來。

機器人AI的後面還是要有人,因為意識和潛意識還是人類的強項。一個機器人AI自行繁殖、複製的狀況是可行的,但是它們不像人類會亂想,會有創意,它們只會依循機器人AI被設計的方式去運作,所以我們如果要擔心機器人AI,那還真不如擔心後面那些設計的人。如果有人要設計一個機器人AI的系統來侵犯,來控制,來殺戮,來侵略,來毀滅,在技術上是可行的,現在軍事用途的無人機已經顯現機器人AI殘酷的一面,而這只是半自動的。我們不會想讓有衞星定位、生物辨識功能的武裝機器人AI巡視我們的城市,也不希望被這種機器人AI追殺到天涯海角。

生與死的判斷,還是留給有感情的人類才好。我們或許會犯錯,但是會反省。機器人AI卻不會,如果設計它的人不會的話。

*:《2062 人工智慧創造的世界》,托比·沃爾許 著,戴至中 

2022/1/20 2062 人工智慧創造的世界 Damakey

You may also like

Leave a Comment