
新技術的發明常常會令人振奮,一旦普及卻可能造成許多恐慌。生活在這個時代,一個切身的體會便是:技術改變我們的生活方式,也改變了千萬人的職業選擇。打車軟件的應用近乎消滅了出租車行業大半,移動互聯網與智能手機的聯合,更是重構了無數傳統的行業。近期,就在國家統計局公布8月CPI數據的第一時間,騰訊自動化新聞寫作機器人Dream w riter(夢幻寫手)寫出新聞稿的消息爆炸開來,迅速成為傳媒界議論的焦點。記者圈開始出現焦慮性的爭論——— 到底我們何時會失業?
往前推兩天,即9月8日,“2015百度世界大會”可謂萬眾矚目。百度創始人李彥宏宣布推出百度智能機器人助手“度秘”,豪言要讓每一個人用得起秘書。未來,記者轉秘書的夢想恐怕要破滅了。再早一些,微軟第三代人工智能機器人“小冰”也殺回微信,自稱17歲陪人聊天是其強項。而馬云提到的軟銀已經正在批量生產投向市場的情感機器人“pepper”,因為價格只有1萬出頭,可能將我們直接帶進了“機器人進入普通人家”的時代。
如果將目光轉向更大范圍,全球性的互聯網巨頭如谷歌、蘋果、Facebook,以及國內聲名鵲起的科大訊飛、大疆科技甚至華大基因,都在向充滿奧秘但商業價值龐大的“人工智能”領域邁進。一夜之間,人工智能似乎變成了互聯網+之后更為火爆的概念。誰不涉及人工智能,誰似乎就要被掃入歷史的垃圾堆。
時下,輿論對于人工智能充斥著誤解,以及自我矛盾的兩極化預言。主流的商業性報道、評論或演講,更多看重的是這一市場的龐大、利潤的可觀,他們通過描繪人工智能時代生活的無限便利,來進行產品的推廣抑或機構的融資。另一種帶有演繹色彩的文學、科幻作品,則更樂意將人工智能的結局想象成人與智能機器人之間的對立、沖突乃至戰爭。
對商業價值的極度崇拜,對倫理崩塌的深度隱憂,構成了兩種重要的論調。在筆者看來,商業價值的狂飆突進是大勢所趨,倫理隱憂的討論卻存在種種誤區?;诖?,本文打算暫且擱置對人工智能商業價值的探討,而主要聚焦我們所關心的另一個話題:人工智能將帶來怎樣的倫理困境?
強人工智能vs弱人工智能
人工智能很火爆,但它的定義到底是什么。查閱百度百科,定義如下:人工智能(A rtificialIntelligence),英文縮寫為A I。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。研究的目標是,機器視、聽、觸、感覺及思維方式對人的模擬,包括指紋識別,人臉識別,視網膜識別,虹膜識別,掌紋識別,專家系統,智能搜索,定理證明,邏輯推理,博弈,信息感應與辨證處理等等。
任何一個領域,必然存在著多個流派,人工智能領域也不例外。目前,最重要的三大流派如下:第一派是符號主義,或稱計算機學派,其原理主要為物理符號系統假設和有限合理性原理。說白了,就是相信計算機的運算能力疊加,將會最終幫助機器獲得自由意志。第二派是聯結主義,又稱為仿生學派,其原理主要為神經網絡及神經網絡間的連接機制與學習算法。簡言之,他們相信模仿人類大腦的構成,可以制造一個相同的大腦。第三種是行為主義,又稱進化主義或控制論學派,其原理為控制論及感知-動作型控制系統。這一派認為智能不需要知識、表示和推理,通過在現實環境中交互,智能行為會逐步得到進化。
上述三種研究進路,當然只是一部分,雖然很主流,但在這個充滿奇思妙想的人類世界里,相信還有很多怪異的研究方法,到底哪一條路才能研制出真正的“智能人”,即擁有人類思維的機器人,在事情發生之前,沒有人會知道。
人工智能學科的起源,普遍被認為是1956年在美國達特茅斯大學召開的一次會議。后來,被稱為“人工智能之父”的約翰·麥卡錫博士在那次會議上首次提出了人工智能的概念,他認為:人工智能就是要讓機器的行為看起來就像是人所表現出的智能行為一樣。不過,這個定義不夠精準。目前,對人工智能的定義大多被劃分為四類,即機器“像人一樣思考”、“像人一樣行動”、“理性地思考”和“理性地行動”。這里“行動”應廣義地理解為采取行動,或制定行動的決策,而不是肢體動作。
由此,也誕生了“強人工智能”和“弱人工智能”的區分,即機器的思考和推理就像人的思維完全一樣,就是強人工智能,而如果機器只是部分擁有人的思維、推理、情感、行動能力,就算是弱人工智能。我們前面提到的騰訊的“夢幻寫手”、百度的“度秘”、微軟的“小冰”、軟銀“pep-per”以及蘋果iO S系統的“siri”,都只是在思維上部分擁有人類的推理、情感或其他能力,所以都屬于弱人工智能。目前流行的智能家具、智能汽車、無人機、智能手機,也都是弱人工智能的體現。
人工智能的倫理陷阱
接續上文的論述,所以,倫理的討論也分為強人工智能和弱人工智能兩部分。
首先,按照強人工智能的定義,我們可以得出該機器人獲得了人類完全的思維能力,他(暫且用“他”)擁有我們相同的思維、情感、創造力乃至不可預測性。那么,問題來了,他到底是機器人還是我們所認為的人類?
疑問1:他身體構成的材料與我們完全不一樣,也許是硅膠,或者是別的東西,總之不是我們這樣的血肉之軀。那么,他還是人類嗎?
回答:關于人的定義,核心在于身體還是具備人的思維意識,這一點需要考慮清楚。安裝假肢的殘障人士也有非血肉材料,只是比例較小。然而,伴隨3D打印器官的投入使用,人體越來越多的部分都可能不是血肉之軀,但我們不會認為他們就不是人類范疇了。所以,只要思維一致或者更加抽象地說,擁有自由意志,那么不管他是什么做的,就已經屬于人類范疇了。
疑問2:他并非人類繁衍的產物,他沒有生理學意義上的父母,更像是一個怪物,所以還是人類嗎?
回答:試管嬰兒在今天已經非常普遍,克隆如果不被禁止,克隆出的產物也會被認為是人類,正如“多利”不會被認為不是羊。未來,人工智能無論通過什么方法,如果最終能夠制造出具有人類思維的機器人,那么應該賦予其基本的“人權”,承認其人類的身份。
所以,在是否該賦予強人工智能制造的機器人“人權”這一點上,不該存有疑慮。既然承認他是“人類的成員”,那么人類現有的價值判斷原則就沒有遭受沖擊的可能,因為我們只需要用人的方式對待他即可。無故傷人也好,破壞公共秩序也罷,之前如何對待人類,現在也就照樣對待。
當然,對于社會關系,例如家庭組織、親屬關系的沖擊是顯而易見的,但這并不影響整個世界最基本的制度規范。千百年來,婚戀的變遷、審美的流變,都差距奇大,但這些變化也都在歷史長河中被“合理化”。也許就像50年前的人無法想象如今極為普遍的婚前性行為或同性戀合法化一樣,今天的我們也無法去設想智能機器人加入我們之后產生的變化會如何消除爭議。
所以,強人工智能的機器,并非新的物種,他就是歸屬于人類,他帶來的倫理沖擊并不能上升到宏觀價值。況且,我們距離強人工智能時代還很遙遠,關于倫理,弱人工智能反而更加值得討論。
弱人工智能的倫理問題存在已久,討論最典型的即無人轟炸機的倫理問題。一個自動轟炸的機器人,成為了戰爭的幫兇,萬一失控,造成對平民的傷害如何界定。對此,我們需要明白,人類從制造勞動工具和武器開始,工具就已經變成了自己的延伸。工具本身的智能水平有限,并不能擁有完全的自主性,所以無人機無論造成什么后果,責任主體依舊沒有變,就是控制機器人的人。由此可以推出,智能汽車失控,或者智能導航帶你進湖,這些都屬于擁有明確責任主體的機器。
其次,則是隱私問題。每一個智能機器人(設備)都是一個收集數據的終端,無數數據的匯集最終可能出現有價值的商業模式,前提之一必然是個人隱私的被販賣。對于隱私的邊界,人們并非不可接受,但是要認同讓渡的隱私權和獲得的便利比是有價值的。目前來看,大數據產生的隱私濫用問題已經非常嚴重,斯諾登的出現表明企業和政府形成了“同謀”,鐵幕遍地,并非危言聳聽。
人類數千年的文明史,倫理體系混亂不堪,至今我們也沒有一個統一的、標準的、明確的倫理體系,而僅有一些大部分人承認的大體的原則而已。對于人工智能帶來的倫理沖擊,更多的聚集在一些較為規則性的領域,從人類自身的發展歷程來說,可以稱其為無關宏旨。即使是政治監控的問題,這也并非人工智能獨創的,秘密警察、告密制度早已有之。人類社會存在的陰暗面,不能簡單嫁禍智能機器人,無論他是否真正具備人類的思維方式。
人工無智能:虛擬現實
本文的主題是討論人工智能時代的倫理問題,從上文可以得知,強弱的人工智能時代,或許會存在一些具體領域法律規則或社會規范的調適,但不會引起大規模、根本性的倫理困境。似乎到了這里,關于倫理與人工智能的討論就可以告一段落了。但正如許多人所秉持的“誤區”一樣,人們把人工智能等同于高科技發展,把技術與倫理的關系直接套用在人工智能與世界倫理的關系上。
這樣的憂心多少有些歪打正著,我們早已邁入弱人工智能時代,強人工智能時代又并未出現明顯跡象,但我們卻忽略了虛擬現實(V irtual R eal-ity,簡稱V R )馬上降臨的基本事實。而這一同樣充滿著高科技色彩,并且被很多人誤以為是人工智能領域的技術,將很可能帶來一系列新型倫理陷阱。
在討論虛擬現實技術可能帶來的倫理沖擊之前,先列出虛擬現實的學術定義:是一種可以創建和體驗虛擬世界的計算機仿真系統,它利用計算機生成一種模擬環境,形成一種多源信息融合的交互式的三維動態視景和實體行為的系統仿真,使得用戶沉浸到該環境中。補充一點,虛擬技術不是人工智能技術,因為沒有賦予頭盔、眼鏡或者其他物件智能思維,看起來,它更像是一個工具———盡管我們在后面的分析中會發現這一判斷同樣充滿爭議。
2014年3月,Facebook宣布以20億美元收購沉浸式虛擬現實技術公司Oculus V R。虛擬技術數十年的發展歷史,亦是幾經沉浮,但時至今日,虛擬技術引發的關注可能帶來質的突破。在美國《時代周刊》2015年8月的封面文章中,我們看到虛擬現實已經是硅谷最熱的事物,索尼、三星、H T C都卷入了這一輪由Facebook收購Oculus引發的熱潮。
目前,虛擬現實技術需要解決的問題是可穿戴設備的便捷性以及價格上的居高不下兩點。一旦商業價值被充分看好,將會迅速帶來“人聯網”和“物聯網”的聯結(中山大學哲學系教授翟振明語),屆時產生的結果將是,當你進入一個虛擬的世界,你可以獲得實體機械工具(人工無智能機器)的操控能力。在虛擬現實技術解決視覺感知外,還有聽覺、觸覺、力覺、運動等感知,甚至還包括嗅覺和味覺也被模擬,此外,頭部轉動,眼睛、手勢、或其他人體行為動作所能達到的實時響應,使用者將可以完全獲得虛擬=現實的感覺。
就此,著名電影《阿凡達》中杰克·薩利在潘多拉星球上的“替身”現象,就會真真切切地出現了。舉一例,A在廣州,但他可以通過虛擬現實的技術,操控他的“替身”去紐約開會。使用期間“替身”所有的動作、發言和行動,都由A在廣州來操作,因特網就可以提供A與人替的實時鏈接。從技術上看,這一刻很快就將到來,由此也更加迫切地要求我們,提出倫理上的疑慮和擔憂。
虛實難分的倫理困境
中山大學哲學系教授翟振明令人吃驚地創建了全球首個“人機互聯實驗室”,也令人吃驚地聚焦到了虛擬現實技術成熟和普及后的倫理問題。
翟振明的觀點是:以往的技術基本都是客體技術,即通過制造工具、使用工具來改造自然客體的技術。并且,這種被制造和使用的工具本身也是客體。例如,一輛汽車、一把錘子雖然融入了人的技術,但它們畢竟還是與制造者分立的物體。與客體技術相比,虛擬現實技術則是一種主體技術。這類新興技術不是用來制造客體化的工具的,也不是用來改造自然客體的,而是用來改變人本身的。成熟了的虛擬現實化的人聯網,相當于我們重新創造的一個物理世界。如果此類主體技術成為我們的主導性技術,我們的生活方式將會從根基上發生巨變。
翟振明將《阿凡達》中的“替身”翻譯成“人替”,他認為在使用虛擬現實系統之前,我們主要是用鍵盤、鼠標、手柄之類的東西來操作。有了虛擬現實頭盔等可穿戴設備,虛擬現實不久就可以整到這里來了,你的人替也不再是第三人稱視角的對象,而是變成第一人稱視角。所以,遠在紐約的人替雖然沒有自我意識,而是作為A的自身存在,A的所有感知和行動都體現在人替上。
這帶來了直接性的倫理挑戰。按照翟振明的分析,在“人聯網”與“物聯網”無縫銜接之后,假如A的人替在紐約犯罪,將會造成紛繁復雜的困境:例如A在現實中是男性,但虛擬世界中選擇女性,在虛擬世界中性騷擾一位女性,可能造成法律不適用;又如人替與人的關系,人替是身體的一部分,還是屬于財產,處罰時如何處理人替和人;超越國界的使用,也會挑戰政治的邊界,犯罪的A到底是在美國還是中國,這些都值得討論。
在虛擬和現實之間的邊界變得模糊不清之后,所制造的倫理困境還有非常多,這里只是列舉了其中一小部分。但最為終極的倫理問題不是別的,而是翟振明所憂慮的:在人聯網和物聯網無縫融合成一個巨型系統之前,我們最迫切的任務就是要想辦法保住每個人類個體的自主性,杜絕有人試圖把大家用作操作物聯網的工具,也就是防止控制了物聯網的某個寡頭或一小撮寡頭聯合體把所有的其他人當作實現其權力意志的永久性工具。在這個地方,我們的決策差之毫厘,就有可能導致人類未來走向失之千里。
的確,假使短期內技術取得很大進展的虛擬現實技術獲得普及,帶來的絕不是文章開頭擔心的某一行業、某些工種受到沖擊的問題,而是整個社會權力的重新配置,那些占得先機又肆無忌憚的寡頭,將獲得控制的途徑,并發生新的專制暴政的問題。學者、媒體和公民,以及充滿憂患意識的科技人員,有義務在虛擬現實時代降臨之前,秉持人文理性,倡導建立起新世界的規范與倫理。