從智能手機上類似于Siri這樣的語音助理程序到能自動駕駛的汽車,人工智能(AI)正在成為我們日常生活中的一個重要組成部分。但也有專家表示,與發展其他技術相比,發展人工智能要更加小心謹慎。
科技巨頭心有戚戚
最近越來越多的科學與科技巨頭加入反AI陣營當中。
著名天體物理學家斯蒂芬·霍金曾警告稱,按人工智能的發展進度,在不久的將來,機器可能就會以不斷加快的速度重新設計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。
美國太空探索技術公司SpaceX創辦人及特斯拉電動汽車CEO伊隆·馬斯克將玩弄人工智能等同于“召喚惡魔”,他認為人工智能可能是未來人類生存的最大威脅之一。
微軟聯合創始人比爾·蓋茨最近也發表言論表示對人工智能的發展感到擔憂,他說:“如果我們能夠很好地駕馭,機器能夠為人類造福,但如果若干年后機器發展得足夠智能就將成為人類的心頭大患。”
縱觀歷史上的發明,如火、電、蒸汽機等,除了推動社會前進,造福人類外,同樣也會造成危險。為什么我們偏偏要對人工智能區別對待?
未能如愿的邁達斯
美國麻省理工學院物理學家馬克斯·泰格馬克此前在參加一個電臺節目時說:“發展人工智能就像是發展核武器,在首次使用時我們真的需要慎之又慎,因為我們很有可能只有這一次機會。”
從好的方面來看,在一定時期內,人工智能的確有益于社會,甚至于幫助人類消滅戰爭、遠離疾病、告別貧困也不無可能。微軟研究院實驗室主管埃里克·霍維茨說,這項技術可以拯救成千上萬人的生命,無論是通過防止車禍還是避免醫療上的人為失誤。但對人類而言,發展人工智能的一個重要隱患是創造了一種能夠不斷完善自己并最終極有可能擺脫人類控制的機器。
美國加州大學伯克利分校計算機科學家斯圖爾特·拉塞爾說,不少人認為聰明一定是好的,會讓事情變得更加美好。但實際情況是,并非所有的事情都是如此。就像希臘神話中邁達斯國王的故事一樣,聰明的邁達斯曾想將他所觸碰到的東西都變成黃金,但獲得這一能力后他很快就后悔了,因為就連他的食物、水,甚至還有他的女兒也都變成了黃金。最終他接受建議,在河中沐浴后才得以解脫。
拉塞爾說,越來越聰明的機器極有可能不會沿著人類的期望發展。實際上,能夠自我學習自我完善的它們,很有可能在目標上與創造它的人類出現不一致。例如,核聚變和核裂變將近乎無限的能量儲存在一個原子當中,但不幸的是我們獲得這些知識后的第一件事情就是制造了一個超級殺人武器——原子彈。“如今,99%的聚變研究都是受到嚴格管制的,人工智能也將走上同一條道路。”
擔憂還不如去行動
泰格馬克將發展人工智能稱為“日益強大的技術實力與人類不斷增長的智慧之間的一場競賽”。他認為,與其減緩前者的發展還不如更多地投資于后者。
在今年1月的波多黎各,在由一家非營利組織生命未來研究所舉行的一次會議上,來自學術界和工業界的百余名位科學家、企業家、投資者聯名簽署了一封公開信,提醒人們關注人工智能的安全性和社會效益。生命未來研究所是由Skype聯合創始人讓·塔林等志愿者于2014年創立的一家非營利組織,該機構致力于促進對人工智能“樂觀的未來圖景”的研究,同時“降低人類面臨的風險”。
這封公開信中描述了人工智能的潛在好處,同時也對其隱患進行了警告。與會者認為,隨著人工智能研究的發展,它對社會的影響將越來越大。鑒于人工智能所具備的巨大潛力,應當將如何在規避潛在威脅的同時從中獲益作為一個重要的課題來進行研究。對人工智能,我們的目標是讓機器造福人類。期間,馬斯克向該機構捐贈了1000萬美元以促進這一目標的實現。