來自麻省理工學院(MIT)媒體實驗室的布雷澤爾認為,“社交機器人能夠以人的方式與我們交流和互動,理解我們,甚至與我們建立關系。它是一個具有類人社交智能的機器人。我們與它互動,就好像它是一個人,甚至是一個朋友!蓖瑯邮莵碜訫IT的達菲也認為,機器人能夠與人進行有意義的社會交往,這本身就要求機器人具有一定程度的擬人化或類人屬性,無論是在形式上還是在行為上,或者兩者兼而有之。
事實上,從目前市面上所流行的社交機器人來看,它們不僅具有人形的外表,而且還可以通過“言語”“面部表情”“肢體語言”等來模擬人的情感?梢灶A測,隨著人工智能技術的發(fā)展,社交機器人的“擬人化”屬性會越來越凸顯。不僅如此,達菲還認為,當今許多機器人專家的終極目標是制造一個完全擬人化的合成人。然而,當人類正為機器人的“完全擬人化”而付出努力,并為之自豪時,“擬人化”所帶來的倫理風險也不應被低估。
來自都柏林大學智能實驗室的扎韋斯卡 一針見血地指出了問題所在,她認為,“擬人化的核心是幻覺,因此,社交機器人的一個關鍵倫理問題就是欺騙! 來自英國謝菲爾德大學的阿曼達·夏基和諾埃爾·夏基也認為,設計機器人來鼓勵擬人化的屬性可能被視為一種不道德的欺騙行為。
為什么社交機器人的“擬人化”屬性能產生“欺騙”倫理問題呢? 這需要從對“欺騙”的理解說起。斯坦福哲學百科全書將欺騙定義為,“使人相信虛假的東西”?梢姡瑢τ诒黄垓_者而言,所面向的事物或者其屬性具有“虛假”性,這是欺騙得以產生的根源。
斯派洛通過比較機器人與生物體之間的區(qū)別,指出了機器人的“虛假”性,他認為,“機器人沒有任何感覺或體驗。”來自維也納大學的科克爾伯格也從三個方面總結了情感機器人的“不真實”性,一是 情感機器人企圖用他們的‘情感’來欺騙。二是機器人的情感是不真實的。三是情感機器人假裝是一種實體,但它們不是。由此可見,無論機器人的“擬人化”程度多高,和人類自身相比,其仍然是虛假的和不真實的,而這無疑和欺騙定義中的“虛假的東西”高度契合。但只有“虛假”還不足以將“欺騙”上升到道德倫理的高度。
卡森認為,欺騙需要某種意圖來導致他人產生錯誤的信念。欺騙在道德上的顯著特征是它涉及到故意地使他人產生錯誤的信念。很顯然,社交機器人必須要“故意地”隱瞞自己“情感”“語言”“構件”等方面的虛假性,才能產生“欺騙”倫理問題。然而,由集成電路、元器件等組合而成的社交機器人本身并沒有任何“意圖”,但是,它們“擬人化”的屬性卻自帶“意圖”,即誘導人相信它們看起來更像人的意圖。扎韋斯卡等人認為機器人本質上只是一種機器,“它利用人類擬人化的傾向來制造生命的幻覺,而不是變得有生命!笨梢姡瑢Α叭祟(將物體)擬人化的傾向”的利用就是一種“故意”,它所指向的就是“制造生命的幻覺”的欺騙“意圖”。因此,結合欺騙的定義以及社交機器人的“欺騙”意圖來看,確實存在社交機器人的“欺騙”倫理問題。
(來源:新浪財經頭條)