隨著人工智能技術發展加速,越來越多的不可能正成為可能。人工智能在人類生活中的存在愈發廣泛且深入,甚至于已經開始介入人類的情感當中。
人工智能正在我們周圍逐漸產生影響力。在社交媒體上做定向廣告,篩選求職者,確定機票價格,通過語音識別控制中央暖氣系統,創造文化輸出,或調節交通流量等,人工智能在人類生活中的任務越來越多。
馬斯克預測,到2017年底,特斯拉無人駕駛汽車將能夠在美國各地安全行駛,而無需人工參與。社會型機器人生活在人類周圍,能夠在十年內完成許多家用或護理型任務。
人們普遍認為,到2050年,我們將能夠在這些特定領域之外的其他方面也獲得進展,最終實現通用人工智能(AGI)。AGI是微軟發布的新概念操作系統Singularity的一部分。其理念是計算機能夠在任何認知型任務上超越人類,而人機融合也變得極為普遍。在那之后會發生什么,誰都說不準。
你有人工智能策略嗎?你希望有嗎?
有一種有趣的想象是在人類身體里安裝計算機零件,從而令人類更快地處理數據。人工智能領域中的一些人設想的“神經網格”可充當大腦外部的額外皮層,將我們與電子設備連接起來,其速度和效率都很高。這將是機器零件的重大革新,也就是說“半機器人”身體中的電子心臟起搏器和鈦合金關節等。未來人工智能的重點將放在軍事和國防應用上,完全自主武器的概念非常具有爭議性。這種武器系統可以搜索、識別、選擇和摧毀一個基于算法的目標,并從過去的安全威脅中吸取教訓,但是卻并沒有人類參與。這是一個相當可怕的概念。
這些關于人工智能主宰人類未來的設想,近乎科幻的反烏托邦,讓人聯想起《終結者》的場景。
偶然性辨別
人類距離毀滅或許還有一段路要走,但如今圍繞人工智能道德倫理的警示卻已經敲響了警鐘。就在上個月,機器學習算法已經受到了抨擊,因為它主動建議亞馬遜用戶制造炸彈組件,在招聘廣告中體現性別不平等以及通過社交媒體傳播仇恨信息等。這種錯誤的大部分原因在于機器學習的數據質量和性質。機器會從人類數據中得出不那么完美的結論。如今,這種結果對算法的管理和日常生活中的人工智能機制提出了嚴肅的問題。
最近,一名有精神病史的年輕美國男子被拒絕了一份工作,原因是他對于算法型性格測試的態度不合要求。他認為自己受到了不公平的、非法的歧視,但由于該公司不明白這種算法的運作方式,而《勞動法》目前也沒有明確涵蓋機器決策類的內容,因此他沒有訴諸法律。中國的“社會信用”計劃也引發了類似的擔憂。去年,該計劃從社交媒體(包括朋友的帖子)中收集了一些數據,以評估一個人“公民身份”的質量,并將其用于決策,比如是否給此人提供貸款等。
對人工智能倫理和法律的需求
為人工智能操作和監管制定清晰的道德體系是必要的,尤其是在政府和企業在某些方面擁有優先權的時候,如獲取和維持電力等。以色列歷史學家尤瓦爾·赫拉利就無人駕駛汽車和電車難題的悖論進行了討論。像麻省理工學院的道德機器這樣的創新項目試圖收集人類對于機器倫理的數據。
但是,倫理并不是唯一一個涉及人工智能和人類健康問題的領域。人工智能已經對人類產生了重大的情感影響。盡管如此,作為人工智能研究的一個課題,情感也依然被忽視了。
你可以隨意瀏覽下過去兩年里在科學學術數據庫的網頁上發布的3542篇關于人工智能的同行評議文章。其中只有43篇,即1.2%,包含“情感”一詞。真正描述了人工智能情感研究的文章就更少了。在考慮Singularity系統時,情感應該被納入人工機器認知結構考慮的范疇。然而99%的人工智能研究似乎并不認可這一點。
人工智能了解人類的感受
當我們談論人工智能中的情感時,我們指的是幾種不同的東西。一是機器能夠識別我們的情緒狀態并采取相應的行動。情感運算領域正在快速發展,通過生物計量傳感器來測試皮膚反應、大腦電波、面部表情和其他情感數據。大多數時候,計算是準確的。
這一技術的應用既可以是善意的也可以是邪惡的。公司可以根據你對一部電影的情感反應獲得反饋,并通過智能手機實時向你出售相關物品。政客們可能會精心打造能夠吸引特定受眾的信息。而社交機器人可能會調整自己的反應,在醫療或護理環境中更好地幫助病患,數字助手則可能會用一首歌來幫助提升你的情緒。市場力量將推動這一領域的發展,擴大其覆蓋范圍,并完善其能力。
我們如何看待人工智能呢?
這是人工智能的第二個情感領域。人類對人工智能的情感反應還沒有什么進展。人類似乎想要與人工智能實現聯系,就像我們對待大多數技術一樣,把人的個性與無生命的物體聯系起來,讓電器擁有目的性,并將情感投射到我們所使用的技術上,例如“它對我很生氣,這就是它不起作用的原因”等等。
這就是所謂的媒體等同(Media Equation)。它涉及到一種雙重思考:我們在理智的認知上明白機器不是有知覺的生物,但我們在情感上卻會對它們做出反應,就好像它們擁有情感一樣。這可能源于我們人類最基本的需求,即人際關系和情感聯系,如果沒有這些,人類就會變得抑郁。這一需求驅使人類去與其他人和動物實現聯系,甚至是機器。感官體驗是這種結合驅動和獎勵機制的重要組成部分,也是快樂的源泉。
虛假社交
當我們的環境中不存在聯系和歸屬感的體驗時,我們會通過電視、電影、音樂、書籍、視頻游戲和任何能夠提供沉浸式社交世界的東西來復制這種體驗。這被稱為社會替代假說(Social Surrogacy Hypothesis),一種由社會心理學的實證支持的理論,它正開始被應用于人工智能。
人類的基本情感是有依據的,即使是面對虛擬的人工智能。例如面對數字助理的恭維所表現出的開心,面對拒絕抵押貸款申請的算法時表現出的憤怒,面對無人駕駛汽車時表現出的害怕,面對Twitter的人工智能拒絕驗證自己賬戶時表現出的難過(我現在還在為這個問題而傷心)。
機器人
人類面對有實體的人工智能的情感反應更強,也就是說機器人。機器人越像人類,我們對它的情感反應就越強烈。我們被擬人化的機器人所吸引,向它們表達積極的情感,當看到它們受到傷害時,我們會產生同情和不快的感覺。如果他們拒絕我們,我們甚至會感到難過。
然而,有趣的是,如果一個機器人幾乎完全像人類一樣,但又不是完美的人類,我們對它們的評估會突然下降,從而拒絕它們。這就是所謂的“恐怖谷”理論,由此產生的設計理念是在現階段讓機器人看起來不那么像人類,除非有一天我們能把機器人制作地和人類一模一樣。
溫柔的觸摸
人工智能現在利用觸覺技術,一種基于觸摸的體驗,來進一步加深人類與機器人之間的情感紐帶。也許這個例子最為著名:有一只毛茸茸的海豹Paro在不同國家的護理機構中都挺有用。
社交和情感機器人有很多潛在的用途。其中一些措施包括照顧老年人,幫助它們自主生活,幫助遭受孤立的人,以及患有癡呆癥、自閉癥或殘疾的人。基于觸摸的感官體驗正日益被集成到虛擬現實等融入科技中,這是其中的一部分。
在其他領域,人工智能可能會負責處理日常家務瑣事或教學之類的任務。一項針對750名年齡在5歲到18歲之間的韓國兒童的調查發現,盡管他們中的大多數人在接受人工智能機器人教授的課程時都沒有什么問題,但許多人對人工智能老師發揮的情感作用表示擔憂。機器人能給學生提供建議或情感嗎?然而,超過40%的人贊成用人工智能機器人代替教師。
正如哈佛大學心理學家Steven Pinker所說,像上面描述的社會替代這樣的體驗可以讓我們欺騙自己。我們并沒有真正體驗到社交,但卻欺騙大腦,讓我們相信自己是如此,從而令自己感覺更好。然而,復制的效果不如真實的好。
結語
顯然,人們可以從與人工智能的互動中體驗到真實的情感。但是,我們是否會在無人駕駛汽車、虛擬助手、機器人教師、清潔工和玩伴之外,錯過一些離自己不那么遙遠的東西?
這一場景讓人想起了Harry Harlow著名的實驗,在那里,被孤立的猴子們可以選擇有著柔軟毛發的“母親”,而不需要通過冰冷的鐵絲網領取分發的牛奶。我們是否能在技術上實現我們想要的一切,并意識到人類基本的情感需求與現實世界感官體驗的樂趣是不存在的?至于對未來來說較為奢侈的東西,我們是否會追求與大批量生產的垃圾食品相對立的東西,即真正的感官體驗和與真人的接觸,而不是機器人?
答案是,現在還不知道。但是,99%的人工智能研究沒有關注情感,這一事實表明,如果情感確實在人工智能中發揮更大的作用,那么這要么是事后的想法,要么是因為情感數據讓人工智能設備及其雇主能夠擁有更多權力和金錢。數字人文主義計劃可能會幫助我們記住一點,即當我們朝著Singularity系統與人機融合進發時,我們不應該忽視自身古老的哺乳動物大腦以及它們對情感紐帶的需求。OpenAI項目是朝著這個目標邁出的一步,它的目標是讓所有人都能享受到人工智能的好處。那么讓我們更進一步,在人工智能領域考慮下情感健康。誰又知道這會給我們帶來什么呢?