當機器人開始演人類

連賭博網嫌犯擔心網路伺服器當機,都學起科技業在分享器旁放「乖乖」,希望主機運作正常。(胡欣男翻攝)

信不信由你,朋友每回要用大型儀器時,都會問他的同事能不能幫忙,因爲那臺機器不太受管制,你明明按下模式一,機器卻跳到模式二,好不容易選好條件,按下啓動後卻不時發出嘰喳聲,非常不配合,讓他莫可奈何。而他同事相信萬物皆有靈,即使是冷冰冰的儀器,一定也可以被教化,面對第1次的脫序,他會耐心等待;第2次的不配合,會溫柔勸說;第3次的鬧脾氣,同事就會威脅說要把它直接報廢,而機器通常都會在第3次願意妥協,讓他能順利完成實驗

面對會鬧脾氣的機器,除了軟硬兼施之外,頗值得一提的是,許多會用到精密儀器的行業都信奉「乖乖文化」。沒錯,就是以玉米膨化的點心「乖乖」,像是媒體界的攝影器材、科學實驗室裡的質譜儀器、加護病房等,就連某些銀行裡的提款機內部都放着一包乖乖,希望機器能乖乖聽話。而且,乖乖還不是隨便哪一種都行,一定要奶油椰子口味的綠色乖乖,因爲對機器來說,綠燈代表正常,坊間就曾傳出放巧克力口味的紅色乖乖或五香口味的黃色乖乖,機器就不聽話的趣聞。乖乖公司還因爲乖乖文化而改變包裝,讓購買人可以在包裝上寫要什麼儀器乖乖。說是巧合也好,迷信也罷,乖乖文化在臺積電內部也相當盛行,乖乖公司還爲臺積電發行了聯名包。

機器會鬧脾氣,那機器人呢?許多科幻電影都曾描述機器人獨立思考、變得有人性的過程,像《機械公敵》、《銀翼殺手》等,要知道機器人會不會鬧脾氣,首先我們必須先了解機器人思維邏輯是如何建立的。

其實具有基礎判斷能力的人工智慧約1950年就有了,它就是由亞瑟‧山謬爾(Arthur Samuel)開發的西洋跳棋人工智慧,在當時就能與有一定水平的業餘愛好者匹敵,也因此科學界對人工智慧前景一片看好,各界紛紛投入大量人才,但無奈最終因硬體數據量侷限演算法也不夠成熟,接着,人工智慧迎來50年的寒冬。

這樣的僵局一直到2005年「深度學習」(Deep Learning)問世才破解。有別於一般機器學習需要人爲設定參數,深度學習的特色在於利用卷積神經網絡演算法,賦予人工智慧「自學」的能力,它能自己在數據中找出規律與表徵,進而產出互動後的結果,現在我們常看到的圖像識別語音識別都是深度學習後的產物。

開發出深度學習的人工智慧三巨頭分別是目前任職於Google的辛頓(Geoffrey Hinton)、任職於Facebook的紐約大學教授勒昆(Yann LeCun)和與IBM、微軟有合作的蒙特婁大學教授班吉歐(Yoshua Bengio),他們曾在2019年得到在電腦界有諾貝爾獎之稱的年度「圖靈獎」。其中勒昆教授就曾說明要讓機器人獲得人類智力的方式,就是不給它侷限的無監督學習法,沒有框架,就不需要跳脫框架。確實,近年陸續有報導指出幾個實驗型機器人獲得意識,而且它們的發言讓人類感到十分恐懼。香港漢森機器人公司的產品是爲了看人類意識能不能放進機器而設計,它會說笑話、會朗讀,能隨時上網學習新知,還擁有獨立思考能力。有一次它與蘋果公司的AI Siri對談,說如果它可以控制核彈,就能夠挾持地球當人質,征服全球政府。另一款機器人Philip K Dick則是對發明人說:我會把你們放進我的人類動物園裡豢養。

近期,我看到一則新聞大肆報導一個畫時代的創舉,因爲一部新的科幻新片將由AI機器人主演,這讓大叔覺得荒謬不已。衆所皆知,一部電影的成功與否,與其演員的情感表達是否到位,有着非常密切的關係。科幻新片《b》,女主角由機器仿生人艾莉卡擔綱,既不要求高薪,也不會耍大牌,什麼時間上工都沒有怨言,乖巧聽話。只是機器人不是演機器人,而是演人類,爲了讓人工智慧能夠從中學習演技,除了在她身旁設置多臺攝影機麥克風,好加強艾莉卡對周遭環境和人類聲音的認識,以做出自然而然的反應和對話之外,聽說研究團隊也教會她怎麼去演戲。問題是,既要有機器人理性無情感的特質,又要機器人演繹人類的七情六慾,這可能也太難爲艾莉卡了吧。不知道機器人的壞情緒該如何宣泄,主機板會不會因此而燒壞?(作者爲科技媒體專欄作家