研究數據不精準?外媒:AI技術被過度誇大、誤解
▲人工智慧不斷推進,不過外媒質疑相關研究的報告精確性應當質疑。(圖/Pixabay)
「AI 將取代你的工作!」相信身處於人工智慧技術準備大跳躍的時代,這是人人都聽過的話。閱讀許多科技文獻與新聞,也時常能看見人工智慧將以某種形式取代人力工作,其實不光是新聞媒體對於 AI 技術的樂觀看待,包含研究人員與新創公司也是如此,然而我們對於 AI 的評估是否過度樂觀呢?
科技網站《TechCrunch》的記者 Danny Crichton 發表一篇文章,他認爲人們對於 AI 技術的認知與正確性已經遭到誇大,大衆媒體中所報導的具有誤導性,數據的解讀也存在瑕疵,不過並非全然是媒體的問題,因爲就連 AI 研究人員所公開的資料本身可能就是錯誤、不恰當的,人工智慧研究也身陷「再現危機」(Replication Crisis)。
「再現危機」一詞率先出現於心理學領域的研究中,研究所爲了製造大量的新聞話題,在研究數據上採用不恰當的樣本、使用錯誤的實驗方式,導致許多實驗證實的結果,事後並無法依據相同的步驟再現。在人工智慧領域的研究中存在相同的現象,Crichton 認爲這場危機的成因很多,有許多實驗室面臨發佈新研究否則就滅亡的生存危機,因此亟欲公開最新的研究結果。
▲AI 廣泛運用在各個領域,但機器的判斷力能與人類相當嗎?(圖/Pixabay)
在 AI 研究中,程式碼是運行人工智慧的關鍵資料,然而多數的實驗室都不會選擇公開,僅列出研究結果的統計數據,若無法取得機器學習過程的訓練數據,不但無法證實這項研究的真僞,同時也無法再次呈現相同的實驗結果。
研究報告通常都會列出, AI 對於工作、判別的成功率或是精準度,例如一份運用人工智慧判斷病患是否具有大腸癌的研究報告,內文寫到精確度爲 86%,在 Google 運用機器學習進行翻譯工作的報告中則是寫說,其翻譯系統能展現「接近人類」的翻譯水平。Crichton 質疑 AI 的研究報告都會丟出一個統計數字或是「接近人類水平」的比喻,若只是用來評估 AI 系統非常簡單,但若要與人類一樣運行、判斷,卻無法套用相同的標準。
舉例說明,如果想要確定皮膚上的痣是否有癌變可能,對於 AI 可能就只有兩種答案:「有、沒有」,但在醫學診斷中,人類藉由大量的調查來計算出罹患癌症的可能性,並且藉由不同強度加以區分、權衡,爲了避免錯誤診斷所帶來的治療風險,醫師需藉由不同方式才能確立病情。
▲目前 AI 技術離成熟仍有很多進步空間。(圖/Pixabay)
寫在 AI 研究報告中的準確度與相關描述,與我們所想像的有所不同,數據有操作的空間,「趨近人類」等文字的描述則無法顯示真實。Crichton 於文末表示,沒有人可以在人工智慧的領域上成爲大師,因此對於這些新技術的研究結果都要保持懷疑、謹慎評估,且重要的是,現在許多被人類依賴的 AI 技術,都還在發展階段,AI 要取代人類,還非常非常遙遠。