牛津大學:高科技可能讓人類自我滅

▲「人類未來研究所」說,科技發展速度之快已超過人類的控制能力。(圖/取自網路)

國際中心綜合報導

牛津大學「人類未來研究所」日前表示,能給人類帶來滅頂之災的最大危險並非瘟疫饑荒地震,也不是核戰爭,而是高度發達的科技。

該研究所稱,科技發展速度之快超過了人類的控制能力,就像把致命武器交到兒童手裡

牛津大學「人類未來研究所」(Future of Humanity Institute)呼籲國際決策層重視這些足以滅絕人類的危險,不要把這當成戲言一笑了之。

該所所長博斯特羅姆( Nick Bostrom)說:「這件事至關重要,如果決策失誤,那21世紀可能就是人類在地球上存在的最後一個世紀。」

該研究所認爲,人類面臨的最大風險並非瘟疫流行、饑荒、洪澇、地震和環境變化等,因爲人類已經能夠控制這些病毒的肆虐;在本世紀這個時間段裡,因爲超級火山爆發行星撞地球而導致人類絕種的可能性也不大。此外,即使爆發核戰爭,也會有足夠多的倖存者延續人類物種

但是,人類已經進入一個科技高度發達的時代,這個時代具備了毀滅人類未來的無比能力。這是因爲科技發展速度之快,超過了人類對新科技帶來的後果的控制能力;這就像孩童手裡的致命武器。

博斯特羅姆說,具體而言,在生物工程、人工智慧領域實驗已經進入預料之外且後果難測的疆域。科技本身就是一柄雙面刃:人工智慧技術既可以成爲工業醫藥農業甚至經濟管理中的重要工具,但它對可能造成的破壞的廣度深度並不在意。

這個獨特的研究團隊堅稱,他們並不是在危言聳聽。超級電腦可以帶來威力一代勝一代的電腦,最後可能出現「智慧爆炸」現象,即電腦威力的加速變得無法預計、難以控制,而其後果卻可能影響到地球上每一個人。

英國皇家天文學會長瑞斯勳爵(Lord Rees)說,人類成爲自己最危險的敵人,始於21世紀。他說,此一威脅體現在科技前端;每一項科技突破都有正負兩面,如果對負面影響控制失當,最壞的結果就是人類自我滅絕。