OpenAI發佈AI安全指南

當地時間週一(12月18日),人工智能(AI)研究公司OpenAI公佈了一套關於防範AI風險的指導方針,其中值得關注的一條規則是,即使CEO等公司領導層認爲AI模型是安全的,董事會也可以阻止其發佈。

OpenAI開發的聊天機器人ChatGPT已經發布了一整年,這款現象級應用極大促進了AI領域的發展,與之而來的還有對AI發展失控的擔憂。全球監管機構都在制定各自的AI法規,而作爲AI領域領頭羊的OpenAI也在採取行動。今年10月27日,OpenAI宣佈組建名爲“準備”(Preparedness)的安全團隊,旨在最大限度地降低AI帶來的風險。