AI可能危害社會! 國科會積極推動AI倫理相關研究

國科會主委吳政忠(右二)表示,將積極推動AI倫理相關研究。(林志成攝)

生成式AI(人工智慧)爲人類生活帶來改變,但也可能危害社會,立委今天要求國科會要進行機器倫理方面的研究,提供AI產業發展的依據。國科會迴應,已積極推動AI倫理相關研究,但也不會在法制上弄得太緊,以讓國內AI產業可以正常發展。

立法院教育及文化委員會今天審查國科會預算,民進黨立委範雲指出,人工智慧機器決策系統的偏誤對社會的影響深刻,爲了維持人機互動的和諧,機器倫理的技術研究不可或缺。國際上不乏對人工倫理決策者的研究,即於機器訓練和決策的迴圈中納入與社會公衆的參與,讓其決策受到監督並內含多元價值。

國科會主委吳政忠迴應,機器倫理非常重要,因爲AI也可能危害社會,像歐盟就非常注意這方面的議題。國科會已積極推動AI倫理相關研究,但也希望法制上不要弄太緊,以免壓縮AI產業的發展空間。

民進黨立委吳思瑤表示,ChatGPT問世後,各國政府更加重視AI科技中大型語言模型的研發,目前國際間大型語言模型,簡體中文訓練資料佔比遠高於繁體中文,懸殊的訓練資料將導致模型推論結果偏向大陸的生活用語與思想論述,不利於臺灣文化、社會與政經的長期發展。

吳思瑤進一步指出,國科會「推動可信任生成式AI發展先期計劃」,訓練資料內容偏重科技領域,內容對於大型語言模型而言不僅不夠多元,數量也遠遠不足,國科會應盤點各個部會發行的期刊、文本及已建置雲端資料庫,如國家文化記憶庫,廣泛納入訓練文本中,以提升訓練資料多元性。

國科會表示,文化部國家文化記憶有幾類資料,其中圖片檔,以及民衆自行上傳素材、撰寫故事等資料,因著作權問題無法再授權,其餘可公開的文字部分,目前已取得4萬6440筆。

國科會說,各部會出版的專業期刊,排除指標類、統計報告、統計年鑑、年報、公報等類型後大約50餘種,目前生成式AI於訓練階段利用他人著作需依照著作權法規定辦理。