字節跳動上熱搜!大模型遭實習生攻擊,損失超千萬美元?

“字節跳動大模型訓練被實習生攻擊,涉事者已被辭退”的消息衝上多個平臺熱搜。

10月18日,多個微信羣流傳一則消息:“某頭部大廠的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。”

對此,證券時報·e公司記者聯繫字節跳動方面,截至發稿並未獲得迴應。但接近字節人士對e公司記者透露,確有實習生破壞AI模型訓練,但損失金額和處理方式被誇大。

面臨安全管理問題

據界面新聞報道,從知情人士處獲悉,該頭部大廠爲字節跳動。此事發生在今年6月,起因是某高校的博士在字節跳動商業化技術團隊實習,因對團隊資源分配不滿,使用攻擊代碼破壞團隊的模型訓練任務。

傳聞顯示,該田姓實習生利用了HF(huggingface)的漏洞,在公司的共享模型裡寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果,而且AML團隊無法覈查原因。但傳聞曝出之後,該實習生還在某微信羣裡闢謠稱,自己發完論文後就從字節跳動離職,這個當口有另一個人鑽漏洞改模型代碼,把鍋扣到自己頭上。

據媒體從知情人士處瞭解到,字節跳動內部已經調查明確此事爲田姓實習生所爲。目前,該實習生已被辭退,字節跳動同時把此事同步給行業聯盟和該實習生所在的學校。但這名實習生被辭退後到處“闢謠”甩鍋,稱是其他人所爲。

另有報道稱,一位技術安全專家向媒體表示,HF漏洞的產生通常與單一性集中訓練有關,此次事件暴露出字節跳動在技術訓練中的安全管理問題。公司既未實施權限隔離,也未做好共用代碼的審計工作。在正常情況下,每次大的代碼變動都應進行審計,並記錄操作痕跡,以確保無法單獨篡改代碼。

該技術安全專家指出,目前行業通用的做法是實施三級隔離導向性部署,每一級僅包含鏡像,並在每次操作前進行掃描。調用需按次計算,並必須提供密鑰。每一級完成後,才能進入下一級,同時上一級將自動刪除,以實現分級訓練。

實際上,e公司記者注意到,大模型在安全性方面的問題已經受到業內高度關注。今年8月,中國信通院發文稱,近年來,以大模型爲核心的人工智能技術飛速發展,成爲數字經濟增長新動能。然而,作爲新質生產力的大模型在安全性方面仍存在較多缺陷,這爲其大規模落地應用帶來了不確定性。近期,中國信通院發佈的大模型安全基準AI Safety Benchmark的測試結果顯示,大模型(尤其是開源大模型)在惡意誘導手段下的攻擊成功率均較原始輸入有明顯提升。因此,對大模型進行安全對齊防護刻不容緩。

加碼大模型應用

今年以來,作爲頭部互聯網大廠,字節跳動正在加碼大模型建設和應用。5月15日,字節跳動豆包大模型在火山引擎原動力大會上發佈。火山引擎是字節跳動旗下雲服務平臺,火山引擎總裁譚待現場介紹,豆包大模型正成爲國內使用量最大、應用場景最豐富的大模型之一,目前日均處理1200億Tokens文本,生成3000萬張圖片。豆包主力模型在企業市場的定價只有0.0008元/千Tokens,0.8釐就能處理1500多個漢字,比行業便宜99.3%。

此後,各大廠的大模型開啓大幅降價,價格戰愈演愈烈。

今年8月,字節跳動火山引擎宣佈推出對話式AI實時交互解決方案,搭載火山方舟大模型服務平臺,通過火山引擎RTC實現語音數據的採集、處理和傳輸,並深度整合豆包·語音識別模型和豆包·語音合成模型,簡化語音到文本和文本到語音的轉換過程,提供智能對話和自然語言處理能力,幫助應用快速實現用戶和雲端大模型的實時語音通話。

近期,字節跳動還宣告進軍AI視頻生成。9月24日,字節跳動旗下火山引擎發佈了豆包視頻生成-PixelDance、豆包視頻生成-Seaweed兩款大模型,面向企業市場開啓邀測。據火山引擎介紹,全新設計的擴散模型訓練方法攻克了多鏡頭切換的一致性難題。據火山引擎披露,截至9月,豆包語言模型的日均tokens使用量超過1.3萬億,相比5月首次發佈時猛增十倍。

10月15日,在2024火山引擎視頻雲技術大會上,火山引擎正式發佈大模型訓練視頻預處理方案,該方案能夠有效解決視頻大模型訓練的成本、質量和性能等方面的技術挑戰,並已應用於豆包·視頻生成模型中。