AI公司不斷開發新爬蟲繞過阻攔 網站運營跟不上
在網路建立的早期,大家有了一個不成文的協議,即一個名爲“robot.txt”的文本文件——也就是攔截列表中將決定誰能夠訪問你的網站,這主要針對機器人/爬蟲。一般網站主要面向搜索引擎開放,以讓搜索引擎帶來流量。但這個不成文的約定正在被人工智能公司打破。
已經有許多網站爲了保護權益正在試圖阻止一家名爲 Anthropic 的 AI 公司抓取網站內的內容。然而隨着該公司不斷開發新的爬蟲,來不及更新“robot.txt”文件的網站成了被盜用資源的受害者。
根據 404 Media 採訪跟蹤網絡爬蟲和抓取工具網站的 Dark Visitors 運營者,他在幫助其他網站運營者更新“robot.txt”期間發現,現狀非常混亂。匿名運營着說道:“代理生態系統瞬息萬變,因此網站所有者基本不可能手動跟上。”
拿 Anthropic 距離,一些熱門網站例如路透社等在 robot.txt 中組織了“ANTHROPIC-AI”和“CLAUDE-WEB”兩個爬蟲,他們曾由 Anthropic 的 Claude AI 聊天機器人使用,但目前該公司最活躍的爬蟲實際上是“CLAUDEBOT”,因此這些網站都不會阻攔該爬蟲。其他數百個複製粘貼攔截列表的網站也未能阻止該公司。
404 Media 採訪了許多網絡行業從業者,他們均表示面對 AI 公司的這種行爲,鼓勵網站積極屏蔽此類機器人/爬蟲。網絡安全公司 StackAware 首席執行官 Walter Haydock 就表示支持在“robot.txt”中添加大量的可能屏蔽對象,並說道:“如果它們最終不存在,那麼阻止它們也不會產生任何影響。”
他還表示該屏蔽列表說到底也不過是互聯網的一個約定俗成,“阻止 AI 公司的代理依賴於 AI 公司尊重 robot.txt 文件,並且你還需要知道所有的 AI 抓取代理。對於大多數公司來說,這種情況的可能性很低,因此我預計更多的創作者會將他們的內容轉移爲付費觀看,以防止無限制的抓取。”