Reddit最近更新了其 robots.txt 文件,有效阻止了Google以外的主要搜尋引擎對其內容的存取。這項變更限制了除目前與平台簽訂財務協議的網路爬蟲外的所有網路爬蟲。
該舉措似乎旨在執行與人工智慧公司的合約協議,並保護用戶生成的內容免遭無限制的抓取。新政策表明, Reddit在建立收入管道時正在對其數據採取更具保護性的方法,特別是在人工智慧日益佔據主導地位的環境中。
目前, Google是唯一允許對Reddit內容建立索引的搜尋引擎,這使得Bing和DuckDuckGo等競爭對手無法提供最近貼文的結果。這個明顯的限制值得注意,因為它直接影響用戶如何透過搜尋引擎存取Reddit上的討論和資訊。
政策變革背後的財務協議
這項政策變化與Reddit和Google之間達成的一項利潤豐厚的財務協議密切相關,據報道, Google每年向Reddit支付超過 6000 萬美元以獲取其數據。
在首次公開發行 (IPO) 後, Reddit熱衷於實現收入來源多元化,超越傳統廣告模式,轉向利用其獨特內容生成的合作夥伴關係。
對Bing和其他搜尋引擎施加的限制意味著向更排他性的資料共享模式的過渡。這項策略性舉措意味著公司政策的積極轉變,旨在最大限度地提高獲利能力,同時解決用戶對資料隱私和所有權的擔憂。
不過, Reddit否認了這個猜測。 Reddit發言人 Tim Rathschmidt 在給 The Verge 的聲明中表示:“這與我們最近與Google合作關係完全無關。” 「我們一直在與多個搜尋引擎進行討論。我們無法與所有人達成協議,因為有些人無法或不願意就他們使用Reddit內容(包括他們對人工智慧的使用)做出可執行的承諾。
儘管如此,批評者認為,這種觀點很難與與Google的獨家合作關係一致,谷歌將從Reddit豐富的數據池中獲益匪淺。
隨著Reddit努力鞏固其收入模式,圍繞內容可訪問性的決策可能會影響用戶的參與度和看法。展望未來,社群的反應將是決定Reddit的轉變最終成功還是會導致用戶群進一步不滿的關鍵因素。