Reddit最近更新了其 robots.txt 文件,有效地阻止了除Google之外的主要搜索引擎访问其内容。此更改限制了除当前与该平台签订财务协议的网络爬虫之外的所有网络爬虫。
该计划似乎旨在执行与人工智能公司签订的合同协议,并保护用户生成的内容不被无限制地抓取。新政策表明, Reddit在建立收入渠道的过程中,正在对其数据采取更严格的保护措施,尤其是在人工智能日益占主导地位的环境中。
目前, Google是唯一获准索引Reddit内容的搜索引擎,而Bing和DuckDuckGo等竞争对手则无法提供最新帖子的结果。这一明显限制值得注意,因为它直接影响用户通过搜索引擎访问Reddit上的讨论和信息的方式。
政策变化背后的财务协议
此项政策变化与Reddit和Google之间的一项利润丰厚的财务协议密切相关,据报道, Google每年向Reddit支付超过 6000 万美元以访问其数据。
在首次公开募股 (IPO) 之后, Reddit热衷于实现收入来源多元化,超越传统广告模式,转向利用其独特内容生成的合作伙伴关系。
对Bing和其他搜索引擎的限制意味着向更排他性的数据共享模式的转变。这一战略举措意味着公司政策的积极转变,旨在最大限度地提高盈利能力,同时解决用户对数据隐私和所有权的担忧。
然而, Reddit否认了这一猜测。Reddit Reddit Tim Rathschmidt 在给 The Verge 的一份声明中表示:“这与我们最近与Google的合作毫无关系。我们一直在与多家搜索引擎进行讨论。我们无法与所有搜索引擎达成协议,因为有些搜索引擎无法或不愿意就他们对Reddit内容的使用做出可执行的承诺,包括他们对 AI 的使用。”
尽管如此,批评人士认为,这种观点很难与 Reddit 与Google的独家合作关系相协调,因为谷歌将从Reddit丰富的数据库中获益匪浅。
随着Reddit努力巩固其收入模式,围绕内容可访问性的决策可能会影响用户的参与度和看法。展望未来,社区的反应将成为决定Reddit的转变最终是否成功或是否会导致用户群进一步不满的关键因素。