晋中信息港
历史
当前位置:首页 > 历史

大案追踪60爬虫机器人可抓取百度内容

发布时间:2019-08-15 18:29:12 编辑:笔名

  广受业界、政府和民关注的Robots协议案日前有了结果,该案是中国搜索领域爬虫竞争案。

  8月7日,北京市中级人民法院判决奇虎赔偿百度经济损失和合理支出共计七十万元整,但驳回百度有关不正当竞争的诉求。表明百度单方面利用Robots协议打击竞争对手的行为未被公众和法庭所支持,而 60则可继续抓取百度的站内容。

  法院认为,互联的高速发展依赖于自由竞争的良好环境,在自由竞争的基础上,大量的科技创新和经营模式的创新积极推动着互联的发展,让我们在本世纪开始的十几年内享受着巨大的福利,彻底改变了我们的生活。这种福利来源于科技创新和络经营模式的创新,但归根结底是在自由竞争的环境才实现的创新。所以,互联企业在经营过程中在法律准许的范围内的自由竞争应当得到坚决的维护。

  本案判决书中明确写道:规则的缺失会让互联行业陷入 丛林法则 的误区,但同时,市场竞争需要给每一个竞争者公平的竞争环境,即使是后进入市场的竞争者,也应该有公平的竞争机会,以免陷入 丛林法则 中强者可以任意欺凌弱者的误区。判决书中还提到: 60已经多次向百度表示要求修改robots协议,该主张是清晰明确的,而百度未能明确提出拒绝 60的合理理由,故对《自律公约》签订之后,百度主张 60构成不正当竞争的主张本院不予支持。

  这个案件中,法院在没有明确的法律可适用的情况下,表现出难能可贵的开拓精神和创新勇气,捍卫了互联开放、平等的互联精神,为互联行业的自由竞争和健康发展开辟道路。

  笔者了解到,Robots协议由荷兰籍络工程师MartijnKoster于1994年首次提出,是一个被放置在站中的.TXT文件,为搜索引擎爬虫做出提示,设置允许与不允许两种语句,络爬虫据此 自觉地 抓取或者不抓取该页内容。Robots协议的目的,是为了保障著作权、保护个人隐私,尽可能地让互联健康发展。

  虽名为 协议 ,但Robots协议只是行业惯用的说法。它既不是法律意义上的协议,也不是国际组织采纳的标准,因此不受任何机构保护。而百度的Robots协议的特别之处,在于其制定的白名单机制 允许除 60之外的搜索引擎访问百度站。

  行业专家、互联实验室董事长方兴东认为,Robots协议不能滥用,必须一事同仁,确保开放。 搜索引擎抓取其他站数据来建立商业模式,却不允许别人抓取它的内容,于情于理于法都不恰当。 方兴东表示。中国政法大学法制研究中心研究员陈杰人一针见血地指出,百度建立Robots协议白名单,只限制 60搜索进行内容抓取,具有一定的歧视性,

  显然,激烈的竞争需要公平合理的竞争规则,否则过于放任的竞争会让互联行业变成屠场并走向垄断。互联的精神就是:开放、平等、协作和分享。

深圳市政府举办消费创新发展大会罗湖同11家单位达成战略合作
一满乐张彦翔:代替企业数据分析师机器学习让企业实现数据决策
寒冬下依然温暖美丽元获美图1000万美元投资
友情链接