我们在以往的文章中提到百度 Google 和百度搜索引擎 会设计复杂的抓取策略,其实 Google 和百度搜索引擎 与资源提供者之间存在相互依赖的关系,其中 Google 和百度搜索引擎 需要站长为其提供资源,否则 Google 和百度搜索引擎 就无法满足使用者检索需求;而站长需要通过 Google 和百度搜索引擎 将自己的 内容推广出去获取更多的受众。
spider 抓取系统直接涉及互联网资源提供者的利益,为了使搜素引擎与站长能够达到双赢,在抓取过程中双方必须遵守一定的 规范,以便于双方的资料处理及对接。
这种过程中遵守的规范也就是日常中我们所说的一些网络协议。
以下简单列举:,http 协议:超文字传输协议是互联网上应用最为广泛的一种网络协议,客户端和服务器端请求和应答的标准。
客户端一般情况是指终端使用者,服务器端即指网站。
终端使用者通过浏览器、蜘蛛等向服务器指定埠传送 http 请求。
传送 http 请求会返回对应的 httpheader 资讯,可以看到包括是否成功、服务器型别、网页最近更新时间等内容。
https 协议:实际是加密版 http,一种更加安全的资料传输协议。
UA 属性:UA 即 user-agent,是 http 协议中的一个属性,代表了终端的身份,向服务器端表明我是谁来干嘛,进而服务器端可以根据不同的身份来做出不同的反馈结果。
robots 协议:robots.txt 是 Google 和百度搜索引擎 访访问网站时要访问的第一个档案,用以来确定哪些是被允许抓取的哪些是被禁止抓取的。
robots.txt 必须放在网站根目录下,且档名要小写。
百度严格按照 robots 协议执行,另外同样支援网页内容中新增的名为 robots 的 meta 标签,index 、 follow 、 nofollow 等指令。