服务器的相关设定是否正确?

robots.txt的目的是告诉搜索引擎的爬虫程序,哪些可以抓取,哪些不要抓取。但是robotstxt的作用只是告知性质,如果搜 寻引擎的爬虫程序不理会,也没有办法。而htaccess档案是搭配APACHE服务器软件运作,其他类型的服务器软件未必也使用相同方式。例如如果是Windows IIS 7的话,则是使用web.con fig来保存应用程序整合设定。htaccess档案与robots txt不同的是,他会处理进到网站的所有联机的权限与方式。但是htaccess档案的作用不是告知性质,联机进来就会依照htaccess档案内的语法处理。

使用Ahrefs工具

进入Ahrefs网站,输入你的网址之后点选【Backlinks>External】,就可以看到连入连结,不过也是因为免费使用,能够看到的连结不是完整的数据。

服务器的反应速度与网络速度如何?

搜索引擎或是访客连到你的网站,其速度主要由几个因素决定: 域名服务器的反应速度、服务器本身的反应速度、网络连 线的速度、传输档案的大小,其他就跟客户端的因素有关。

域名服务器主要功能是把网址解析为IP地址,让客户端可以找到你的网页服务器的位置,如果域名服务器反应不佳 的话,就可以考虑换一家域名服务器代管厂商。服务器本身的反应速度与网络联机的速度因为决定在网站代管厂商 , 所以可以一并进行检测 。 传输档案的大小就是你自己可以决定的 因素,包括f–1TML档案大小丶Javascript与CSS档案大小、图档大小等等 。

服务器是否使用Gzip?

服务器的Gzip设定就是将压缩过的档案传到浏览软件,然后浏览软件再自行解开档案,这样的过程就节省了中间传输的频

宽。但是如果启动Gzip,会多出CPU时间的负荷,所以如果你的问题在于服务器本身资源不足而非带宽,当然就不能使用Gzip来压缩,否则越压缩变越慢。所以不是一定要启用Gzip,而是看你的服务器的状况而定。

服务器的健康状态以及相关设定

SEO就是希望搜索引擎可以好好的处理网站数据,但是搜索引擎在尚未开始接触你的网站之前,会先碰到第一道关卡,那就是服务器,第二道关卡是你的网站配置文件案.htaccess与 robots.txt,第二道关卡才到网站页面。

当然以网络模型的细节来说,这三道关卡并不是循序的,也就是不是第一道关卡接着第二道关卡,然后才到第三道关卡,而是可能交错如①—②—①—③— ①—②—③—①—①—②—③等等可能组合。为了容易解释并且比较容易理解,我们可以从此下功夫。