一、网站空间决定网站生死 
网站空间(WebSite host):就是存放网站内容的空间,平时我们也称虚拟主机空间、空间等。 
网站空间对搜索引擎排名的影响: 
网站打开速度:搜索引擎认为页面打开的速度5秒为好,3秒为佳 
在SEO圈中,大家都知道加载速度快会给SEO增益,通常我们的处理方式就是在制作页面时图片都要切片后再进行上传,或金币玩家直接去购云存储(为了少花钱的多数会选七牛云存储),中成易科技完整应用阿里云计算(免费使用云存储)提高页面加载,并有CND分发达到极速访问,在搜索引擎SEO中有显著的增益效果。 
流量、带宽、并发数: 
网站安全:病毒、黑客入侵、挂码挂链、数据安全等 
服务商信誉和售后:国内服务器商首先阿里百度 


二、优化设置(站内操作) 


1.页面路径: 
路径(url):是指打开页面的链接 
搜索引擎易抓取的是 静态路径 
何为静态? 
先了解下动态路径:含有*通配符或?号等的链接,反之就是静态 
相比之下搜索引擎更喜欢静态URL,编辑后的页面就是纯静态url,其他程序通常做好页面后还需要转成伪静态或是直接就用动态。 

2.T、D、K设置: 
T:title 页面标题 
作用:搜索匹配(匹配方式:精准匹配、拆词匹配、不完全匹配、相关匹配、不相关匹配) 
设置内容:为客户想要做排名的词,也不是想当然,对于不同竞争力的行业,要按不同竞争力的词进行设置,可参考百度指数(分析方式之一) 
页面标题设置方式:SEO标题设置 
D:description 页面描述 一个好的页面描述和一个好的标题可以决定网站点击率 
K:keywords 页面关键词 keywords处设置目前已不作为搜索引擎投票项(不设置会减少投票),但密度会影响搜索引擎对页面的或网站的投票,现在key的设置通常用于在站长工具里查询排名使用。 

3. 301重定向 
301永久重定向:表示本网页永久性转移到另一个地址 
我们常用到的就是 将带不带www的域名指向带www的,例 hizcy.com 定向到 www.hizcy.com

4. 404页面 


5.搜索引擎验证 


6.Sitemap(网站地图) 


7.robots(爬虫协议) 
我们在百度搜索自己的网站时,偶尔会遇到搜索结果会提示: 
“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述” 
什么是robots? 
robots协议(也称为爬虫协议、机器人协议、蜘蛛协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。 
robots.txt文件是一个文本文件,是搜索引擎中访问网站的时候要查看的第一个文件,是告诉蜘蛛程序在服务器上什么文件是可以被查看的,什么文件不要被查看。 
robots.txt文件的写法在此不具体做阐述,若遇到搜索结果会提示: 
“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述” 
原因是当搜索引擎收录此链接时,robots.txt文件里写的是限制指令 
例: 
User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符 
Disallow: / 这里定义是禁止爬寻根目录下面的所有链接 
对此情况首先查看robots.txt文件 
查看方式:使用站长工具或是直接在浏览器输入 域名/robots.txt 
例:clouddream.net/robots.txt 
若协议内容为限制指令只需要修改或是删除 Disallow: / 即可 
例改为如下再上传到网站: 
User-agent: * 
Allow: / 
或: 
User-agent: * 
Disllow: 
或: 
User-agent: * 
等等 
若目前无限制指令,只需要等待搜索引擎重新抓取即可,若对此有稍微了解也可手动写指令+调整网站路径,从而达到加速更新效果!



2017年04月01日

当硅谷遇上海南数据谷,会擦出什么样的火花?
海南省高新技术产业认证申报实战培训如期开展

上一篇

下一篇

为啥要SEO优化?作用在哪?—中成易科技

发布时间:

本网站由阿里云提供云计算及安全服务 Powered by 中成易科技