不经意间,在群里看到了一位用户的头像ID,让我想到了以前遇到的那位SEOer。曾经做资源站的时候合作过,效果还不错,不过后面找不到他了,就很难受。不过,博主还是找到了以往的记录,为各位总结总结。

建设网站必定需求流量,而自然搜索流量短长常紧张的流量起原,因此SEO (Search Engine Optimization) 优化是必须的步调。

SEO实在就是搜索引擎优化的意义,现在国内合流的搜索引擎是百度、必应、搜狗、360搜索、神马搜索,而google搜索由于已退出了中国陆地且当前国内无法访问,若不是做外贸的网站可以纰漏。


Wordpress SEO优化步骤:

各主流搜索引擎站长平台

建议注册各搜索引擎站长平台并添加自己的网站。

安装Yoast SEO插件

Yoast SEO插件是Wordpress用户最受欢迎的SEO插件。

Sitemap.xml 站点地图

可方便通知搜索引擎有哪些可供抓取的网页。

robots.txt

告诉网络搜索引擎的蜘蛛,此网站中的哪些内容是不希望被抓取的。


各主流搜索引擎站长平台

各主流搜索引擎站长平台注册/登录地址:

建议:以上都注册并添加自己的网站。


安装Yoast SEO插件【推荐】

免费的Yoast SEO插件是Wordpress用户最受欢迎的SEO插件,简单易用,且功能强大,虽然有Yoast SEO Premium收费版,但使用免费版的功能也基本满足常日常SEO需求了。

安装完毕后,Yoast SEO会自带中文语言包,所以根据配置向导设置应该没什么难度。

配置向导结束后,在Wordpress后台中,打开:SEO – 搜索外观 将首页的相关信息补齐,例如: SEO title 与 Meta description 等信息。然后依次配置内容、分类等页面的SEO信息。

除首页外,例如文章、分类等页面的 Meta description 信息可以填入:%%excerpt%% 将自动获取摘要。如下图:

以上设置的信息,也可以在发表文章的时候手动修改。


Sitemap.xml 站点地图

最简单的 Sitemap 形式,就是XML 文件,Wordpress默认是没有提供 Sitemap 的,所以需要自己添加。Yoast SEO 这么牛的SEO插件肯定有这个功能的,并且默认是开启的。通过:域名/sitemap_index.xml即可访问,当然 域名/sitemap.xml是会自动跳转到 sitemap_index.xml 的。例如:https://blog.eswlnk.com/sitemap.xml

Yoast SEO的设置中也可以自定义哪些类型的URL出现在Sitemap中,SEO – 搜索外观 的设置中:“在搜索结果中显示文章?” 选项,如下图:


robots.txt详解

robots.txt也称为robots协议,就是网站可以申明哪些内容是不希望被搜索引擎抓取的。基本上所有常见的搜索引擎都会遵循robots协议,只需要在网站的根目录下创建一个 robots.txt 文件即可,Wordpress网站常见的 robots.txt 文件的内容示例:

User-agent: *
Disallow: /wp-admin/
Disallow: /*?p=*
Allow: /wp-admin/admin-ajax.php
Sitemap: https://www.zmx.ink/sitemap.xml

以上内容的意思是网站允许所有搜索引擎抓取,申明禁止抓取/wp-admin目录及目录下所有内容、禁止抓取所有带“?p=”字符串的URL, /wp-admin目录中的admin-ajax.php文件允许抓取。最后一行是指定Sitemap文件的路径。

其实robots.txt的语法特别简单,主要有以下几个:

  • User-agent: 用于告诉识别蜘蛛类型。例如:User-agent: Baiduspider就是
    指百度搜索蜘蛛,User-agent: Googlebot就是指谷歌的蜘蛛。
  • Disallow: 申明禁止抓取的指定目录或文件 。
  • Allow: 申明允许抓取的指定目录或文件,默认是允许抓取所有。
  • Sitemap: 提供网站地图,方便蜘蛛抓取网站内容。
  • 通配符: * 匹配0或多个任意字符。
  • 终止符: $ 可以匹配以指定字符结尾的字符。
  • User-agent,Allow,Disallow,Sitemap的首字母都是大写的。
  • User-agent,Allow,Disallow,Sitemap的冒号后面都是有空格的,没有写空格直接写接下来的内容会出错。

常见的搜索引擎蜘蛛User-agent:

例如要禁止百度搜索引擎抓取全部内容,而允许其它搜索引擎抓取全部内容,写法如下:

User-agent: Baiduspider
Disallow: /
User-agent: *
Disallow:

有关SEO的一些总结

其实SEO并不神秘,也没有部分站长想得那么复杂。“ 网站是给人浏览的,而SEO只是帮助搜索引擎更方便的了解网站及阅读内容,人的体验比搜索引擎的体验更重要 ”,这一句话请所有站长都牢记。以下误区大家要注意避免:

为什么花了很多时间研究SEO,且做了大量工作,而网站流量就是上不去?
这就是我们所说的,网站最重要的是浏览者的体验,SEO只是辅助搜索引擎的。而且随着搜索引擎的技术与算法越来越先进,对于那些过分注重SEO而忽略了用户体验的网站,不仅没有任何好处还有可能被搜索引擎“处罚降权”。有一些用户体验和内容做得非常好的网站,甚至没有刻意采用SEO手段,依然获得了搜索引擎的青睐。

搜索引擎友好度是个什么概念?

搜索引擎通过不断的升级技术和算法,努力的模仿人的体验感知,所以网站的内容质量、访问速度、页面布局、界面美观等因素都会影响到体验度,换言之就是搜索引擎的友好度。

既然搜索引擎在模仿人,那么SEO还有必要吗?

搜索引擎是在模仿人,但目前没有哪个搜索引擎的技术完全达到与人一样的感知,所以通过SEO来帮助搜索引擎读懂我们的网站是有必要的,只是我们在SEO的过程中不要本末倒置就行。

很多主机商宣称网站使用独立IP能对SEO带来帮助,这是真的吗?

这个好比你有两个朋友,一个住在人员特别密集的平民窟,那里三教九流什么人都有,还有一个住在独门独院的庭院中,试问你喜欢常去谁家做客呢?当然这只是一个比喻,实际情况也并没那么严重,只要和你共享IP的其他网站并没有被搜索引擎K站(搜索引擎宣判死刑),基本上影响不大,不过有条件用独立IP还是更稳妥,就算是共享IP,咱们也尽量选择高端小区居中。

网站加载速度是SEO的重要指标,有什么好的建议吗?

搜索引擎的蜘蛛爬行各网站的时候,也是讲究效率的,假设A、B两个网站,同样是1000个页面,A站平均页面的抓取时间为1秒,而B站的平均页面的抓取时间为3秒,如果蜘蛛在两个网站都花15分钟来抓取内容,A站基本上全站抓取完,而B站连一半都没抓取完。
影响网站加载速度的因素有很多,例如:服务器性能、网络带宽、线路质量、WEB环境的执行效率、网页中的代码尤其是JS代码等,

什么样的内容才是搜索引擎认为的优质内容?

首先当我们做为读者,什么内容是我们喜欢阅读的,那么它就是优质内容。还有就是原创内容是各搜索引擎喜欢的,哪家搜索引擎都不希望一搜一堆相同的内容。
具体而言,内容要符合网站的主题,可读性高,同时有观点和核心思想。


SEO中还有哪些要注意的事项?

  • 必须友好支持移动设备访问。
  • 全站开启HTTPS,并做好HTTP到HTTPS的301跳转。
  • 定期检查有没有死链,如果页面更改了URL,要做301跳转。
  • 网站的加载速度中DOMContentLoaded的时间不要超过1000ms,最好在500ms内。
    DOMContentLoaded时间可在浏览器中通过F12查看。
  • 网站的安全状况需要定期检查。
  • 网站定期更新高质量的内容。