新闻动态

网站建设要从哪几个方面进行优化?

网站建设 发布者:swl 2020-08-19 08:26 访问量:178

网站建设要从哪几方面来优化呢?  

不论你的网站是用Shopify建立的,还是Wordpress,还是Magento,要注意你的网站都要做优化  

我们在讲到针对一个网站的优化,特别是站内优化的时候,其实主要包含  

2大方面:  

-一是针对页面的SEO(on-page)  

-另外一个是网站结构优化,也叫做技术性SEO  

由于搜索结果的竞争越来越激烈,对SEO在技术上的优化也提出了更高的要求。  

一个表现良好的网站,必须要是可抓取、快速、安全的网站。  

技术性SEO包含的内容很多,涵盖网站的结构设计、URL、网络地图等内容,而且是一个技术性很强的方面。  

今天我主要说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会更加优化和健康。  

很多人可能看到这一章节会觉得很枯燥,但是其实是很重要的。  

为什么呢?  

因为一个网站,如果你花了很多时间在获取流量上,比如广告,比如红人,但是基本的文章的audit(审视)都没有过关的话,那么无形之中会大大增加你网站的营销费用。  

试想一下一个2秒打开速度的网站,和一个十秒才打开的网站,那效果能一样吗?  

所以从一个网站的优化角度来讲,特别是技术性优化的角度来探讨,我们要从以下几点进行优化:  

01  

确保网站可抓取  

对于搜索引擎优化,做好优质内容是必须的。但是只有优质内容还不够,如果搜索引擎抓取不到这个页面,那你辛辛苦苦编写的内容不是白费了吗?  

确保网站可抓取,首先要检查robots.txt文件,这个文件是任何网络爬行软件到达站点时的***个调用点。  

robots.txt文件会明确应该被抓取的和不应该被抓取的部分,表现为允许(allow)、禁止(disallow)某些用户代理的行为。  

通过将/robots.txt添加到根域末尾,可以公开使用robots.txt文件。我们看一下Hallam网站的示例:  

可以看到,Hallam网站不允许以/wp-admin(网站后端)开头的URL被抓取。通过指明哪些地方禁止这些URL,可以节省带宽、服务器资源和爬网预算。  

与此同时,搜索引擎爬虫抓取网站的重要部分时,不应该受到禁止。  

因为robots.txt是爬虫在抓取网站时看到的***个文件,所以***好是将robots.txt指向站点地图。可以在旧版的GoogleSearchConsole中编辑和测试robots.txt文件。  

robots.txt的测试工具中,下面的网址栏输入任何网址,就可以检查这个网址能否被抓取,robots.txt文件中有没有错误和警告。  

因为旧版的GoogleSearchConsole功能要比新版本的功能多一些,在技术SEO方面旧版本会更好用一些。

比方说,旧版本可以查看站长工具上的抓取统计信息区域(CrawStats),对于了解网站的抓取方式会更加的方便。  

这个报告有3个图表,显示了***近3个月的数据。  

每天抓取的网页数量、每天下载的千字节数、下载网页所花费的时间(以毫秒为单位),能够显示网站的抓取速度及和搜索引擎爬虫的关系。  

搜索引擎爬虫定期访问某网站,并且这是一个快速而且容易被抓取的网站的话,这个网站就会有很高的抓取速度。  

这些图表数据如果能保持一致是***好的,任何重大波动都会出问题,可能是HTML损坏,内容陈旧或robots.txt文件阻止了太多URL。  

如果加载一个页面需要很长时间,表示爬虫爬取时间太长,建立索引速度较慢。  

还可以在新版的GoogleSearchConsole查看覆盖率报告中的抓取错误。  

这些地方都是有爬取问题的页面,点击可以显示这些页面。检查这些页面是什么原因导致的爬取问题,***好不是很重要的页面,尽快解决这些问题。  

如果你在CrawStats或覆盖率报告中,发现重大的抓取错误或波动,可以对日志文件进行分析查看。  

从服务器日志访问原始数据可能会比较麻烦,因为分析是高级设置,但它有助于准确理解哪些页面可以被抓取、哪些不能抓取。  

哪些页面会被优先处理,哪些区域出现了预算浪费的情况,还有爬虫在爬取网站的过程中收到哪些服务器响应。  

 





关键字:

http://m.chenzhankj.com/wzjss/731.html