技术SEO健康对网站的整体有机性能很重要,就像关键词、链接构建、内容构思等一样。
繁忙的营销人员只有90分钟才能获得一般意义于您的网站是否健康?你的老板只是问你认为你的网站有多健康吗?试图为您的老板制作业务案例,为明年提供一些额外的SEO预算?做了业务发展,叫你和问,“嘿,你怎么看待这个网站?”
如果这是你一直想要挖掘的东西,但不确定从哪里开始或时间有限,这篇文章是给你的!
“技术卫生”是什么意思?
网站的技术状况指:
- 你的网站可以爬?
- 如何迅速地和容易地?
你让搜索引擎很容易搜索到吗找到并分享对搜索者有价值的内容?
先进技术SEO条款
在本文中,我们将参考许多技术SEO元素!如果这些条目对您来说是新的,请查看本文底部的术语表。
提示1:检查重复的内容
估计时间:15分钟
这些常见的SEO问题会导致很大的问题,并且可以很快地进行抽查。
什么是重复内容?
复制内容指的是网络上任何相同或接近相同的可索引内容。
为什么重复内容是一个问题?
搜索引擎不知道在索引中包含哪个版本的页面。这通常会稀释反向链接的权威,因为它不再清楚像权威和链接价值这样的链接指标应该在哪里,而且搜索引擎不知道对哪个版本的查询结果排名。
通过检查以下元素,您可以检查整个站点的简单复制(相对于复杂复制)。这些技术元素旨在解决您网站上的基本/基本技术问题。
- 尾随vs非尾随斜杠
- HTTP与HTTPS
- 大小写混合的url
- UTM参数
对于所有这些类型的重复内容,过程是类似的,但我们将使用尾随vs非尾随斜杠元素作为例子。
1.1检查尾随VS非尾随斜杠:
步骤1:导航到站点上的一个页面
例子:
步骤2:
- 如果页面当前有尾随/ -删除它!
- 它是301重定向吗?
- 规范化呢?
- 404年吗?
- 如果页面当前没有尾随/ -添加它!
- 它是301重定向吗?
- 规范化呢?
- 404年吗?
步骤3:在一些不同的模板和您网站的区域重复此过程。
例子:
- 一个服务页面:
- 一种形式:
- 地点:
我如何知道这是否是一个问题
如果每个页面的两个版本解析,并且不正确或301重新定向这是一个问题,并且被认为是重复的内容。
解决办法是什么?
选择站点上的URL的主要规范URL版本,站点上的每个URL都应强制执行尾随斜杠或非尾随斜杠。只有其中一个是官方的。任何其他人都只是泰勒斯威夫特音乐会录制的泰勒斯威夫特音乐会录音。这使得搜索引擎清楚地找到您网站的主要规范URL。
- 最好的:一个301重定向到尾随/到非尾随/或反之亦然
- 好的:规范标签从尾随/到非尾随/或反之。这将浪费抓取预算,因为谷歌必须抓取两个版本的页面。
- 坏的:这两种情况都不会发生,并且页面的两个版本都是可索引的,会产生重复内容的问题。现在你卖的是官方的泰勒·斯威夫特演唱会和廉价盗版。没有好。
服务器具体解决方案:
下面是Apache, NGINX和IIS的官方文档:
- 使用Apache的httpd.conf文件
- http://httpd.apache.org/docs/2.0/misc/rewriteguide.html
- 使用Apache的。htaccess文件
- http://httpd.apache.org/docs/2.0/misc/rewriteguide.html
- 使用nginx21
- https://www.nginx.com/blog/creating-nginx-rewrite-rules/和https://www.ateamsystems.com/tech-blog/nginx-add-trailing-slash-with-301-redirect-without.-if-陈述/
- nginx详细信息如何将Apache HTTP Server重写为Nginx重写规则。
- 使用IIS 7.x及以上
对以下问题重复这个过程:
1.2 HTTP与HTTPS
例子:
- 一个服务页面:
- 一种形式:
- 地点:
我如何知道这是否是一个问题
如果http和https都解决了,这是一个问题。
解决方案是什么:
最好的:一个301重定向从HTTP版本到HTTPs版本,很多时候这是通过307重定向完成的。
服务器具体解决方案:
下面是Apache, NGINX和IIS的官方文档:
- 使用Apache的虚拟主机文件
- https://cwiki.apache.org/confluence/display/httpd/redirectssl.
- 使用Apache的。htaccess文件
- https://cwiki.apache.org/confluence/display/httpd/redirectssl.
- 使用NGINX
- https://www.nginx.com/blog/creating-nginx-rewrite-rules/
- nginx详细信息如何将Apache HTTP Server重写为Nginx重写规则https://www.nginx.com/blog/converting-apache-to-nginx -rewrite-rules/
- 使用IIS 7.x及以上
1.3混合案例URL
例子:
- 一个服务页面:
- 一种形式:
- 地点:
我如何知道这是一个问题
- 如果大写和小写版本的url都可以解析并且是可索引的,那么这就是一个问题。
解决办法是什么?
- 最好的:全站点范围的301重定向强制将URL的任何大写版本改为小写。
- 好的:从大写版本的URL到小写的规范标记。这浪费爬网预算随着Google必须抓取两个版本的页面。
- 坏的:这两种情况都不会发生,页面的两个版本都是可索引的,会产生重复内容的问题。
服务器具体解决方案:
下面是Apache, NGINX和IIS的官方文档:
- 使用Apache的httpd.conf文件
- http://brianflove.com/2014/08/11/lowercase-your-uris/
- 使用Apache的。htaccess文件
- https://www.linode.com/docs/guides/how-to-set-up-htaccess-on-apache/
- 使用NGINX
- 有关所需的特定PERL脚本的详细信息,请访问:https://dodwell.us/rewrite-uri-to-lowercase-using-nginxperl-nginxlua-or-apache.html
- 也可以使用LUA脚本。
- 使用IIS 7.x及以上
- IIS URL重写有工具来导入Apache mod_rewrite规则如果从Apache移动到IIS web服务器。虽然这需要编辑和测试,但它确实使迁移过程比从头开始重新创建规则稍微快一些,也更容易一些。
1.4设备参数
例子:
- //www.merkalis.com/services/marketing-business-intelligence/
- 添加UTM参数://www.merkalis.com/services/marketing-business-intelligence/utm_来源=测试和utm_媒介=测试和utm_活动=测试
我怎么知道这是不是一个问题?
- 如果UTM参数不包含页面主版本的规范标记,就会出现问题。
解决办法是什么?
- 最好的:查找并修复这些链接。Analytics Fight Club的第一个规则是您不使用UTM参数标记内部链接。您可以链接到尖叫的青蛙指南关于如何查找包含UTM中的链接。
- 好的:规范标签+ GSC参数处理。是的,GSC参数处理可能很快就会被弃用(请验证),但是你可以指定UTM参数作为跟踪参数。
提示2:用会话检查GA是否有404错误
估计时间:10分钟
这个专业提示来自我们自己的技术SEO专家Allison行也是我个人的最爱!在谷歌Analytics的帮助下查看实时页面视图到您的404页面。
步骤1:在你的网站上触发404错误
输入随机的数字和字母,以触发您网站上的404错误。
例子://www.merkalis.com/23ou4234uo23
步骤2:复制404页的标题标记
在我们的情况下,它是“Page not found | Seer Interactive”。
通过键入CTRL + F找到标题标签,并搜索“
步骤3:导航到谷歌分析网站内容报告
访问行为>网站内容>所有页面
步骤4:添加有机流量段
步骤5:更改日期范围
考虑选择过去90天,因为更长时间可能是重新添加或重定向的页面。
步骤6:为“页面标题”添加次要维度
第7步:为页面标题添加高级过滤器
将高级过滤器设置为Include > Page Title > contains,然后在404页面上输入< Title >元素,然后单击apply。
在这里,您将能够看到404页及其实际页面浏览量!301重定向具有大量页面浏览量的页面。下面你可以看到,在过去的X天里,404个错误已经超过了864页。导出此列表,将404ing页面映射到新源,并将其交给开发人员以实现301重定向!
技巧3:设置更改跟踪警报
估计时间:10分钟(每天设置时间后)
这个建议太好了,简直像是作弊!你的网站是否已经处于顶级技术状态?这随时都可能改变!我们经常在客户的网站上看到反常的事故,比如主页被删除,规范标签在整个网站范围内更改为站点的登台版本,hreflang标签被删除,noindex标签被添加到站点上的关键页面,高价值页面被删除——你说得对!
通过自动搜索引擎优化页面更改跟踪工具,将手动检查站点的技术问题从影响搜索引擎性能的工作中去掉!这些通常成本相对较低,特别是对于单个站点。
设置搜索引擎优化页面更改跟踪一旦你设置了自动化,你可以被动地收到你的网站的提醒,而不必寻找他们!在初始设置时间之后,检查这些提示通常需要10-15分钟!
在寻求者,我们是部分的内容国王但有几个选择。
这个工具可以检查的一些项目示例:
- 站点上所有页面和/或优先页面的索引
- robots.txt文件中的变化
- SSL证书到期
- 规范化的变化
- 元标记更改
- 标题标签,H1,元描述,复制更改
- Hreflang标记更改
…和更多!
技巧4:审计XML站点地图文件
估计时间:20分钟
好的技术健康从顶端开始!
检查您的XML站点地图文件是否需要更新!XML站点地图是搜索引擎在您的站点上首先查看的内容之一,它应该作为一个清晰的地图或图例,并且应该没有错误。只有HTTP状态码为200的可索引页面才应该存在于XML站点地图中。下一步需要一个尖叫青蛙许可证,但如果需要,我在底部包含了一个免费的解决方案。
步骤1:打开尖叫青蛙
欲了解更多信息,请阅读我们的综合尖叫青蛙指南.
用尖叫青蛙抓取你的XML网站地图
步骤2:下载XML站点地图文件到尖叫青蛙:模式>列表
步骤3:下一下单击上传>下载XML SiteMap
您的站点地图应该开始下载,一旦下载完成,单击“确定”,该工具将开始抓取您的XML站点地图文件。
步骤5:一旦爬行完成,导出“内部所有”
步骤6:打开CSV并为任何非可索引URL过滤您的CSV
如何解决这个问题:
- 您的XML站点地图应该是免费的
- 任何没有200的HTTP状态代码的页面
- 任何页面标记为“可索引性”列中的“不可索引”
第7步:检查您的XML SiteMap文件是否在robots.txt文件中声明
当搜索引擎首先到达您的网站时,他们首先查找robots.txt文件!确保您的XML SiteMap在此处完整声明,以便搜索引擎可以继续爬行此文件。
例子://www.merkalis.com/robots.txt
上面你可以看到Seer网站上所有使用“Sitemap:”声明的XML站点地图。
如果你没有尖叫青蛙执照:
如果您没有尖叫青蛙许可证,请使用免费工具,如https://httpstatus.io/,从XML站点地图文件中获取url,并将它们粘贴到工具中!删除XML站点地图
提示6:使用谷歌的移动友好测试工具
估计时间:5分钟
自2018年3月宣布以来,移动式首次索引一直是镇上的谈话。随着大多数搜索在移动设备上发生大多数搜索,您的网站应该通过这一点进行优化。
使用谷歌自己的移动友好测试工具来快速确定您的网站是否移动友好!
例子:
在这里,您可以看到Google如何在移动设备上查看您的页面的实时渲染!您的视频类型是否支持?风格元素是否显示?您的页面是否与用户看到它的看法有显着不同?
发现自己想要更进一步吗?下面是一个额外的奖励提示,可能需要你花一点时间来处理,但你会发现(希望)指数价值!
额外提示:使用谷歌搜索控制台抽查错误
估计时间:60分钟。
了解谷歌是如何爬行和理解你的网站的最好方法?这是可靠消息。我们最喜欢的易于理解的技术问题报告是“覆盖”报告,它可以给你方向性的建议,在哪里最严重和最频繁的技术问题发生在你的网站!
要找到这个,请访问索引> Coverage
在这里您可以找到各种不同的问题,包括服务器错误,重定向错误等。虽然深入研究每个问题需要20多分钟,但20分钟可以帮助您更有方向性地了解谷歌在您的站点上遇到的问题。
在每个部分中开始审计此列表,从错误报告开始,并记录趋势线和受影响页面的#。
- 审计的“错误”
- 它们是什么:
- 这些错误排列整齐,让你很好地了解谷歌在抓取你的网站时遇到的问题
- 如何评估它们:
- 如果趋势线迅速上升,这可能是最近出现问题的迹象。
- 它们是什么:
- 审计“警告有效”
- 它们是什么:
- 这些页面已被编入索引,但上面有警告。
- 如何评估它们:
- 看一看具体问题,从页面最多的问题开始。
- 它们是什么:
- 审计“有效的”
- 它们是什么:
- 这些页面已被索引,没有任何已知问题
- 如何评估它们:
- 看看被索引的页面,是否有不需要被索引的页面?参数化的页面?内部唯一的页面吗?
- 它们是什么:
- 审计“被排除在外”
- 它们是什么:
- 这些页面尚未索引
- 如何评估它们:
- 看看这些页面,为什么他们没有被索引?这是故意的吗?
- 它们是什么:
在技术搜索引擎优化的世界中,有指数级更多的领域需要探索!但我们希望这些能给你一个好主意,让你从哪里开始。
技术搜索引擎优化术语表
在本文中,我们将参考以下技术SEO元素!如果这些项目对您来说是新的,请查看下面的术语表。
- XML网站地图
- 它是什么:XML SiteMap实际上是您网站的地图。无论您是在商场还是意大利迷路,您都希望一张地图弄清楚一切都在哪里。搜索引擎都是一样的。
- 如何构建一个:
- robots . txt文件
- 它是什么:robots.txt文件指定搜索引擎应该包含或排除的页面。txt文件还应该声明XML站点地图的位置。把你的robots.txt文件想象成一个疯狂的巫师站在狭窄的桥上——巫师正在决定谁应该和谁不应该通过,他们可以或不能去哪里!巫师也会衰竭[XML站点]地图向所有敢于过桥的人致敬。
- 如何构建一个:https://developers.google.com/search/docs/advanced/robots/intro
- 爬的预算
- 它是什么:Google花费的时间花费爬行和索引页面。谷歌非常不可能抓取并索引您网站上的所有内容。谷歌创建最重要的页面最重要的列表,并将列表从上到下爬网。影响URL优先级的一些因素:网站/页面权限(质量反向链接和内容质量的数量),XML站点地图,内部链接。
在运行此列表时发现问题?不知道该如何解决?超出你的能力范围了吗?Seer的技术搜索引擎优化团队在这里提供帮助!点击这里联系我们.