如何以及何时实施规范URL标记

什么是规范标签 如何实现rel =“ canonical” 何时使用规范网址 使用rel =“ canonical”时的主要错误 什么是规范标签 目前,消除SEO内容重复的问题 是优化网站时最重要的问题之一。在大多数情况下,要解决此问题,最好使用301 redirect。但是,当我们要么不能使用301重定向,要么需要页面供用户查看,则rel =“ canonical”属性可助我们一臂之力。但是什么是规范化,必须在何处以及为什么使用它呢?您将在本文中找到所有这些问题的答案。 首先,规范化是确定(从一个资源内不同链接下的几个重复页面中)主URL地址以供搜索引擎随后进行索引的过程。存在一个定义,它连接到IP规范。它会自动发生(根据指定的算法),但是,为了避免错误,有必要将规范的meta标记与301重定向一起使用,以指向正确的超链接。使用此属性,您可以快速解决重复的内容问题。 规范URL是Google认为在您网站上的一组重复页面中最具代表性的页面的URL。例如,如果您具有同一页面的URL(例如:example.com?dress=1234和example.com/dresses/1234),则Google选择一个作为规范。请注意,页面不必完全相同。对列表页面进行排序或过滤的微小更改不会使页面变得唯一(例如,按价格排序或按项目颜色过滤)。规范可以与副本不在同一域中。 Google Search Console帮助 如何实现rel =“ canonical” 1.在网站页面上(主要方法) 要在当前部分中指定当前页面的规范链接,您需要声明以下内容。在HEAD部分中实现非常重要。由于如果您不小心在此部分中未实现此属性,则搜索引擎将忽略此指令。 <link rel=”canonical” href=”http://site.com/canonical-link.html”/> 2.通过xml站点地图 对于站点的xml-sitemap中的每个页面,您可以实现其规范链接。但是,有时,搜索引擎可以忽略这些建议。 3.通过服务器的响应  这是非HTML文档的最佳变体。如果您需要为非HTML文档(例如pdf文件)指定规范链接,则可以在http-header中指定规范链接。为此,服务器在请求重复文件时必须提供以下信息。 Link: <http://site.com/main-file.pdf>; rel=”canonical”. 但是请记住,目前Google仅支持网页搜索的标头元素。 何时使用规范网址 1.如果您确切知道在哪种情况下您的网站上存在重复项 如果您清楚地了解网站上出现相似或非常相似的页面的原因,并且同时每个此类页面都应存在于网站上,则最好确定该系列的哪些页面是主要页面并在所有其他页面上将规范链接指向该主页面。 2.当很难或不可能实现301重定向时 通常,最好使用301重定向,但是如果实现起来很困难或很长,则可以使用rel =“ canonical”属性。根据Google的说法,通过标准标记的链接汁与链接汁绝对相同,后者通过301重定向传输。 3.一个产品系列有多个页面 如果您在在线商店中有一系列产品,例如,仅在颜色上有所不同,那么最好选择一个产品作为主要产品(典型),然后将其与其他产品建立规范链接。 4.目录中不同种类的商品 如果在您的网站上可以用不同的方式对商品进行分类,并且在URL中指定了sort参数: http://site.com/dresses.html?sort=price 然后,有必要从所有不同的排序组合中,使用默认排序将规范链接放置到目录中。通常,这是一个不带参数的URL类别,这些参数负责对商品进行排序: <link rel=”canonical” href=”http://site.com/dresses.html” /> 5.在创建包含所有产品的目录页面时 根据Google的建议,从目录的所有页面到包含所有产品/文章的页面的规范链接的方式最适合作为网站目录页面和网站上所有产品/文章的索引。使用这种方法,您需要为网站的每个部分创建一个“查看全部”页面,并在分页的每个页面上将一个规范的URL放置到“查看全部”页面。 6.打印页面 例如,如果通过附加参数实现了网站上页面的打印, […]

什么是Robots.txt文件以及如何正确配置

什么是robots.txt Robots.txt语法 如何配置robots.txt:规则和示例 禁止或不编制索引 测试robots.txt的工具 搜寻预算 什么是robots.txt文件 Robots.txt文件用于向扫描网络的搜索系统提供有价值的数据。在检查您网站的页面之前,搜索机器人会对此文件进行验证。由于这种过程,它们可以提高扫描效率。这样,您可以帮助搜索系统首先对站点上最重要的数据进行索引。但这只有在您正确配置了robots.txt之后才有可能。 就像robots.txt文件的指令一样,元标记robots中的noindex指令不仅仅只是针对机器人的建议。这就是为什么他们不能保证关闭的页面不会被索引并且不会包含在索引中的原因。在这方面的保证是不合适的。如果您需要关闭站点的某些部分以建立索引,则可以使用密码来关闭目录。 重要!为使noindex指令生效,该页面不得被robots.txt文件阻止。如果该页面被robots.txt文件阻止,则搜寻器将永远不会看到noindex指令,并且该页面仍可以出现在搜索结果中,例如,如果其他页面链接到该页面。 Google Search Console帮助 如果您的网站没有机械手txt文件,则将完全爬网您的网站。这意味着所有网站页面都将进入搜索索引,这可能会对SEO造成严重问题。 Robots.txt语法 用户代理:将要应用以下规则的机器人(例如“ Googlebot ”)。用户代理字符串是Web浏览器用作其名称的参数。但是它不仅包含浏览器的名称,还包含操作系统的版本和其他参数。由于用户代理的原因,您可以确定很多参数:操作系统名称,版本;检查安装了浏览器的设备;定义浏览器的功能。 禁止:您要关闭以访问的页面(在每行开始时,您都可以包括类似的大量指令)。每组User-Agent / Disallow均应以空白行分隔。但是,非空字符串不应在组内出现(在User-Agent和最后一个指令Disallow之间)。 当需要在当前行的robots.txt文件中保留注释时,可以使用井号(#)。井号后面提到的所有内容都将被忽略。该注释既适用于整行,也适用于指令之后的结尾。目录和文件名对寄存器有意义:搜索系统接受《目录》,《目录》和《目录》作为不同的指令。 主机:用于Yandex指出主要镜像站点。这就是为什么如果您每页执行301重定向以将两个站点粘贴在一起,则无需重复执行文件robots.txt(在重复站点上)的过程。因此,Yandex将在需要被卡住的站点上检测到上述指令。 抓取延迟:您可以限制站点遍历的速度,这在站点上的出勤频率很高的情况下非常有用。之所以启用该选项,是为了避免由于处理站点信息的搜索系统多样化而导致服务器额外负载出现问题。 正则表达式:为了提供更灵活的指令设置,可以使用下面提到的两个符号: *(星号)–表示任何符号序列, $(美元符号)–代表行尾。 有用的链接:关于创建Robots.txt的Google指南和关于完全Robots.txt语法的指南 如何配置robots.txt:规则和示例 禁止对整个站点进行扫描 User-agent: * Disallow: / 创建新站点并使用子域提供对它的访问权限时,需要应用此说明。 通常,在新站点上工作时,Web开发人员会忘记关闭站点的某些部分以进行索引编制,结果,索引系统会处理该站点的完整副本。如果发生此类错误,则您的主域需要每页进行301重定向。 爬网整个网站的权限 User-agent: * Disallow: 禁止抓取特定文件夹 User-agent: Googlebot Disallow: /no-index/ 禁止特定漫游器的抓取页面 User-agent: Googlebot Disallow: /no-index/this-page.html 禁止对某种类型的文件进行爬网 User-agent: * Disallow: /*.pdf$ 爬网特定机器人页面的权限 User-agent: […]

怎样把网站从http转换成https

使用https加密目前看有利有弊。利,首先是安全,减少被劫持、篡改的机会。弊,主要是速度上的,由于证书验证、多次握手、CPU消耗等原因,https页面速度会被拖慢一点。但https无疑是未来趋势。 改为https对SEO按说应该有好处,不过实际情况如何还有待验证。Google方面早就表明https是排名因素之一,虽然只是个很小因素。百度以前曾经提到过,百度不会主动抓取https页面,但2015年百度站长平台发布消息,百度对https页面优先收录、优先排名: 从相关性的角度,百度搜索引擎认为权值相同的站点,采用https协议的页面更加安全,排名上会优先对待。 此次技术升级之后,百度搜索将同一个域名的http版和https版作为一个站点来处理,优先收录https页面; 从http改到https后的一段时间,搜索引擎需要重新抓取、判断、计算,收录,排名和流量都可能有起伏。说是起伏,恐怕主要是下降。虽然从http版本全站做了301转向到https版本,我们都知道,百度对301转向处理很慢、很保守,需要持续观察什么时候能完成正确判断并传递权重,并且只传递部分权重。Google也表明过,301转向不能完全传递权重,是有损耗的。 就SEO每天一贴来说,另一个可能造成麻烦的是,这个网站以前做过多次URL路径变化和301转向,还换过域名,现在再多加一次301转向,多层转向有可能造成搜索引擎不愿意跟踪,不能完全传递权重。本博客外链增加最多的时候还是刚刚开博的头两年,那时候的链接都是指向最早的URL的,到现在的https新URL,经过了3-4次转向,这恐怕是搜索引擎会跟踪的转向数的上限了。所以,可能会丢失一部分无法挽回的外链效果。 接下来,本博客的主要关键词排名可能会下降甚至消失一段时间,能不能恢复也是未知之数。但长痛不如短痛,既然是趋势,无论如何,也得跟进。 简单说一下把网站从http转换到https的过程,也许对读者有借鉴意义。下面只是我做转换的过程,并不是最优方法,按说应该先在单独的服务器上测试https版本,我并没有。公司网站最好更谨慎点。 购买SSL证书 这个是必须的,现在价格并不贵。到David Yin帖子看一下,便宜的3年只是几十块钱。安装SSL证书的技术问题,无法在这讨论了,不明白的问技术人员吧。 备份、备份 这个也是必须的。对SSL安装、服务器配置不熟悉的站长来说,转换过程不一定是那么顺利的。 新版本代码改动 SSL证书安装后,https版本就可以访问了。原来网站上的所有URL都需要改到https版本,包括链接、图片、JS等,所以可能需要修改文章数据库、模板、插件等。 这样,绝大部分导航中的链接就由WP系统自动改为https版本了。但很可能还有一些导航性质的链接是硬编码在模板中的,比如这个博客帖子下面的版权声明,那是人工写在模板里的,别忘了改。 帖子正文中人工加的内部链接也需要自己改。如果使用了phpMyadmin,用下面指令跑一下数据库 update wp_posts set post_content = replace( post_content, ‘http://www.hqtweb.com/’, ‘https://www.hqtweb.com/’); 帖子里的图片路径也就同时改了。 如果没有使用数据库管理工具,写个简单php程序运行一下也可以。 因为只是用指令在数据库执行了一下,没有,也没办法人工检查所有页面,可能有漏掉的链接、图片之类的,读者要是发现了,麻烦告诉我一下。 这里我还遇到了些没解决的问题。新浪微博组件和百度分享按钮组件貌似都不支持https,原理上应该可以把JS下载下来放到自己服务器上,但暂时没时间弄这个,先拿掉了。 检查新版本页面源代码 访问一下https版本页面,包括首页、栏目页、内页、sitemap,查一下源代码,看看还有没有http地址的存在,不仅页面可见部分,还得看看head部分,JS等,比如head里的canonical标签是否改到https版本了?程序生成的sitemap里的URL是否改为https版本了? 全站301转向 全站做http到https的301转向。LAMP服务器为例,在.htaccess文件中加: RewriteEngine On RewriteCond %{SERVER_PORT} 80 RewriteRule ^(.*)$ https://www.hqtweb.com/$1 [R=301,L] RewriteCond %{HTTP_HOST} ^hqtweb.com [NC] RewriteRule ^(.*)$ https://www.hqtweb.com/$1 [L,R=301] 这个代码只是举例,也是我的博客用的实际代码,还有其他写法也可以,只要实现了301就行。 访问原http版本页面,检查301是否生效。 百度站长平台和Google Search […]

频繁修改页面标题会被降权吗?

改标题不会被降权 首先,可以肯定地说,修改标题并不会被降权。不然为客户提供SEO服务的就全瞎了,标题一改就降权,那连标题都不能改的话,还怎么优化呢?我接触的SEO客户中,几乎没有不修改标题的,而且是网站所有页面都同时改,小到几百页,多到几千万页,真没见过因为修改标题出问题的。 可能最早提出修改标题会被降权的SEO认为的证据就是,他修改了标题,然后页面排名下降了。看似是挺成立的理由,其实不是。修改标题,然后排名下降,不能说明修改标题本身导致了降权,很可能仅仅是因为,他把一个比较好的标题改成不好的标题了。 当然,这里说的修改标题是正常的修改,都是围绕页面主题的,只不过变个花样来或者吸引用户点击,或者包含更多关键词组合等等。把标题从“SEO每天一贴”改到“哪个牌子的奶粉好“,这不是修改标题,这是做了个新站,就得按新站预期表现了。 频繁修改标题会被降权吗? 现在大部分SEO都认同修改标题不会被将权,但又常常附加一句,建议还是不要频繁修改标题。那么频繁修改标题会不会导致被降权呢?频繁又是频繁到什么程度呢? 今年3、4月份的时候,我特意在这个博客做了试验,在不到两个月时间里,首页标题连续修改了10次以上,每次只要一看到百度返回的标题变成新的,就马上再换一个更新的。而且修改的不是很小的地方,比如加个“的”,换个标点之类的,都是比较大的修改。 结果怎么样呢?结果是没怎么样,百度排名没什么变化,搜索流量也没什么变化,其它方面都看不到有什么明显变化。所以,频繁修改标题同样不会被降权。 虽然我也不建议这么频繁修改标题,倒不是因为怕被降权,而是因为,没事老修改它干嘛,应该把时间用在更有意义的事情上。 权重低的网站也没事吗? 有的SEO还经常再附加一句,权重高的网站,修改标题没问题。言下之意,权重低的还是得慎重。 SEO圈子很多人大概会认为SEO每天一贴权重高,其实并没有。我的观察,不要说放在所有网站、博客中比,就算只放在互联网相关,甚至只是SEO相关的新闻网站、博客中,SEO每天一贴在百度眼里的权重都是比较低的。 我在这个博客发的大部分帖子都会被转载到很多地方,绝大部分没有按要求留下原始出处链接,大部分压根儿没有提原作者是谁,还有一部分根本就说成是他自己的原创了。这是另一个问题,姑且不谈。 这个博客的每一篇帖子,注意,是每一篇,发布后,搜索帖子标题,我这个原始出处从来不会出现在百度前几页。出现在前几页的,既有可以理解的知名站长论坛如chinaz、admin5等,也有个人SEO博客。通常至少几个星期以后,我的帖子才会慢慢爬上来,但也不会爬到最前面。 想一下,同样是个人SEO博客,他转载我的文章,排名比我的原出处好,不止一个SEO博客,每一次都这样,几年了都是如此,说明什么?说明我的博客权重不如他们。要么就是我的博客被特殊对待了? 我的反复折腾表明,一个权重实在不怎么样的网站,频繁修改标题,不会被降权。

探索什么是断开的链接以及如何查找和修复它们

免费断开链接检查器工具手册 如您所知,断开的链接可能会对您的网站排名产生负面影响。网站损坏的链接检查器或无效链接检查器已进行了修改,以帮助您找到此类内部和外部链接。这个过程很简单:输入您要检查的URL,按“开始”,获取断开的链接报告并立即进行更正。 我们的免费在线工具将: 检查您的网站或博客中是否存在无效链接(多达150页的内容完全免费,不限付费计划); 发现错误并提出建议,以更好地优化网站; 报告所有错误网址的错误代码(404、502等) 修复用户的可用性错误(没人喜欢重定向到不存在的页面); 允许获得指向您网站的额外有价值的链接。(这称为断开链接扩展); 该工具可在线运行,而无需创建帐户或下载; 扫描内部和外部链接。 什么是断开的链接? 当浏览时,断开的链接就是这样的链接,服务器通过该链接给出答案“该页面不存在或找不到”。 用户请求的链接,文档或图像可能实际上不存在,或者由于故障,服务器或站点配置而可能是“无效”的。 网站管理员和网站所有者的任务是确保没有链接到网站上不存在的内部和外部页面,文档和文件。换句话说,保证用户在单击任何链接时都可以转到下一页并在此处看到预期的内容。 链接断开对于用户对站点的态度非常不利。有人来找您的网站上的信息,看到了该主题的链接,以查找更多信息……单击它,但没有任何内容。 您不能忘记搜索引擎。想象一下- 搜索机器人去您的网站,并经常偶然发现断开的链接。在这种情况下,搜索引擎应该得出什么结论? 它将假定您不更新内容,不关注信息的相关性以及根本不去引用它的位置。因此,如果断开的链接很大,则MS也可以因此减少发行中的站点。 链接断开最糟糕的是它们是不可见的。对于网站所有者而言,很少有全面的分析功能–用户可以单击哪些链接和页面。网站管理员本身通常不遵循其链接或编写记录,而是被发布并被遗忘。一两年的通行证和一些被遗忘的联系已经断开。 用户应要求访问该站点并希望浏览Internet,但随后却无法按计划进行-链接不起作用。由于网站站长并不经常对此有所了解,因此可能会变得混乱。 搜索引擎索引的页面数量每天都在增长,数千个新站点正在创建,数百个正在停止存在。尽管工作站点会定期更改CNC,内容,添加新页面和文件以及删除旧页面和文件。 如果您的网站少于20页,并且断开的链接易于控制,则另一个网站上可能有10,000页,并且控制它们变得更加困难。特别是如果您在其他多个站点上引用Web文档,则无法始终跟踪该站点上所有链接的可用性。 断开的链接在网站上的显示情况如何? 它们在什么情况下出现: 如果删除旧的页面和不必要的页面和文档-但在其他页面上的其他部分,则有指向这些页面的链接。他们变得“破碎”。 如果您链接到另一个站点,并且发生了更改。这可以是域名,站点结构或页面删除的更改。该网站可以移至带有www的域。而不配置重定向(了解什么是301重定向)–在这种情况下,该链接指向不带www的页面。也会变得破碎。 如果站点具有来自外部源的内容或其他数据的自动更新,例如,具有在线数据的商店,交付服务或具有Internet数据的仓库。此类系统中的故障可能是死链接的原因。 如果对网站进行技术或视觉处理(设计更改),则会出现将内容传输到新结构的问题。由于存在大量数据,并且技术算法无法考虑到移动页面内容的所有细微差别-在这种情况下不可避免地会出现断开的链接。 出现链接断开的原因还有很多,但我们已经确定了主要的原因,我们可能会在此处停止。 网站管理员,博客作者和优化人员应该了解的最重要的事情是:出现断开的链接是一个自然的,不可阻挡的过程。网站越大,您引用自己或他人的页面的频率就越高–网站上断开链接的可能性就越高。 很难与之抗争(尤其是在其他站点上)–因此,我们建议定期监视其在站点上的存在。这样更有效。 如何修复,更改和删除网站上断开的链接? 您必须使用自己的双手或网站搜寻器工具手动执行此操作。您如何处理? 例如,维基百科删除了不必要的页面或合并了两个页面。您需要更改断开链接中的地址以转到新页面。 如果由于站点不再存在而导致断开的链接出现,则可以引用Web存档中的同一页面,或者找到适当的替代旧链接的方法。 如果由于站点不可用而出现断开的链接,请检查该链接是否持续很长时间。问题总是有可能是暂时的,并且与托管问题或DDos有关。 如果您引用该站点的页面,并且URL地址已更改,则您的任务是找到一个具有新URL定义的旧页面,并将其替换为旧页面。 如果该页面被删除,而您找不到该页面的替代品或无法在新地址找到它–无法执行任何操作,则必须完全删除断开的链接。为了防止您的网站出现索引问题,您应该关闭robots.txt文件中的损坏链接。这样,搜索机器人就无法将它们编入索引。阅读我们的博客文章,了解  什么是robots.txt以及如何正确对其进行管理。 如果您无法自行确定网站的无效链接,则可以使用断开的链接检查器。最终,通过遵循此过程并逐个链接地进行链接,您将摆脱损坏的链接。是的,您将不得不花费一些时间。但是通过这样做,您可以表示对来自社交网络和搜索引擎的访客的尊重和关心。

什么是XML网站地图及其可能导致的问题

什么是站点地图? 为什么您的网站需要它? 您可能由于生成错误的站点地图而遇到问题: 索引问题 缺乏稳定性 网站的一般适用性 庞大的网站问题 站点地图检查器 结论 什么是站点地图? XML网站地图–是一个简单的文件,其中已写入了大量命令,以便与搜索引擎的机器人(例如Googlebot)合作。它具有一系列功能,可将页面提升到顶级位置,从而使机器更容易理解数字算法的操作原理。什么是XML网站地图?–这是门禁的基本类型,它将HTML页面与所有可能的搜索引擎结合在一起,使其“可见”。对概念的最初理解通常是最关键的一点。继续阅读本文,以更好地理解关于站点地图的误解。 为什么您的网站需要它? 首先,谷歌喜欢结构良好的网站,它对网站的排名要比那些不好的网站高。此外,站点地图是Google估算和抓取您最重要的网页的最快方法。因此,网站管理员强烈建议您创建sitemap.xml文件,并在创建后将其提交给Google进行索引编制。只需通过以下公式即可: 只需输入搜索行,然后将您的sitemap.xml文件添加到Search Console。这是如何为Google制作站点地图的简单步骤。 https://www.google.com/ping?sitemap=https://YourWebsite.com/sitemap.xml 您可能由于生成错误的站点地图而遇到问题: 搜索引擎将由于缺少此文件而无法正确排名您的网站。从理论上讲,机器人应独立扫描网站的所有页面并将其包含在SERP中。但是,请记住,系统可能会失败,并且找不到某些Web文档。通常,“问题所在”成为只能通过一长链链接和动态生成的URL进行访问的部分。 从SEO角度来看,Sitemap具有一定的影响,因为它可以显着加快索引编制速度。另外,更有可能在竞争对手有时间复制和发布内容之前对网页进行索引。搜索引擎更喜欢原始来源,而复制粘贴则被简化。 索引问题   在阅读本文期间,您将摆脱最流行的误解:XML网站地图有助于索引网站的每个地址。程序单元不礼貌地将索引命令发送到查找机制系统。Google会自行完成所有工作-它会爬网网站并选择质量更高的页面(按计算机)并对其进行索引。人们习惯于思考,站点地图不应引起任何类型的搜索系统的关注。 这是一种过滤器,已插入Google Search Console。它在指定算法内综合了概念,这些概念应视为必须经过扫描过程的适当目标网页。基本上,它创建的线索只是精确地指出了对人工智力有意义的页面。 缺乏稳定性   在各种各样的XML站点地图示例模式中,专业人员可以轻松地检测出一个简单的缺陷–他们缺乏关于可能被索引的页面的状态(已传输到搜索系统)的消息稳定性。XML站点地图的描述通常会遇到元机器人的操作。请参阅以下可能导致混乱的命令。 “ Noindex” –该命令意味着无需从命令名开始对页面进行索引。 “ Nofollow ” –该页面没有有价值的信息。 “ Noindex,nofollow”,–该页面将更像是系统的幽灵。这是最常见的问题,因为它通常会影响应建立索引的网站的无用性。 应该足够小心地检查命令,以免它们彼此冲突。简而言之,所有信息都应在两个简单参数下过滤: 有用的页面充满了有关以人为本的在线研究信息。代码的编写者应对机器人使用“ noindex,follow”命令,并将其从XML网站地图中删除。 机器登录页面–为搜索机器指定的文本,必须考虑这些文本才能出现在请求结果的主要排名中。应该将其添加到XML文件中。还必须设置一个例外,以免被机器人禁止。   网站的一般适用性   有人可能会认为搜索机制具有一些个人参数或度量,可以选择要推广的网页。如果试图像一台机器一样分析1000页的网站,就会发现明显的简单关联。如果仅为该机器创建5-6页,而其他页面是为某个人定向的,则此站点将不会在SERP中占据第一位。人们需要在面向机器的文本和面向人类的文本之间找到一种平衡,以便优化能够通过网站进行推广。 一个明智的想法是,将不需要面向人类的信息的面向机器的文本用于指定页面,并将其放入XML文件中。登陆页面的最佳选择是登录部分,注释部分,密码恢复和内容共享部分。但是,这当然是不够的。纳入Google索引的最佳选择是大约50%的内容。基本上,这意味着通过XML文件验证的更多面向机器的页面将使该网站更受欢迎。灵活的调整是网站推广的关键。 庞大的网站问题   拥有大型网站的人害怕调整XML文件,因为他们认为每个页面都是手动输入的。网站超过1000页的人们发现它确实是一场噩梦。幸运的是,这仍然是另一个误解。静态文件是老式的,更适用于某些微型名片网站。 这对于具有许多内容类型的网站特别有效,因为站点地图XML示例将能够识别必要的,有用的文件和隐藏的对象,这将对机器索引过程有所帮助。随后的每个更新的网页将按照动态文件中所述的要求进行相同的扫描过程。动态XML文件根据最初声明的参数决定是否应为其建立索引。 站点地图检查器 创建此类工具的目的是为了验证站点地图XML,并为您提供是否位于该站点的信息。此外,站点地图检查器有助于在将任何问题错误通知给Google之前将其告知。您将了解您网站的XML网站地图是否允许搜索引擎查看可用于爬网的URL。检查并纠正所有错误后,将新的站点地图提交到Google Search Console并ping以进行重新爬网。   结论   […]

创建网站结构以增强SEO

网站结构有所不同 良好的网站结构可提供出色的用户体验 附加链接是良好网站结构的一部分 良好的结构可以更好地爬行 如何建立网站 在开发网站之前计划层次结构 URL结构基于导航层次结构 使用CSS或HTML创建网站的导航 浅层导航结构最好 标头应列出主要的导航页面 使用广泛的内部链接结构 视觉站点地图生成器可以解决您的问题 结论 良好的网站结构会大大提高您在搜索引擎中排名更高的机会。网站都具有某种类型的结构,可能只是一组杂乱无章的页面,或者是一种精简的严格结构。如果您精心设计好网站的结构,那么您的网站将实现卓越的搜索。 本文就如何创建强大的网站结构提供了最佳建议,该结构将被蜘蛛索引和抓取并吸引用户,同时提供最佳的SERP排名和列表。   网站结构有所不同 网站架构经常被忽略,虽然它是决定网站SEO性能的最关键因素之一,但很少有网站所有者和网站管理员真正了解增强SEO的网站结构。例如,筒仓  是根据网站页面内容对其分组的过程,是SEO专家广泛使用的一种方法。 在进入如何开发自己的网站结构以使其对SEO友好之前,我们将首先解释为什么网站结构至关重要。   良好的网站结构可提供出色的用户体验 当您删除字体,颜色,图形,字距,图像和空白时,网站设计实际上可以归结为一个很好的结构。 人类的大脑需要认知平衡-逻辑上将各个部分组合在一起,找到所需内容并找到他们期望的东西的能力。这使得您的用户在逻辑上强大的站点结构在认知上令人满意。 确实,搜索引擎之类的网站吸引用户。Google的算法使用从搜索者那里获得的数据对网站进行排名。停留时间短,点击率低的网站在SERP中的效果不佳。当用户发现其结构良好而喜欢的网站时,他们往往会停留更长的时间并且不会反弹。好的网站结构会降低跳出率并增加停留时间,从而可以提高排名。   附加链接是良好网站结构的一部分 SERP使用一种称为站点链接的列表格式,该格式显示网站的主页,并在其下面提供多个内部链接。 附加链接很棒,并且在SEO方面具有巨大优势。他们将用户指向最相关的信息,使网站导航更轻松,增加用户信任度,提高品牌声誉,提高点击率,协助您主导SERP并缩短转换渠道。 但是,您不能访问Google网站站长工具并通过填写表格来请求网站的链接。此过程由Google的算法自动完成,该算法会根据非常合理且强大的网站结构为网站授予网站链接。网站结构不良的网站不太可能获得网站链接。没有网站链接的网站获得较少的目标流量,较低的点击率和减少的转化。   良好的结构可以更好地爬行 Googlebot和其他网络抓取工具会抓取网站的结构以对内容编制索引,以便可以在搜索结果中将其返回。如果网站层次结构良好,则爬网程序可以轻松访问内容然后对其进行索引。 但是,爬网程序并不总是能够自动发现网站上的所有内容。Sitemaps将在这方面有所帮助,但是结构坚固的网站将使抓取工具可以轻松地进行访问,抓取,提交给Google index和返回页面。好的SEO的核心是一个良好的网站结构,该结构已针对爬虫进行了优化。 总之,网站的组织对于SEO成功至关重要。实际上,可以说没有良好站点结构的站点将永远不会成功使用SEO。具有牢不可破的SEO强大结构基础的网站将获得大量的自然搜索。   如何建立网站   下面介绍的步骤将帮助您创建结构牢固的网站。   在开发网站之前计划层次结构 如果您仍然需要开始创建自己的网站,则可以很好地计划网站结构以获得最佳SEO。甚至在CMS中创建页面之前,都应该计划好结构。这可以在白板上完成,也可以通过使用电子表格,文字处理器或Visio等简单图形工具等通用软件来完成。 “层次结构”只是一种简单且有意义的组织网站信息的方法。层次结构还将确定网站的导航方式以及URL结构,因此其他所有内容都基于该结构。正确设置层次结构,其他所有内容都将轻松实现。 在设计层次结构时,请牢记以下功能。 应该是合乎逻辑的。不要过分考虑这个过程,也不要使其变得比应有的过程复杂。为了用户和爬虫的方便以及您自己的方便,最好是简单。使主要类别与众不同,并创建与它们所属的主要类别相关的子类别。 仅使用2到7个主要类别。除非您拥有像Amazon这样的大型电子商务网站,否则您不需要很多主要类别,而只应包含几个主要类别。如果您的站点具有七个以上的主要类别,则您可能希望对组织进行另一种分析,并进行精简。 每个主要类别使用相同数量的子类别。尝试使每个主要类别的子类别数量保持相同。如果一个主类别下有十个子类别,而另一主类别下只有两个,则情况可能会不平衡。 良好的网站层次结构是强大,良好的网站结构的起点。   URL结构基于导航层次结构 开发强大的网站结构时要考虑的下一个主要元素是URL结构。如果您的层次结构是逻辑的,那么这应该不难,因为URL结构应遵循该层次结构。 如果您的URL结构是根据网站层次结构进行组织的,则URL将使用实词而不是符号,并将覆盖适当的关键字。   使用CSS或HTML创建网站的导航 如果网站使用Ajax,Flash和JavaScript进行编码,则抓取者将难以覆盖网站的层次结构和导航。因此,最安全的方法是使用HTML和CSS创建导航。 […]

全面的技术SEO检查表

项目被完全索引的能力。 该搜索机器人的理解能力网站的结构。 用户快速找到所需信息的能力。 以及算法正确排序文档的能力。 各种类型和规模的站点的主要要求包括以下建议,这些建议按重要性和相对频率在线排列: 1.配置从非主站点镜像中带有“ www”(或不带“ www”)到主站点的301重定向。您可以使用页面上的SEO检查器检查网络上任何文档的服务器响应代码。 2.从其他非主要站点镜像到主要站点镜像的301重定向的安装(例如,从域名“ www.stchck.pro”到“ www.sitechecker.pro”)。 3.创建和配置robots.txt文件。由于处理各种指令,建议对Google和其他搜索引擎的规则进行划分(例如,仅Yandex支持“ Host:”指令,而对于Google不正确)。 4.网站上的每个页面都有一个唯一的标题标签和一个描述其内容的描述元标签。 借助我们的网站审核工具,可以自动检查Title标记和Description元标记的唯一性。在这里,我们没有涉及如何正确填写这些文档字段的问题,而只是考虑了技术方面。 5.配置所推广网站页面的友好URL。最好为网站的所有页面配置友好的URL。创建的URL的质量控制:我们仅向同事提供URL地址,并请他描述该页面专用于什么。因此,您可以尝试使用我们的URL检查器来确定对Google足够友好。 6.创建并验证404错误操作的正确性。该页面的响应代码应为“ 404 Not Found”。对于所有网站部分中的错误URL,应显示404错误。该页面的设计应与网站的其余部分相似。它也不应一次在不存在的URL上重定向,并帮助用户快速在站点上找到所需的页面(显示基本链接,搜索表单)。 7.通过扫描项目,检查站点上所有页面的服务器响应代码。通过链接可访问的所有页面均应给出“ 200 OK”响应代码。因此,如果更改了页面地址并安装了301重定向,则还必须更正网站上内部链接的URL,以便它们立即导致最终目标。 8.检查站点加载时间和页面大小(以KB为单位)。推荐的度量标准:源文档代码下载时间最多0.7秒(700毫秒),服务器响应时间最多0.2秒(200毫秒),源代码大小最多120 KB。 9.检查主要文本标头标签h1的唯一性及其在所有页面上的可用性。标签的内容应反映文本的实质。 10.确保没有将h1-h6标签用作站点设计元素。 11.在统计报告中检查服务器的正常运行时间。正常指标值:99.85%及以上。 12.创建一个独特且引人注目的favicon.ico并将其上传到网站的根目录。 13.您需要隐藏指向robots.txt文件中无法建立索引的页面的链接(通过AJAX),以在站点内正确分配静态权重。这样,在文档的源代码中就没有像“ a href =”…”这样的片段来链接页面数据。还需要阻止脚本本身进行索引。 14.需要将JS和CSS的较大片段移动到适当类型的独立连接文件中。删除临时评论。这将加快蜘蛛和浏览器的代码跳转和解释速度。“大”片段包括8-10行及更大行的JS和CSS片段,以及超过3-5行的注释。 15.检查编码中是否存在未封闭的配对标签。这是代码有效性的最低要求(如果表“ tr”的行已打开,则应使用“ / tr”等将其关闭)。 16.确保在所有流行的浏览器中正确显示网站的主页。应特别注意(按浏览器共享的顺序):Google Chrome,Android浏览器,Mobile Safari,Firefox,Yandex.Browser,Opera。 17. 301的配置将页面从“ index.php”,“ index.html”,“ default.html”之类的页面重定向到不包含它们的页面(到文件夹的根目录,例如“ /dir/index.php”到“ / dir /”)。 18. 301的配置从URL末尾没有斜杠(“ /”)的页面重定向到URL末尾带有反斜杠(“ /”)的页面(或者相反,取决于CMS和服务器设置)。 19.配置重定向http到https。请确保使用“ […]

如何检查IP地址的快速指南

什么是IP? 目的是什么? IP类型 IPv4和IPv6协议 静态和动态地址 如何检查IP地址 但是如何找到您当前设备的IP地址? 许多人都熟悉术语IP地址。有些人知道它的外观,代表什么,在设置中或使用IP检查器在哪里查找。但是,大多数人不了解其目的是什么,其背后隐藏着什么信息,但是大多数人甚至不知道如何找到设备IP地址。我们为您准备了一个简短的摘要,可帮助您整理信息。 什么是IP? 那么正式的IP地址定义是什么?该缩写代表“ Internet协议”。它是为所有设备连接到Internet时分配的唯一编号,这些设备是台式计算机,笔记本电脑,平板电脑,智能手机等。这是您的数据通过万维网传输的一种方式。 这是任何Web连接的必需参数。每台计算机都会收到一个特定的数字组合,从技术上来说,这是其家庭住址。IP由国家中心在提供商之间分配。然后,每个人在自己的客户端(就像您一样的网络用户)之间分配它们。您可以使用IP检查器轻松查看自己的地址(您将在下面找到更多详细信息)。 如果您不确定某个网站的真实性,或者打算从头开始制作网站,则应检查其来源。如果您想知道网站服务器的位置,有一种快速的方法。只需在我们的IP检测器中输入域名,然后等待结果即可。 目的是什么? IP分为几类,每类都有不同的机会和目的。 例如,静态的是最常见的。这类: 将用户连接到网络并组织受保护的频道; 允许创建FTP服务器; 允许从外部网络使用服务器; 非常适合对等系统。 还有专用的IP,使用户有更多机会。对于网站所有者来说,这种情况更有趣。例如,如果某人使用托管服务,则与某个服务器相关的所有网站都将具有相同的地址。如果其中之一违反规则,所有其他资源也将被阻止。专用IP有助于防止这种情况。它还提供了针对DDoS攻击的保护,允许统计访问次数并创建功能正常的电子邮件服务。您可以阅读我们的文章“ 什么是CDN以及您是否需要它 ”,以了解使用专用服务器的好处。 您分享的信息 IP信息包含有关您的许多详细信息。知道您的IP的人会知道您的位置,包括国家/地区,地区/州/省,城市和邮政编码。几乎每个在线查找器都具有此数据。营销专家将这些发现与从元数据,cookie测试文件,跟踪器等接收到的信息一起使用,以创建您的详细资料。因此,他们知道您访问的资源,您感兴趣的事物,与您交流的人以及您在附近的位置。这是您以后查看所有定向广告的方式。如果要查看共享的数据,请使用任何IP检查器。 Internet提供商可以访问更多信息。客户需要指出并验证其姓名,电话号码,有时甚至是信用卡详细信息。例如,在澳大利亚和英国,提供商有义务注册所有在线操作并与众多政府组织共享此数据。这意味着提供商可以跟踪您访问的没有HTTPS协议以及站点对HTTPS的访问的站点和页面(尽管不是单独的页面)。 IP类型 IPv4和IPv6协议 IPv4是一个四位数的Internet协议,每个位数位于0到255的范围内,并且每个点之间用点分隔。对于小型公司网络,这是一个不错的选择。有趣的是,几台不同的计算机或网站可以具有相同的IP,但是对于内部网络中的每台计算机来说,它们都是唯一的。当前使用了超过400万个这些协议,并且IP检查器将向您显示此四位数的组合。考虑到万维网中的设备数量,这还不够。 随着时间的流逝,人们意识到IPv4协议将干扰网络发展。此外,它们的数量受其32位结构的限制。最新的IPv4于2011年发布。这导致引入了一个新的解决方案-IPv6。目前有超过20,000个IPv6协议用户,包括Facebook,Google,Wikipedia和YouTube。 IPv6具有128位结构,由16个数字组成,分为8个块。与IPv4不同,它们使用冒号而不是点。尽管IPv6格式IP更长,但它们更简单,因为它们不包含任何不必要的信息。 静态和动态地址 动态IP是自动分配的IP。每当设备连接到网络时,它都会发生变化:您可以获得目前免费的设备,而另一位用户则获得了您昨天使用的设备。如果尝试使用IP Checker查看它,则每次都会看到不同的数字。 静态IP(也称为常量或实数)会定期分配给特定设备。它是由提供商设置的,或者由您在登录服务时自行设置的。 如何检查IP地址 问题“ 我的IP地址是什么?” 可以随时出于不同原因抓住您。某些其他设置,升级安全功能或需要访问某些特定资源时可能需要它。 您始终可以在设置中检查此数据。但是,使用在线IP检查器会更容易。只需使用Google(“ IP检查器工具”或“我的IP是什么”),您就会获得一长串网站,这些网站将显示他们对您的了解。输入您或其他人的参数,您将找到位置,包括城市,街区,设备类型和操作系统,等等。此检查器将帮助您了解您的隐私并提高安全性。 如何找到您计算机的IP地址?  视窗。它指的是本地网络上使用的内部IP地址。如果要从家庭网络中的其他设备(笔记本电脑,智能手机或平板电脑)访问计算机,则可能需要它。这就是您需要做的: 右键单击任务栏。 选择任务管理器: 如果分派器在简化视图中打开,请单击“详细信息”: 单击性能选项卡。 突出显示以太网项,然后在右侧,您将看到PC的当前IP地址。 Mac IO。对于使用IOS的用户,我们将告诉您另一种通过控制面板查找IP的方法: 转到“系统设置”,然后单击“网络” 单击右下角的“高级”。 单击“ TCP / IP”选项卡,您将在“路由器”一词旁边看到您的IP地址。

如何使用Sitechecker抓取网站指南

什么是网络爬行? 网站检索的含义 什么是履带及其工作方式? 你为什么需要它? 如何使用Sitechecker抓取网站? 什么是网络爬行?   Web爬网是浏览旨在在Internet上执行Web索引或爬网的网站的过程。Web爬网软件用于更新网站,客户网站或索引的内容。搜寻器会像Google Spider一样复制网页(网址),然后由搜索引擎进行处理。基本上,这是用于执行更有效的Web搜索的工具。网络蜘蛛会消耗其访问的系统资源。爬网时,会访问许多网站和页面。爬网某些网站会引发道德问题。因此,公共网站的所有者雇用爬网代理。此外,由于互联网页面数量众多,对网站建立索引也不是一件容易的事。 网站检索的含义   那么,爬取是什么意思?工作原理类似于Google搜索引擎:您可以 快速访问多个网站的内容。例如,您可以在一夜之间下载数百万个页面的内容。   谷歌网络爬行是什么意思?爬网可用于浏览竞争对手的数据,例如价格,产品或服务。手动收集此数据很困难,但是您可以借助网络爬网轻松地自动执行该过程。您也可以重新抓取数据以验证结果。这些数据用于制定房地产,电子商务,旅行或招聘等方面的业务决策。 什么是履带及其工作方式?   这是一个搜索引擎机器人,可遍历URL并从访问的页面下载内容。这是一个非常强大的工具,因为它可以找到URL并访问许多页面以下载内容。Web爬网分为两个步骤: 搜索机器人访问网页并下载内容。 然后,它在访问的页面上找到链接(URL),并再次执行步骤1。 例如,漫游器访问具有五个链接的第一个网页。这样,您访问了六个网站,而不是一个。如果这些页面中的每个页面都包含指向其他页面的链接,那么您也将访问它们。因此,访问的网站数量呈几何级数增长。您可以在短时间内从多个页面下载内容。 你为什么需要它?   爬网的主要目的是在短时间内获得必要的数据。网络蜘蛛可以用于研究目的,分析企业或市场营销的目的。例如,您可以使用此工具分析客户行为。此外,您可以收集市场营销信息或收集用于学术研究的数据。此外,您可以分析发展中的行业趋势,并监视竞争对手行为的实时变化。因此,搜寻器是可以在不同区域中使用的多功能工具。学生,商人,市场营销专家可以使用此工具来收集信息并预测客户行为。 此外,Sitechecker网站搜寻器可以帮助您: 查找技术错误(404页,重定向,链接断开,重定向链) 启动SEO分析(检查Web和元标签页面上是否存在重复项,标题缺失,h1,描述标签,规范标签,图片替换) 建立网站结构(改善网站层次结构并正确分配页面权重) 防止网站流量丢失(非200个URL,浏览孤立链接,非索引页面,robots.txt文件禁止的页面) 整理所有外部和内部网站链接(检查锚点和数量) 如何使用Sitechecker抓取网站? 首先,Sitechecker是专业的SEO评分员。它提供了有关“您的网站针对搜索引擎进行了优化的信息”的详细信息。使用Sitechecker.pro搜寻网站很容易: 步骤1.进入网络搜寻器  登陆。 在“添加域”字段中输入您的域,然后单击“开始”按钮。 第2步。给爬虫几分钟的时间来完成它的工作。等待期间,您可以查看我们的产品浏览。 步骤3.  现在,您将看到一份全面的网站分析报告。网站得分是根据严重错误,警告和通知的数量生成的。通过改善这些错误,它上升到前100名。这意味着您的网站技术状况是完美的!然后,您可以分析根据接收到的数据创建的图形和图表。 要保存此报告,请单击“下载PDF”或“导出CSV”按钮(由您选择)。 第四步。 回到爬网的URL栏,它包括根据页面权重分配的所有URL。“错误”字段将显示已发现错误。 步骤5.  在您获得的报告中,“问题”和“待办事项”字段是您的个人任务管理器。您可以轻松过滤所有错误,从严重到次要的错误。结果,您将获得一个定制报告,其中包括您添加到列表中的错误。通过单击任何此问题,您将获得一份小报告和“如何修复指南”。 此类自定义报告用于根据所包含的错误类型为网站管理员,网站程序员或SEO专家创建技术任务。 对于SEO专家来说,“待办事项”任务看起来如何: 现在下载报告并发送以进行更正。 第6步。 响应代码块将帮助您查看前200名未包含的URL: 检查3xx重定向 哪些网页有404错误代码 哪些网页具有重定向链 步骤7.  如果需要深入的数据,请检查详细的报告。探索哪些页面不可索引以及为什么。其中哪个具有nofollow标签。 有时,您需要关闭某些索引编制页面(登录/注销/帐户),以避免索引编制问题,请检查是否已从搜索机器人中关闭了所需的链接。如果您看到必须从索引中隐藏的页面,请立即更正此错误。否则,搜索机器人将找不到它。   步骤8, 然后进行大量的内容分析。在这里,您可以找到哪些页面具有重复的元标记(标题,描述),哪些页面丢失。另一个有用的功能是检查标题,描述或h1标签是否彼此不同。 要纠正此错误,请单击“显示重复项”,然后验证您需要改进的页面。为每个页面编写唯一的元标记。 步骤9 Ë Xplore数据库其它类型的技术错误,可以对网站排名的影响: 高外部链接; 长且非用户友好的网址; 内容编码比例小于10%的URL; 检测薄页;薄页是指文本长度小于500个符号的URL。 步骤10.  可视化您的网站结构,以改善SEO和流量性能。有必要知道网站的整体结构,以确定最强大和最薄弱的页面。在报告顶部,单击“网站站点地图”按钮。 […]

什么是单页应用SEO?

为什么要选择单页应用程序? 有什么缺点吗? 正确执行SPA SEO 提示:SPA的SEO实践的一般建议 SPA网站的其他SEO优化 在回答这个问题之前,我们应该给出一个基本答案:什么是SPA ?一个单页的应用程序是一个Web应用程序加载其所有在一个页面上的部件(模块,JavaScript和CSS文件,等等)。根据需要从那里提供更多内容。 单页应用程序与通常的网站不同。他们需要更少的页面刷新来交付用户请求的交互。处理负载的最大部分是在客户端。用户可以在加载的单个HTML页面上动态更新内容,而无需刷新。   这种类型的典型应用看起来就像是普通的网页。但是,将在不重新加载JavaScript的情况下加载和更新内容。页面的最终外观在浏览器中创建。为了达到这种效果,该应用程序使用了高级JavaScript框架:Knockout.js,Meteor.js,Ember.js和AngularJS。 如果您今天使用Google地图,Gmail收件箱或Facebook的新闻提要,那么您就知道SPA是什么。 至于单页应用程序SEO ,这是一个稍微复杂的概念。它的定义很简单:为搜索引擎search优化单个页面应用程序的过程。单页应用程序提供了令人印象深刻的加载速度,并且刷新页面的需求最少。但是,这是以全面搜索引擎优化为代价的。 为什么要选择单页应用程序? 在开发人员和用户方面都有很多好处: 使用SPA缓存数据是一件轻而易举的事,使用Facebook时您可能已经注意到了。一旦应用程序加载了所有需要的数据,它甚至可以脱机工作。 启动SPA时,您可以开发具有相同后端的智能手机应用程序。 SPA使开发人员可以检查页面元素中的所有数据并观察网络上的活动,从而使Chrome调试变得容易。 由于您无需单独编写用于在服务器上呈现页面的代码,因此开发过程更快。您无需使用任何服务器即可开始开发过程。您是从file:// URI开始的代码,仅此而已。 这些spa应用程序在浏览会话期间一次加载大多数资源。用户在页面上执行操作后,数据将更改,但无需刷新整个页面。 有什么缺点吗? 最大的缺点是单页应用SEO的潜力有限。搜索结束优化取决于单独网页上的稳定内容。另一方面,单页应用程序无需重新加载即可更新和交换数据。 您是否看过Facebook视频并尝试在Google上查找它?找到它并不容易。您会记住视频的内容,然后尝试使用一些与视频内容相关的关键字。您会获得YouTube视频的搜索结果,但找不到您想要的确切内容。这是因为内容尚未针对搜索引擎进行优化。   除了SEO挑战外,还有其他一些问题: 由于使用XSS(跨站点脚本),这些应用程序容易受到黑客的攻击,黑客可以访问客户端以部署其他脚本。   加载单个SPA时必须使用活动模式JavaScript 。如果用户手动禁用了JavaScript,则不会获得您想要的用户体验。 由于浏览器必须首先加载沉重的客户端框架,因此页面可能需要花费相当长的时间才能加载。 请记住,许多技术巨头都鼓励使用seo单页应用程序,因此大多数这些问题将在不久的将来得到解决。 正确执行SPA SEO 渲染中必须包含一些元素,这些元素必须立即在页面上可用: HTML元标记 –这些标记包括视口,元内容类型,标题标记,元描述,社交标记,副标题以及所有其他元标记。他们告诉搜索引擎内容是什么,因此可以在搜索结果中列出。 具有所有必需属性(特别是跟随和索引)的内部和外部链接。重要的是,不要使用onclick而是  HREF格式的链接。 有关图形的信息以及所有必需的元标记。 触点,标记书,标记面包屑,OG标记和所有其他微标记元素。 导航元素(尤其是菜单和链接到各节的其他块)。 页面的文本内容,其格式正确,带有副标题和短段落。 确保文本和子标题中没有代码注释非常重要。在使用ReactJS时,这是一个常见的问题,您需要避免它。 提示:有关SPA的SEO做法的一般建议  1.不要更改网址的结构 您需要一个完全干净且稳定的URL,以使链接构建实践变得容易。通过更改URL的结构,您可能会犯与其他所有内容重叠的错误。例如,所做的更改可能会破坏用户创建的书签,因此他们将无法轻松登陆您的站点。 2.所有元素都应由搜索引擎呈现 JS引擎为您提供了一个  路由组件,用于为每个页面提供单独的URL。用它! 3.速度至关重要! Google希望提供最终的用户体验,因此请注意您网站的速度。HTML返回应该快于5秒。如果您缓存页面并将其存储在CDN上,则可以减少服务器端的负载并使内容传递更快  。   4.正确的站点地图是必须的 搜索引擎使用您的站点地图来标识您在站点上提供的信息的类型,因此可以将其与用户搜索的内容放在一起。您的站点地图必须干净,快速更新且正确。 5.特别注意分页 分页不会为SEO增加任何价值。如果您决定实施它,那么它必须是正确的。页面必须具有“上一个”和“下一个” HREF链接。 Sven Lennartz给出了一个很好的提示:由于分页的主要目的是用作改进的导航,因此应该向访问者明确说明他们的位置,已经去过的地方以及下一步可以去的地方。这三个事实使用户完全了解系统如何工作以及应如何使用导航。 Sven Lennartz,《粉碎杂志》前SEO 6.不要忘记内容 始终监视服务器响应的状态。页面上有内容,所以不要忘记它。显示正确吗?预渲染可能会中断,并且页面将显示为空白。监视您的网站是否存在这些问题,并在发现它们后立即进行修复。 […]

HTTP 404错误是什么意思,以及如何正确使用它

什么是404错误 是什么导致404错误 如何检测404页面 为什么会有危险? 301重定向或404页面 您的自定义404页面 404页面示例 什么是404错误 错误404  (或“ 未找到页面 ”)–是服务器无法找到用户请求的文档时发生的标准  HTTP状态代码 。基本上,这是一个不存在或损坏的页面。 该页面如何显示: 404; 404错误; 404未找到; 错误404; 404页面不存在; 未找到错误404; 找不到HTTP 404。 是什么导致404错误 出现此http状态代码的原因有4个: 您的页面已从网站上删除; 用户输入了错误的URL地址; 页面已移动,并且重定向配置不正确; 服务器发生故障(这种情况很少发生)。 理想情况下,网站上不应存在任何返回404服务器响应的链接(或外部链接)。但是,让我们现实一点,如果该站点有超过一千个页面,就无法避免此类问题的发生。但是,当您发现一个站点的页面很少(这意味着可以手动跟踪所有损坏的页面),并且包含指向首页的“最新新闻”部分中的文章的三个断开的反向链接时,可能会有些令人惊讶。 404错误的数量大幅增加 绕过网站是一回事,搜索引擎机器人报告数十个错误,但是如果这个数字增加数百甚至数千,该怎么办?如果404页的数量超过网站上页面总数的10%,则应立即采取干预措施和解决方案。出现大量不存在的页面可能有很多原因,但是大多数原因与代码问题有关(例如,这些页面是在脚本和样式的帮助下创建的,样式在模板的代码,而不是在单独的文件中)。 机器人绕过网站上从未访问过的页面的另一个原因是由于病毒攻击(例如,在网站上放置门口页面)。即使在对其进行了预防和删除之后,机器人之后仍会继续绕过所创建的页面一段时间,这可能导致出现许多404错误。但是,借助各种工具,您可以轻松跟踪此类链接上的转化。 如何检测和跟踪断开的链接 1. Sitechecker  Sitechecker中的一次审核有助于找出网站上所有损坏的页面,并检测到链接的位置。 实时监控有助于检测您在网站上进行的最后更改期间出现的损坏页面。 此功能使我们的项目免于几次减少流量。如果您经常在网站上进行更改,最好开始监视网站的运行状况。 修复网站上的所有404错误 抓取您的网站,检测所有损坏的链接并立即修复 启动审核 2. Yandex.Metrica 要在Yandex.Metrica中跟踪断开的链接和重定向,您需要转到“访问者设置”。只需将此字符串放在计数器代码中即可: params:window.yaParams||{ }}); 另外,您应该将此JS代码放在404页上的某个位置: <script> var url = document.location.pathname + document.location.search var url_referrer = document.referrer; var […]