贡献者Joe Sinkwitz表示,没有负面的优化证据。
你所能做的就是采取措施减少成为受害者的可能性。
以下是如何减少攻击媒介并保护您的网站。
在之前的文章中,我们讨论了什么是负面优化,以及如何确定给你是否真的被负面优化所击中。
随着基础知识的出现,现在是时候看看如何保护您的网站免受负面优化(优化)活动的影响。
首先,我有一些坏消息:没有黑客攻击这样的事情。
并且没有负面的优化证明!你可以合理地采取行动,通过减少攻击向量来减少成为受害者的可能性。
这样,任何想要造成伤害的人都必须比对普通网站更加复杂并付出更大的努力。
在我们的负面优化系列的这一部分中,我们将优化分为三个方面:内容,链接和用户信号,并专注于保护每个,以及您的网站整体,从成为负面优化的受害者。
内容和基础设施托管。
您的主人可以做些什么来帮助您摆脱困境?实际上,相当多。
我辩论过包括托管作为用户信号向量,但是这个特定的推荐还有另一个关键因素:声誉。
如果您要解决本文中所有问题的百分之百,但您恰好在一个共享IP上与十几个其他域标记为分发恶意软件或被电子邮件垃圾邮件检测服务阻止或受到手动链接操作的影响来自谷歌,你的时间很糟糕。
您至少会希望确保为您关注的域拥有专用IP,并且理想情况下,将该站点放在其自己的专用服务器上。
不共享托管服务器的另一个好处是什么?它试图执行负面优化可以使用它变得少一个攻击向量。
他们无法通过同一主机上安全性较低的域访问您的主机,这使您更安全一些。
CMS考虑因素。
并非所有内容管理系统(CMS)都是平等的。
当您尝试创建单个页面时,某些会自动生成常规,存档和单独的图像页面。
有些人会自动允许对帖子进行dofollow评论,这是对垃圾邮件的公开邀请。
由于世界上大多数网站都在WordPress上运行,因此禁用评论,向标记页面添加无索引,作者归档页面和类别页面对我来说都是有意义的。
有些人不同意,但我的重点是尝试仅对高价值页面进行索引和排名,标签,存档和类别页面的障碍很少被清除。
对于某些内容管理系统,重要的是确保使用适当的规范化来防止由于分页和其他查询字符串无意义而导致重复内容被索引。
robots.txt的。
我发现robots.txt操纵是一把双刃剑。
这不是因为找到可能导致整个域被去索引的错误,而且因为爬行规则过于严格时会发生什么。
考虑到Google如何处理域的固有权限以及URL中使用的关键字,可以对URL字符串中包含不良短语的页面进行排名。
例如:exampledomain.com/directory/ undesirablekeywordphrase由于robot.txt阻止Google实际抓取网页,因此Google必须相信该网页可能“好”(或根本不存在),然后(通常)对其进行排名。
这比其他行业更容易困扰大型媒体网站。
对于我们其他人来说,最大的风险降低之一是禁止搜索页面被抓取和编入索引。
在不知道您使用哪个CMS的情况下,这里有一些通用建议供您选择:禁止:/搜索/不允许:/ *?s =不允许:/ *?q =正确的robots.txt设置不仅仅是为了将劣质页面保留在索引之外。
要微调您的抓取预算,告诉搜索引擎不要抓取预览页面也很重要 – 这可以确保抓取机器人不会浪费时间陷入蜘蛛陷阱。
在WordPress中这样做相对容易,因为这些是这些页面的典型结构:禁止:*&preview =不允许:*?p =不允许:*&p =刮。
不,我不打算建议你采取立场来抓取内容作为保护自己的手段; 恰恰相反。
您需要主动使用内容保护服务,以确保未经您的授权,您的图像和书写不会在网络上的其他地方使用。
虽然谷歌现在更好地确定哪个网站是最初的来源,但使用权威域作为寄生主机仍然存在问题。
攻击者有目的地通过嗅探他们的站点地图来寻求持续抓取目标域。
然后,攻击者会在您推送内容的几秒钟内将您上传的任何新内容发布到寄生主机上。
使用Copyscape或Plagium等服务查找这些内容窃贼。
如果他们成功窃取您的内容,您可能需要通过移除请求联系托管公司或发出DMCA订单。
链接不好通过用户生成的内容(UGC)的出站链接。
正如上面的CMS部分所述,我不喜欢公开评论,因为他们被滥用。
但是其他UGC来源呢?如果您在网站上添加社区/论坛部分,成员可以在其中进行互动,我建议您执行以下四项操作之一:在所有外部链接上应用nofollow属性。
强制所有外部链接通过内部页面重定向以剥离出站链接权益。
Noindex所有主题。
审核所有外部链接。
注入的出站链接。
这是一个比较棘手的问题,因为根据定义,你真的是被动的。
但是,您应该经常监控您的Google Search Console,查看您网站上未找到的出站链接。
检查您网站上注入的出站链接的另一种方法是使用一致的抓取脚本与多个用户代理(Google而不是Google)来确定是否存在不应存在的任何链接或内容。
这基本上是通过反向工程隐形软件来尝试去除注入的问题。
要执行此操作,请在Chrome或Firefox中设置抓取代理,以手动或使用用户代理切换插件来模仿Googlebot。
如果您要以Googlebot和普通用户的身份查看您网站上的网页,您可以直观地确定某些链接是否仅对Googlebot可见,从而有效地删除注入的链接。
入站链接。
来自您自己以外的网站的入站链接比您的内部链接更容易成为您的问题。
为什么?因为你无法控制其他人的行为。
您可以采取一些措施来保护自己免受错误的入站链接:获得很多链接。
始终努力获得尽可能多的高质量入站链接,并使高质量链接占您整体链接数的很大比例。
我知道这听起来很陈腐,但确实如此,如果你一直专注于制作最好的内容,你将不断获得良好的链接。
如果你只有一些不错的链接,并且有人对你进行负面优化决定指向你的几十万个不良链接,谷歌几乎肯定会对你不利。
通过提高质量链接来进行攻击越不经济,就越好。
观看您的锚文本。
一个简单的过滤器过滤器仍然是锚文本的过度优化,所以即使你吸引了很多链接,也一定不要依赖一组有限的锚文本短语。
如果您确实看到您的锚文本开始过于集中,请寻找其他负面优化攻击的迹象。
指向很多相同短语的锚点是开始制作负面广告系列的更简单,更便宜的方法之一。
否认。
我已经记录在案,因为我不喜欢这种拒绝工具,因为我觉得这表明谷歌内部存在一种直到被证实无罪的恶意环境。
但由于它确实存在,因此您需要根据风险评分解决方案主动拒绝。
请记住,这不仅仅是您需要解决的海外假冒色情和赌博链接,还包括那些似乎是任何微妙攻击的一部分。
用户信号这里只有少数因素可以发挥作用,遗憾的是,你对其中一个因素的影响不大。
指标。
点击率(CTR),网站停留时间和退回指标一直被谷歌视为更值得信赖的信号。
在Google Search Console和Google Analytics中了解您的基线统计信息非常重要,因为很容易雇用僵尸网络和几千名微型工作人员点击结果并在一秒后反弹。
微型工作人员还可以提出他们访问的域不是高质量站点的建议。
你真正希望做的就是注意奇怪的趋势,然后尝试补偿; 如果它是一个明显的僵尸网络,请在服务器或内容分发网络(CDN)级别阻止它。
但是,如果它是一群受激励的用户,那么您真正希望做的就是像处理您的入站链接一样处理这种情况,目的是提供令人满意的体验并获取您知道将抵消糟糕指标的流量。
速度。
为防止对您使用可能较慢的站点,请不要在不稳定的设置上托管它。
如果可能,请考虑使用CDN保护自己免受DDoS(服务)攻击,并确保您的服务器环境是最新的,以防止零日问题,如用户数据报协议(UDP)放大,Slowloris和其他攻击。
除此之外,您还需要通过在服务器级别锁定图像的内联链接,删除任何未使用的CMS插件并建立正确的缓存来调查个人可以从中获取带宽的任何方式。
恶意软件。
恶意软件作为用户信号?当然,尽管你可以说这更像是一个内容问题。
没有任何东西会导致糟糕的体验,就像通过一些注入的JavaScript自动重定向到骗局网站一样。
为了防止出现这种情况,定期在您网站的服务器上运行恶意软件扫描程序以查找和删除恶意软件是健康的。
你越早发现问题就越好。
值得庆幸的是,谷歌在解决已知的恶意软件问题时非常宽容,但是他们并没有抓住所有这些问题,并且当他们错过用户数据时会将其视为正常使用情况。