时间:2022-09-22 20:34:13 | 浏览:542
搜索引擎优化很重要的以方面在于网站的技术基础架构,这关系着网站的可爬取性以及网站被索引所需的Web内容。技术性SEO的状况决定了你网站的状况。
例如,如果你的网站不可见、不安全或加载速度太慢,那么搜索引擎在选择在自然搜索结果中获得排名的网站时可能会跳过你的网站。技术SEO能够揭示排名不佳的原因,并提供解决问题的建议。技术性SEO问题可分为以下8个类别。
当爬虫程序爬取你的网站时,它们是否可以发现文本并有效地抓取链接?
如果爬虫遇到诸如禁止指令或代码段之类的代码无法爬网,则无法访问该页面上链接到你网站的内容。例如,如果电子商务网站使用未由爬虫抓取的链接代码链接到其产品,则不会抓取产品页面。
这种可爬取性决定所有自然搜索的表现。无法爬取就意味着没有索引,这反过来就意味着没有排名和自然搜索流量。
当爬虫抓取你的网站时,每个页面上的文本内容都需要可索引。
某些形式的代码和媒体文件使搜寻引擎看不到已爬取网页面上的内容。例如,访客可以阅读图像中嵌入的标题内的单词,但搜索引擎尚未使用文本识别。他们无法检测到图像中嵌入的单词,这会导致内容的相关性(重要的排名信号之一)丢失了,因为这些单词不可索引。
在其他情况下,索引的内容过多是因为网站的平台生成了具有多个内容相同的页面,以及多个URL。然后,搜索引擎系需要进行整理,以确定哪些页面很重要,哪些页面只是重复的内容。
这两种情况很常见,但是还有许多不同的因素会影响站点的可爬网性或可索引性。
每当用户代理(例如你的浏览器)从服务器请求网页时,它都会返回响应代码。在访问无效URL时遇到的404“找不到文件”错误代码是这些响应代码中比较知名的错误。
搜索引擎使用这些响应代码来确定是否对内容建立索引以及对哪些页面进行排名。服务器响应代码会提示搜索引擎的特定行为。例如,404代码提示引擎从其索引中删除URL。
Google在全球范围内进行的搜索超过一半是在移动设备上进行的。因此,Google会提高对移动设备友好的网站的排