- site: 搜索特定网站的内容。
- intitle: 搜索标题中包含特定关键词的页面。
- inurl: 搜索URL中包含特定关键词的页面。
- filetype: 搜索特定文件类型的页面。
- intext: 搜索页面内容中包含特定关键词的页面。
- related: 搜索与特定网站或页面相关的内容。
- cache: 查看Google缓存中的页面副本。
- info: 获取关于特定网站的详细信息。
- define: 搜索特定词汇的定义。
- news: 搜索特定新闻来源的新闻。
实操提醒:合理运用这些高级指令,可以提高SEO工作的效率和准确性。
- site: 关键词 查找特定网站内含有关键词的页面。
- intitle: 关键词 查找标题中含有关键词的页面。
- inurl: 关键词 查找URL中含有关键词的页面。
- intext: 关键词 查找正文中含有关键词的页面。
- filetype: 文件类型 查找特定类型的文件。
- info: 网站信息,显示网站的缓存信息。
- cache: 查看网站的缓存版本。
- related: 相关网站,查找与指定网站内容相关的网站。
- link: 查看链接到特定网站的页面。
- define: 查找定义。
实操提醒:合理运用SEO高级指令,提升搜索结果的质量和精准度。
- 2023年,北京,至少20个高级SEO指令:
- noindex - 防止搜索引擎索引页面。
- nofollow - 防止搜索引擎跟踪链接。
- canonical - 指定页面作为内容的主版本。
- rel="prev" 和 rel="next" - 用于分页。
- robots.txt - 控制搜索引擎爬虫访问。
- meta name="robots" - 更细粒度的控制。
- meta name="description" - 提供页面描述。
- alt 属性 - 提供图片的替代文本。
- h1 到 h6 标题标签 - 确保内容结构化。
- schema.org 微数据 - 增强搜索引擎理解页面内容。
- X-Robots-Tag - HTTP头部指令。
- X-UA-Compatible - 浏览器兼容性。
- User-Agent - 针对不同爬虫定制响应。
- hreflang - 多语言页面支持。
- meta name="viewport" - 确保移动设备兼容性。
- noarchive - 防止页面被存档。
- nosnippet - 防止搜索结果中出现页面摘要。
- keep-alive - 保持连接,优化爬虫效率。
- meta name="googlebot" - 针对谷歌爬虫的特定指令。
啊说起来SEO高级指令,那可多了去了。说实话,我在这个行业混了10年,见过的指令简直数都数不过来。不过,得给你具体说说。
1. URL参数排除。这个指令啊,得追溯到2011年,那时候Google就推出了参数排除功能。比如,你有个电商网站,产品详情页后面跟着一堆参数,用这个指令就能告诉搜索引擎,忽略这些参数,只抓取真实的产品页面。
2. 移动端优先。这个是从2015年开始的,那时候Google宣布移动端搜索结果会优先展示移动端优化的页面。用这个指令,你就能让搜索引擎知道,你的移动端页面才是重点。
3. 数据高亮。2016年,Google提出了结构化数据标记,也就是Schema标记。这个指令能帮你告诉搜索引擎,哪些数据是重要的,比如文章的作者、发布时间啥的。
4. 快照重置。这个指令啊,得追溯到2010年左右,用来告诉搜索引擎重新抓取页面内容。有时候页面改了,但快照还没更新,用这个指令就解决问题了。
5. 机器人协议。这个指令啊,最早可以追溯到1994年,用来告诉搜索引擎哪些页面可以抓取,哪些页面不可以。比如说,你的用户登录页面,用这个指令就能让搜索引擎别去抓取。
6. 标题标签长度限制。2016年,Google宣布标题标签太长会影响搜索结果展示。用这个指令,你就能限制标题标签的长度,保证在搜索结果中显示得更好。
7. 丰富搜索。这个指令是从2014年开始的,用来告诉搜索引擎你的页面包含哪些丰富的内容,比如视频、图片啥的。
8. 地理位置。2012年左右,Google推出了地理位置搜索。用这个指令,你就能告诉搜索引擎你的页面是针对哪个地区的。
这些指令啊,都是经过时间考验的,用得好,能帮你大大提高SEO效果。我当时也没想明白,怎么这么多指令,但后来慢慢就习惯了。记得,SEO是个细活儿,得用心去研究。