robots.txt是调控搜索引擎与AI爬虫抓取行为的核心文件,直接决定网站页面收录范围与数据访问权限。多数WordPress外贸建站的站长缺乏代码基础,手动修改极易出现配置错误,进而引发收录异常、权重损耗等问题。依托Rank Math插件,无需借助FTP工具、无需专业代码能力,即可可视化快速编辑、自定义爬虫规则,精准屏蔽无效目录、限制AI爬虫采集,合理优化抓取资源。科学规范的robots.txt设置,是站点SEO优化的关键基础。下文将分步讲解详细操作方法与实用配置示例。
一、robots.txt 的重要性
搜索引擎爬虫访问网站时,会优先查找 robots.txt 文件,它包含爬虫应如何爬取网站的核心指令。大多数正规爬虫会遵守指令,但恶意爬虫、邮箱采集爬虫通常不会遵循。这类爬虫流量极低,可直接忽略。
二、如何找到 robots.txt 文件
robots.txt 位于网站根目录,在浏览器地址栏输入域名 +/robots.txt即可访问,例如:https://yourdomain.com/robots.txt。
推荐阅读:《谷歌独立站技术SEO优化之robots.txt文件的作用》
三、如何使用Rank Math插件编辑robots.txt
Rank Math SEO插件可在 WordPress 仪表盘内创建虚拟 robots.txt 文件,直接编辑即可。若网站根目录存在实体 robots.txt,需先用 FTP 客户端删除。
1、进入 robots.txt 编辑界面
进入 WordPress 仪表盘 – Rank Math SEO。

开启右上角高级模式,点击常规设置。

点击编辑 robots.txt。

免费版会显示默认规则。

PRO 版提供更高级的编辑器与测试工具。

2、为 robots.txt 添加代码
Rank Math SEO插件默认会自动添加包含网站地图的规则,可在文本框内自由添加或修改规则。免费版可直接编辑,通过下方的Robots.txt Tester验证修改;

PRO 版可直接在编辑器内修改。

点击Validate Code验证代码,或点击Revert Changes撤销修改。点击验证代码按钮后,将被带到测试者页面。往下滚动一点,会发现网站已经被添加了。然后可以选择想要测试的用户代理,然后点击测试按钮执行检查,如下所示。

3、保存修改
完成编辑后,点击Save Changes保存。
注:修改 robots.txt 需谨慎,错误设置可能导致网站无法被正常爬取索引。
推荐阅读:
