免費論壇 繁體 | 簡體
Sclub交友聊天~加入聊天室當版主
分享
返回列表 發帖

[教學] [DG小说论坛]robots.txt文件禁止搜索引擎蜘蛛爬行规则设置

如果想要禁止搜索引擎蜘蛛爬行规则,那么在网站www根目录下建立一个后缀名为:.txt的robots文本文本;这里以Discuz论坛为例,格式代码如下所示:
本帖隱藏的內容需要回復才可以瀏覽

如果说你希望搜索引擎能够抓取到你所有的页面,可以建立一个空文本文档robots.txt 上传上去即可。
有问题欢迎咨询。

http://dg.weclub.info

没有FTP怎么做

TOP

回復 2# 达人小G


    这个是给有的=-=||

我们这些没有就只能看别人弄咯~{:12_551:}

TOP

{:12_552:}看看

TOP

還是看看下

TOP

路過看看

TOP

没ftp传毛?您的网站的robots.txt文件目前无法访问

TOP

提示: 作者被禁止或刪除 內容自動屏蔽

TOP

返回列表