robots.txt不支持的代码为()
A: Allow
B: Disallow
C: Crawl-delay
D: noindex
A: Allow
B: Disallow
C: Crawl-delay
D: noindex
举一反三
- robots.txt支持的代码为()。 A: Allow B: Disallow C: sitemap D: nofollow
- 在 robots.txt 文件中,不允许访问以“.asp”结尾的 URL 的代码是( )。 A: Allow:/*.asp$ B: Disallow:/*.asp$ C: Allow:/*.asp D: Disallow:/*.asp
- robots.txt不支持的代码为()
- 下列选项中,用于在robots.txt文件中描述搜索引擎名字的是()。 A: User-agent B: Disallow C: Allow D: accept
- 关于网络爬虫协议文件robots.txt,说法错误的是() A: 一个网站可以放多个不同robots文件 B: robots文件不可以用xml格式命名 C: disallow用来描述不希望被访问到的一个URL D: robots文件可以放在任何位置