访问被拒绝爬虫发起抓取,httpcode返回码是403

怎么解决详细步骤 每天都是这个样子,自从网站开通以后就这样
2025-05-16 23:43:28
推荐回答(2个)
回答1:

自己写的爬虫不必理会robots.txt.
检查你的 curl 里的user agent。
一些server 会检查合格的user agent.

回答2:

是因为权限问题,你看一下你的robots.txt文件