python爬虫在爬B站网页时出现403错误,已经添加了ua还是出错怎么办?

发布网友 发布时间:2022-04-23 09:02

我来回答

1个回答

热心网友 时间:2022-05-02 16:50

403是禁止访问,就是服务器不让你访问他的网站。
爬B站需要添加虚拟的浏览器信息,让服务器以为你是真人而不是解析器。

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com