
python 爬虫使用代理 ip 访问淘宝时无法登录问题解答
在使用 python 爬虫模拟访问淘宝时,使用代理 ip 后无法登录,出现 “selenium.common.exceptions.invalidcookiedomainexception: message: invalid cookie domain” 错误。
检查代码后发现,问题在于 get_ip() 函数返回的 ip 地址格式不正确。原代码使用 str() 将 ip 对象转换成字符串,但实际上它的格式应该是 `”{ip}:{port}”,其中 {ip} 和 {port} 分别为 ip 地址和端口号。
正确修改后的代码如下:
def get_ip(): with open('./ip.text', 'r', encoding='utf8') as f: ip_list = json.loads(f.read()) num = random.randint(0, len(ip_list)) str = "{0}:{1}".format(ip_list[num].get('ip'), ip_list[num].get('port')) return str
这样,get_ip() 返回的 ip 地址格式就正确了,代码就可以正常运行,使用代理 ip 登陆淘宝。
立即学习“Python免费学习笔记(深入)”;
以上就是Python 爬虫使用代理 IP 访问淘宝时无法登录,如何解决“selenium.common.exceptions.InvalidCookieDomainException”错误?的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1352054.html
微信扫一扫
支付宝扫一扫