python的爬虫的requests
requests.request() 构造一个请求,支撑一下各方法的基础方法reqursts.get() 获取html页面的主要方法,对应于HTTP的GET
requests.head() 获取heml网页头信息的方法,对应于http的head
requests.post() 向html网页提交post请求的方法,对应于http的post
request.put() 想html网页提交put请求,对应于http的put
requests.patch() 向html网页提交局部修改请求,对应于http的patch
requests.delete() 向html网页提交删除请求,对应于http的delete
我只想发个帖涨涨分,大佬饶过
#pao48#小白自己学习的,大佬饶过,有兴趣加好友塞 最近学python学的有点恍惚 response 的场用5个属性
属性 说明
r.status_code http请求的放回状态200表示连接成功,404表示失败
r,text [:1000] http响应内容的字符串形式,即,url对应的页面内容,后面加[ ]表示前1000个字节
r,encoding 从http header中猜测的响应内容编码方式
r,apparent_encoding 从内容中分析的响应内容编码方式(北线编码方式)
r,content http响应内容的二进制形式 requests网络异常的六种
requests.ConnectionError 网路连接错误异常比如DNS查询是失败、拒绝连接等
requests.HTTPError http错误异常
requests.URLRrquired URL缺失异常
requests.TooManyRrdirects 超过最大重定向次数,产生重定向异常
requests.ConnectTimeout 连接远程服务器超时异常
requests,Timeout 请求URl超时,产生超时异常 1、params:字典或字节序列,作为参数增加到url中
代码
kv = {'key1' :'value1' , 'key2':'value2'}
r= requests.request('GET' , 'http://python123.io/ws',params = kv)
print(r.url) 1、params:字典或字节序列,作为参数增加到url中
代码
kv = {'key1' :'value1' , 'key2':'value2'}
r= requests.request('GET' , 'http://python123.io/ws',params = kv)
print(r.url) ...你还不如写博客 python最近也在学习,处于小白阶段,多谢楼主提供知识。 路过,来学习学习
页:
[1]