今天看啥  ›  专栏  ›  Python入门与进阶

Python爬虫:一些常用的爬虫技巧总结

Python入门与进阶  · 公众号  ·  · 2018-08-21 13:17
用python也差不多一年多了,python应用最多的场景还是web快速开发、爬虫、自动化运维:写过简单网站、写过自动发帖脚本、写过收发邮件脚本、写过简单验证码识别脚本。爬虫在开发过程中也有很多复用的过程,这里总结一下,以后也能省些事情。1、基本抓取网页get方法import urllib2url = "http://www.baidu.com"response = urllib2.urlopen(url)print(response.read())post方法import urllibimport urllib2url = "http://abcde.com"form = {'name':'abc','password':'1234'}form_data = urllib.urlencode(form)request = urllib2.Request(url,form_data)response = urllib2.urlopen(request)print(response.read())2、使用代理IP开发爬虫过程中经常会遇到IP被封掉的情况,这时就需要用到代理IP;在urllib2包中有ProxyHandler类,通过此类可以设置代理访问网页,如下代码片段 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照