python 网络爬虫
httplib2的一个自动登录的脚本 例子来自httplib2文档: code.google.com/p/httplib2/wiki/Examples
从http post method的response里拿到cookie,然后之后用这个cookie与服务器交互。
#!/usr/bin/env python
import urllib
import httplib2
http = httplib2.Http()
url = 'http://www.example.com/login'
body = {'USERNAME': 'foo', 'PASSWORD': 'bar'}
headers = {'Content-type': 'application/x-www-form-urlencoded'}
response, content = http.request(url, 'POST', headers=headers, body=urllib.urlencode(body))
headers = {'Cookie': response['set-cookie']}
url = 'http://www.example.com/home'
response, content = http.request(url, 'GET', headers=headers)
数据的传递可以用wireshark捕捉分析,或者直接用firefox下的live http headers看到,也可以用linux下的GET 和POST等命令看(man GET, man POST, man lwp-request)