是这样的,以前有写过一个,下载CSS文件背景图片的小工具。
国内的网站都算是畅通无阻。
但是对于被墙的就不行了。
想在urllib.urlretrieve 之前加一个代理?要怎么操作。。。
而且加的代理是自己的SSH~~~是否能实现?
国内的网站都算是畅通无阻。
但是对于被墙的就不行了。
想在urllib.urlretrieve 之前加一个代理?要怎么操作。。。
而且加的代理是自己的SSH~~~是否能实现?

1 kojp OP proxies = {'http': '127.0.0.1:8282'} urllib.urlretrieve(url(....), proxies=proxies) |
2 gavingeng Mar 19, 2012 如果是使用ssh的话,可以使用socks.py来做设置 socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 7070) socket.socket = socks.socksocket 你需要到SocksiPy.zip的包,然后cp到你的py lib下就可以 |
4 kojp OP @gavingeng 亲测,有用。。(大部分网站有用。及少部分表示超时,原因不明) import urllib2,io,os,sys,socks,socket socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 8282) socket.socket = socks.socksocket #req=urllib2.Request("http://www.twitter.com") #ok req=urllib2.Request("https://www.facebook.com/") #not ok f=urllib2.urlopen(req) s=f.read() print s |
5 yanwen Mar 22, 2012 php + curl 好像也可以实现这样的功能 |
7 est Mar 22, 2012 直接环境变量 export http_proxy=x.x.x.x:8000 |