[急招] 找程序员帮忙做一个小爬虫软件,自动收集几个网站上的信息,报酬好商量! - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
albusyu
V2EX    外包

[急招] 找程序员帮忙做一个小爬虫软件,自动收集几个网站上的信息,报酬好商量!

  •  
  •   albusyu 2013-06-19 11:42:14 +08:00 2666 次点击
    这是一个创建于 4579 天前的主题,其中的信息可能已经有所发展或是发生改变。
    第一次在V2上发帖..我在帮一个做科技媒体的朋友招人做一个软件,主要的作用是自动爬一些行业内的网站(包括Alexa、几个科技媒体)的信息,然后整合出报告来(比如:新产品上线、Alexa排名上升快、刚获得投资)。他需要这些信息作为平时工作的一个信息来源。详细的需求可以我们详聊来确定,完成方法与展现形式等也最好是我们详聊,非专业人士所以不太会写需求文档.. 最好人是在上海啦,这样我们可以见面聊。

    希望能够尽快有人能够帮忙,报酬好商量,确定好需求之后我们来确定报价就行。希望能够在几周内开发完成。有兴趣的人请联系:albus.yu#gmail.com,邮件里最好能注明一下自己的资历、曾做过的项目等。多谢!!也麻烦大家转给一下身边的有空来赚点零花钱的朋友,谢谢!
    13 条回复    1970-01-01 08:00:00 +08:00
    ahxxm
        1
    ahxxm  
       2013-06-19 12:14:44 +08:00
    才几个科技媒体,rss订阅加个分组就好了啊。信息来源的话,不如(所有媒体的)整站一起抓,存到本地随时搜索关键词。。
    revir
        2
    revir  
       2013-06-29 17:04:55 +08:00
    您好, 我目前正在做一个爬虫, 改一改网站模板即可达到您的要求, 详细信息我发邮件给您!
    luxeco
        3
    luxeco  
       2013-07-03 19:40:42 +08:00
    @revir 麻烦给我也发一个吧,也有这方面的需求。 [email protected] 谢谢!
    revir
        4
    revir  
       2013-07-04 21:35:25 +08:00   1
    @luxeco 好的, 已发, 注意查收。
    yearsaaaa
        5
    yearsaaaa  
       2013-07-05 09:26:06 +08:00
    @revir 可以发一份给我吗,我没有需求只是想参观一下
    revir
        6
    revir  
       2013-07-06 10:03:15 +08:00
    @yearsaaaa
    呃。。。
    colorday
        7
    div class="sep3"> colorday  
       2013-07-06 10:07:42 +08:00
    @revir 麻烦给我也发一份 有需求 谢谢 colorday # hotmail.com
    xmbaozi
        8
    xmbaozi  
       2013-07-06 10:10:57 +08:00 via Android
    @revir 同求,xmbaozi# qq.com 谢谢
    cosmo
        9
    cosmo  
       2013-07-06 13:49:44 +08:00
    @revir
    烦请发一份,谢谢!
    amouage # qq.com
    yearsaaaa
        10
    yearsaaaa  
       2013-07-06 14:48:37 +08:00
    @revir 忘了发邮箱了,[email protected]
    1005gel
        11
    1005gel  
       2013-07-06 21:12:47 +08:00
    同想参观 麻烦了 1005gel#gmail.com @revir
    sky21
        12
    sky21  
       2013-07-09 13:59:26 +08:00
    好像有很多现成爬虫软件吧 例如ET http://www.zzcity.net
    revir
        13
    revir  
       2013-07-10 22:52:22 +08:00
    @luxeco
    @yearsaaaa
    @1005gel
    @cosmo
    @xmbaozi
    @colorday
    楼上的各位, 我已给你们发了邮件, 但是我不能将软件发给你们哦, 这是我公司的产品, 我还想在这里多混几年呢! LOL

    有需要的话可以联系我, 其实现在有很多开源的爬虫, 比如, 一些简单的需求可以用scrapy定制, scrapy是一个开源的python爬虫, 使用起来还是很简单的。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     961 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 23ms UTC 18:15 PVG 02:15 LAX 10:15 JFK 13:15
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86