当前位置:首页 >时尚 >如何科学的抢红包:写个程序抢红包 正巧前两天学会了Python

如何科学的抢红包:写个程序抢红包 正巧前两天学会了Python

2024-06-30 19:59:58 [百科] 来源:避面尹邢网

如何科学的何科红包抢红包:写个程序抢红包

移动开发 背景大家都懂的,要过年了,学的序抢正是抢红红包满天飞的日子。正巧前两天学会了Python,包写比较亢奋,个程就顺便研究了研究微博红包的何科红包爬取,为什么是学的序抢微博红包而不是支付宝红包呢,因为我只懂Web,抢红如果有精力的包写话之后可能也会研究研究打地鼠算法吧。

背景大家都懂的个程,要过年了,何科红包正是学的序抢红包满天飞的日子。正巧前两天学会了Python,抢红比较亢奋,包写就顺便研究了研究微博红包的个程爬取,为什么是微博红包而不是支付宝红包呢,因为我只懂Web,如果有精力的话之后可能也会研究研究打地鼠算法吧。

因为本人是初学Python,这个程序也是学了Python后写的第三个程序,所以代码中有啥坑爹的地方请不要当面戳穿,重点是思路,嗯,如果思路中有啥坑爹的的地方也请不要当面戳穿,你看IE都有脸设置自己为默认浏览器,我写篇渣文得瑟得瑟也是可以接受的对吧……

如何科学的抢红包:写个程序抢红包 正巧前两天学会了Python

我用的是Python 2.7,据说Python 2和Python 3差别挺大的,比我还菜的小伙伴请注意。

如何科学的抢红包:写个程序抢红包 正巧前两天学会了Python

0×01 思路整理

如何科学的抢红包:写个程序抢红包 正巧前两天学会了Python

懒得文字叙述了,画了张草图,大家应该可以看懂。

首先老规矩,先引入一坨不知道有啥用但又不能没有的库:

  1. import re 
  2. import urllib 
  3. import urllib2 
  4. import cookielib 
  5. import base64  
  6. import binascii  
  7. import os 
  8. import json 
  9. import sys  
  10. import cPickle as p 
  11. import rsa 

然后顺便声明一些其它变量,以后需要用到:

  1. reload(sys) 
  2. sys.setdefaultencoding('utf-8&') #将字符编码置为utf-8 
  3. luckyList=[] #红包列表 
  4. lowest=10 #能忍受红包领奖记录最低为多少 

这里用到了一个rsa库,Python默认是不自带的,需要安装一下:https://pypi.python.org/pypi/rsa/

下载下来后运行setpy.py install安装,然后就可以开始我们的开发步骤了。

0×02 微博登陆

抢红包的动作一定要登陆后才可以进行的,所以一定要有登录的功能,登录不是关键,关键是cookie的保存,这里需要cookielib的配合。

  1. cj = cookielib.CookieJar() 
  2. opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) 
  3. urllib2.install_opener(opener) 

这样凡是使用opener进行的网络操作都会对处理cookie的状态,虽然我也不太懂但是感觉好神奇的样子。

接下来需要封装两个模块,一个是获取数据模块,用来单纯地GET数据,另一个用来POST数据,其实只是多了几个参数,完全可以合并成一个函数,但是我又懒又笨,不想也不会改代码。

  1. def getData(url) : 
  2.         try: 
  3.                 req  = urllib2.Request(url) 
  4.                 result = opener.open(req) 
  5.                 text = result.read() 
  6.                 text=text.decode("utf-8").encode("gbk",'ignore') 
  7.                 return text 
  8.         except Exception, e: 
  9.                 print u'请求异常,url:'+url 
  10.                 print e 
  11.    
  12. def postData(url,data,header) : 
  13.         try: 
  14.                 data = urllib.urlencode(data)  
  15.                 req  = urllib2.Request(url,data,header) 
  16.                 result = opener.open(req) 
  17.                 text = result.read() 
  18.                 return text 
  19.         except Exception, e: 
  20.                 print u'请求异常,url:'+url 

有了这两个模块我们就可以GET和POST数据了,其中getData中之所以decode然后又encode啥啥的,是因为在Win7下我调试输出的时候总乱码,所以加了些编码处理,这些都不是重点,下面的login函数才是微博登陆的核心。

  1. def login(nick , pwd) : 
  2.         print u"----------登录中----------" 
  3.         print  "----------......----------" 
  4.         prelogin_url = 'http://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=%s&rsakt=mod&checkpin=1&client=ssologin.js(v1.4.15)&_=1400822309846' % nick 
  5.         preLogin = getData(prelogin_url) 
  6.         servertime = re.findall('"servertime":(.+?),' , preLogin)[0] 
  7.         pubkey = re.findall('"pubkey":"(.+?)",' , preLogin)[0] 
  8.         rsakv = re.findall('"rsakv":"(.+?)",' , preLogin)[0] 
  9.         nonce = re.findall('"nonce":"(.+?)",' , preLogin)[0] 
  10.         #print bytearray('xxxx','utf-8') 
  11.         su  = base64.b64encode(urllib.quote(nick)) 
  12.         rsaPublickey= int(pubkey,16) 
  13.         key = rsa.PublicKey(rsaPublickey,65537) 
  14.         message = str(servertime) +'\t' + str(nonce) + '\n' + str(pwd) 
  15.         sp = binascii.b2a_hex(rsa.encrypt(message,key)) 
  16.         header = { 'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)'} 
  17.         param = {  
  18.                 'entry': 'weibo', 
  19.                 'gateway': '1', 
  20.                 'from': '', 
  21.                 'savestate': '7', 
  22.                 'userticket': '1', 
  23.                 'ssosimplelogin': '1', 
  24.                 'vsnf': '1', 
  25.                 'vsnval': '', 
  26.                 'su': su, 
  27.                 'service': 'miniblog', 
  28.                 'servertime': servertime, 
  29.                 'nonce': nonce, 
  30.                 'pwencode': 'rsa2', 
  31.                 'sp': sp, 
  32.                 'encoding': 'UTF-8', 
  33.                 'url': 'http://weibo.com/ajaxlogin.php?framelogin=1&callback=parent.sinaSSOController.feedBackUrlCallBack', 
  34.                 'returntype': 'META', 
  35.                 'rsakv' : rsakv, 
  36.                 } 
  37.         s = postData('http://login.sina.com.cn/sso/login.php?client=ssologin.js(v1.4.15)',param,header) 
  38.    
  39.         try: 
  40.                 urll = re.findall("location.replace\(\'(.+?)\'\);" , s)[0] 
  41.                 login=getData(urll) 
  42.                 print u"---------登录成功!-------" 
  43.                 print  "----------......----------" 
  44.         except Exception, e: 
  45.                 print u"---------登录失败!-------" 
  46.                 print  "----------......----------" 
  47.                 exit(0) 

这里面的参数啊加密算法啊都是从网上抄的,我也不是很懂,大概就是先请求个时间戳和公钥再rsa加密一下最后处理处理提交到新浪登陆接口,从新浪登录成功之后会返回一个微博的地址,需要请求一下,才能让登录状态彻底生效,登录成功后,后面的请求就会带上当前用户的cookie。

成功登录微博后,我已迫不及待地想找个红包先试一下子,当然首先是要在浏览器里试的。点啊点啊点啊点的,终于找到了一个带抢红包按钮的页面了,F12召唤出调试器,看看数据包是咋请求的。

可以看到请求的地址是http://huodong.weibo.com/aj_hongbao/getlucky,主要参数有两个,一个是ouid,就是红包id,在URL中可以看到,另一个share参数决定是否分享到微博,还有个_t不知道是干啥用的。

好,现在理论上向这个url提交者三个参数,就可以完成一次红包的抽取,但是,当你真正提交参数的时候,就会发现服务器会很神奇地给你返回这么个串:

  1.      
  2. { "code":303403,"msg":"抱歉,你没有权限访问此页面","data":[]} 

这个时候不要惊慌,根据我多年Web开发经验,对方的程序员应该是判断referer了,很简单,把请求过去的header全给抄过去。

  1. def getLucky(id): #抽奖程序 
  2.         print u"---抽红包中:"+str(id)+"---" 
  3.         print  "----------......----------" 
  4.    
  5.         if checkValue(id)==False: #不符合条件,这个是后面的函数 
  6.                 return 
  7.         luckyUrl="http://huodong.weibo.com/aj_hongbao/getlucky" 
  8.         param={  
  9.                 'ouid':id, 
  10.                 'share':0, 
  11.                 '_t':0 
  12.                 } 
  13.    
  14.         header= {  
  15.                 'Cache-Control':'no-cache', 
  16.                 'Content-Type':'application/x-www-form-urlencoded', 
  17.                 'Origin':'http://huodong.weibo.com', 
  18.                 'Pragma':'no-cache', 
  19.                 'Referer':'http://huodong.weibo.com/hongbao/'+str(id), 
  20.                 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/33.0.1750.146 BIDUBrowser/6.x Safari/537.36', 
  21.                 'X-Requested-With':'XMLHttpRequest' 
  22.                 } 
  23.         res = postData(luckyUrl,param,header) 

这样的话理论上就没啥问题了,事实上其实也没啥问题。抽奖动作完成后我们是需要判断状态的,返回的res是一个json串,其中code为100000时为成功,为90114时是今天抽奖达到上限,其他值同样是失败,所以:

  1. hbRes=json.loads(res) 
  2. if hbRes["code"]=='901114': #今天红包已经抢完 
  3.         print u"---------已达上限---------" 
  4.         print  "----------......----------" 
  5.         log('lucky',str(id)+'---'+str(hbRes["code"])+'---'+hbRes["data"]["title"]) 
  6.         exit(0) 
  7. elif hbRes["code"]=='100000':#成功 
  8.         print u"---------恭喜发财---------" 
  9.         print  "----------......----------" 
  10.         log('success',str(id)+'---'+res) 
  11.         exit(0) 
  12.    
  13. if hbRes["data"] and hbRes["data"]["title"]: 
  14.         print hbRes["data"]["title"] 
  15.         print  "----------......----------" 
  16.         log('lucky',str(id)+'---'+str(hbRes["code"])+'---'+hbRes["data"]["title"]) 
  17. else: 
  18.         print u"---------请求错误---------" 
  19.         print  "----------......----------" 
  20.         log('lucky',str(id)+'---'+res) 

其中log也是我自定义的一个函数,用来记录日志用的:

  1. def log(type,text): 
  2.         fp = open(type+'.txt','a') 
  3.         fp.write(text) 
  4.         fp.write('\r\n') 
  5.         fp.close() 

0×04 爬取红包列表

单个红包领取动作测试成功后,就是我们程序的核心大招模块了——爬取红包列表,爬取红包列表的方法和入口应该有不少,比如各种微博搜索关键字啥啥的,不过我这里用最简单的方法:爬取红包榜单。

在红包活动的首页(http://huodong.weibo.com/hongbao)通过各种点更多,全部可以观察到,虽然列表连接很多,但可以归纳为两类(最有钱红包榜除外):主题和排行榜。

继续召唤F12,分析这两种页面的格式,首先是主题形式的列表,比如:http://huodong.weibo.com/hongbao/special_quyu

可以看到红包的信息都是在一个类名为info_wrap的div中,那么我们只要活动这个页面的源码,然后把infowrap全抓出来,再简单处理下就可以得到这个页面的红包列表了,这里需要用到一些正则:

  1. def getThemeList(url,p):#主题红包 
  2.         print  u"---------第"+str(p)+"页---------" 
  3.         print  "----------......----------" 
  4.         html=getData(url+'?p='+str(p)) 
  5.         pWrap=re.compile(r'(.+?)',re.DOTALL) #h获取所有info_wrap的正则 
  6.         pInfo=re.compile(r'.+(.+).+(.+).+(.+).+href="(.+)" class="btn"',re.DOTALL) #获取红包信息 
  7.         List=pWrap.findall(html,re.DOTALL) 
  8.         n=len(List) 
  9.         if n==0: 
  10.                 return 
  11.         for i in range(n): #遍历所有info_wrap的div 
  12.                 s=pInfo.match(List[i]) #取得红包信息 
  13.                 info=list(s.groups(0)) 
  14.                 info[0]=float(info[0].replace('\xcd\xf2','0000')) #现金,万->0000 
  15.                 try: 
  16.                         info[1]=float(info[1].replace('\xcd\xf2','0000')) #礼品价值 
  17.                 except Exception, e: 
  18.                         info[1]=float(info[1].replace('\xd2\xda','00000000')) #礼品价值 
  19.                 info[2]=float(info[2].replace('\xcd\xf2','0000')) #已发送 
  20.                 if info[2]==0: 
  21.                         info[2]=1 #防止除数为0 
  22.                 if info[1]==0: 
  23.                         info[1]=1 #防止除数为0 
  24.                 info.append(info[0]/(info[2]+info[1])) #红包价值,现金/(领取人数+奖品价值) 
  25.                 # if info[0]/(info[2]+info[1])>100: 
  26.                 #  print url 
  27.                 luckyList.append(info) 
  28.         if 'class="page"' in html:#存在下一页 
  29.                 p=p+1 
  30.                 getThemeList(url,p) #递归调用自己爬取下一页 

话说正则好难,学了好久才写出来这么两句。还有这里的info中append进去了一个info[4],是我想的一个大概判断红包价值的算法,为什么要这么做呢,因为红包很多但是我们只能抽四次啊,在茫茫包海中,我们必须要找到最有价值的红包然后抽丫的,这里有三个数据可供参考:现金价值、礼品价值和领取人数,很显然如果现金很少领取人数很多或者奖品价值超高(有的甚至丧心病狂以亿为单位),那么就是不值得去抢的,所以我憋了半天终于憋出来一个衡量红包权重的算法:红包价值=现金/(领取人数+奖品价值)。

排行榜页面原理一样,找到关键的标签,正则匹配出来。

 

  1. def getTopList(url,daily,p):#排行榜红包 
  2.         print  u"---------第"+str(p)+"页---------" 
  3.         print  "----------......----------" 
  4.         html=getData(url+'?daily='+str(daily)+'&p='+str(p)) 
  5.         pWrap=re.compile(r'(.+?)',re.DOTALL) #h获取所有list_info的正则 
  6.         pInfo=re.compile(r'.+(.+).+(.+).+(.+).+href="(.+)" class="btn rob_btn"',re.DOTALL) #获取红包信息 
  7.         List=pWrap.findall(html,re.DOTALL) 
  8.         n=len(List) 
  9.         if n==0: 
  10.                 return 
  11.         for i in range(n): #遍历所有info_wrap的div 
  12.                 s=pInfo.match(List[i]) #取得红包信息 
  13.                 topinfo=list(s.groups(0)) 
  14.                 info=list(topinfo) 
  15.                 info[0]=topinfo[1].replace('\xd4\xaa','') #元->'' 
  16.                 info[0]=float(info[0].replace('\xcd\xf2','0000')) #现金,万->0000 
  17.                 info[1]=topinfo[2].replace('\xd4\xaa','') #元->'' 
  18.                 try: 
  19.                         info[1]=float(info[1].replace('\xcd\xf2','0000')) #礼品价值 
  20.                 except Exception, e: 
  21.                         info[1]=float(info[1].replace('\xd2\xda','00000000')) #礼品价值 
  22.                 info[2]=topinfo[0].replace('\xb8\xf6','') #个->'' 
  23.                 info[2]=float(info[2].replace('\xcd\xf2','0000')) #已发送 
  24.                 if info[2]==0: 
  25.                         info[2]=1 #防止除数为0 
  26.                 if info[1]==0: 
  27.                         info[1]=1 #防止除数为0 
  28.                 info.append(info[0]/(info[2]+info[1])) #红包价值,现金/(领取人数+礼品价值) 
  29.                 # if info[0]/(info[2]+info[1])>100: 
  30.                         #  print url 
  31.                 luckyList.append(info) 
  32.         if 'class="page"' in html:#存在下一页 
  33.                 p=p+1 
  34.                 getTopList(url,daily,p) #递归调用自己爬取下一页 

好,现在两中专题页的列表我们都可以顺利爬取了,接下来就是要得到列表的列表,也就是所有这些列表地址的集合,然后挨个去抓:

  1. def getList(): 
  2.         print u"---------查找目标---------" 
  3.         print  "----------......----------" 
  4.    
  5.         themeUrl={  #主题列表 
  6.                 'theme':'http://huodong.weibo.com/hongbao/theme', 
  7.                 'pinpai':'http://huodong.weibo.com/hongbao/special_pinpai', 
  8.                 'daka':'http://huodong.weibo.com/hongbao/special_daka', 
  9.                 'youxuan':'http://huodong.weibo.com/hongbao/special_youxuan', 
  10.                 'qiye':'http://huodong.weibo.com/hongbao/special_qiye', 
  11.                 'quyu':'http://huodong.weibo.com/hongbao/special_quyu', 
  12.                 'meiti':'http://huodong.weibo.com/hongbao/special_meiti', 
  13.                 'hezuo':'http://huodong.weibo.com/hongbao/special_hezuo' 
  14.                 } 
  15.    
  16.         topUrl={  #排行榜列表 
  17.                 'mostmoney':'http://huodong.weibo.com/hongbao/top_mostmoney', 
  18.                 'mostsend':'http://huodong.weibo.com/hongbao/top_mostsend', 
  19.                 'mostsenddaka':'http://huodong.weibo.com/hongbao/top_mostsenddaka', 
  20.                 'mostsendpartner':'http://huodong.weibo.com/hongbao/top_mostsendpartner', 
  21.                 'cate':'http://huodong.weibo.com/hongbao/cate?type=', 
  22.                 'clothes':'http://huodong.weibo.com/hongbao/cate?type=clothes', 
  23.                 'beauty':'http://huodong.weibo.com/hongbao/cate?type=beauty', 
  24.                 'fast':'http://huodong.weibo.com/hongbao/cate?type=fast', 
  25.                 'life':'http://huodong.weibo.com/hongbao/cate?type=life', 
  26.                 'digital':'http://huodong.weibo.com/hongbao/cate?type=digital', 
  27.                 'other':'http://huodong.weibo.com/hongbao/cate?type=other' 
  28.                 } 
  29.    
  30.         for (theme,url) in themeUrl.items(): 
  31.                 print "----------"+theme+"----------" 
  32.                 print  url 
  33.                 print  "----------......----------" 
  34.                 getThemeList(url,1) 
  35.    
  36.         for (top,url) in topUrl.items(): 
  37.                 print "----------"+top+"----------" 
  38.                 print  url 
  39.                 print  "----------......----------" 
  40.                 getTopList(url,0,1)  
  41.                 getTopList(url,1,1) 

0×05 判断红包可用性

这个是比较简单的,首先在源码里搜一下关键字看看有没有抢红包按钮,然后再到领取排行里面看看最高纪录是多少,要是最多的才领那么几块钱的话就再见吧……

其中查看领取记录的地址为http://huodong.weibo.com/aj_hongbao/detailmore?page=1&type=2&_t=0&__rnd=1423744829265&uid=红包id

  1. def checkValue(id): 
  2.         infoUrl='http://huodong.weibo.com/hongbao/'+str(id) 
  3.         html=getData(infoUrl) 
  4.    
  5.         if 'action-type="lottery"' in  html or True: #存在抢红包按钮 
  6.                 logUrl="http://huodong.weibo.com/aj_hongbao/detailmore?page=1&type=2&_t=0&__rnd=1423744829265&uid="+id #查看排行榜数据 
  7.                 param={ } 
  8.                 header= {  
  9.                         'Cache-Control':'no-cache', 
  10.                         'Content-Type':'application/x-www-form-urlencoded', 
  11.                         'Pragma':'no-cache', 
  12.                         'Referer':'http://huodong.weibo.com/hongbao/detail?uid='+str(id), 
  13.                         'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/33.0.1750.146 BIDUBrowser/6.x Safari/537.36', 
  14.                         'X-Requested-With':'XMLHttpRequest' 
  15.                         } 
  16.                 res = postData(logUrl,param,header) 
  17.                 pMoney=re.compile(r'< span class="money">(\d+?.+?)\xd4\xaa< /span>',re.DOTALL) #h获取所有list_info的正则 
  18.                 luckyLog=pMoney.findall(html,re.DOTALL) 
  19.    
  20.                 if len(luckyLog)==0: 
  21.                         maxMoney=0 
  22.                 else: 
  23.                         maxMoney=float(luckyLog[0]) 
  24.    
  25.                 if maxMoney< lowest: #记录中最大红包小于设定值 
  26.                         return False 
  27.         else: 
  28.                 print u"---------手慢一步---------" 
  29.                 print  "----------......----------" 
  30.                 return False 
  31.         return True 

0×06 收尾工作

主要的模块都已经搞定,现在需要将所有的步骤串联起来:

  1. def start(username,password,low,fromFile): 
  2.         gl=False 
  3.         lowest=low 
  4.         login(username , password) 
  5.         if fromfile=='y': 
  6.                 if os.path.exists('luckyList.txt'): 
  7.                         try: 
  8.                                 f = file('luckyList.txt') 
  9.                                 newList = []   
  10.                                 newList = p.load(f) 
  11.                                 print u'---------装载列表---------' 
  12.                                 print  "----------......----------" 
  13.                         except Exception, e: 
  14.                                 print u'解析本地列表失败,抓取在线页面。' 
  15.                                 print  "----------......----------" 
  16.                                 gl=True 
  17.                 else: 
  18.                         print u'本地不存在luckyList.txt,抓取在线页面。' 
  19.                         print  "----------......----------" 
  20.                         gl=True 
  21.         if gl==True: 
  22.                 getList() 
  23.                 from operator import itemgetter 
  24.                 newList=sorted(luckyList, key=itemgetter(4),reverse=True) 
  25.                 f = file('luckyList.txt', 'w')   
  26.                 p.dump(newList, f) #把抓到的列表存到文件里,下次就不用再抓了 
  27.                 f.close()  
  28.    
  29.         for lucky in newList: 
  30.                 if not 'http://huodong.weibo.com' in lucky[3]: #不是红包 
  31.                         continue 
  32.                 print lucky[3] 
  33.                 id=re.findall(r'(\w*[0-9]+)\w*',lucky[3]) 
  34.                 getLucky(id[0]) 

因为每次测试的时候都要重复爬取红包列表,很麻烦,所以加了段将完整列表dump到文件的代码,这样以后就可以读本地列表然后抢红包了,构造完start模块后,写一个入口程序把微博账号传过去就OK了:

  1. if __name__ == "__main__":   
  2.         print u"------------------微博红包助手------------------" 
  3.         print  "---------------------v0.0.1---------------------" 
  4.         print  u"-------------by @无所不能的魂大人----------------" 
  5.         print  "-------------------------------------------------" 
  6.    
  7.         try: 
  8.                 uname=raw_input(u"请输入微博账号: ".decode('utf-8').encode('gbk')) 
  9.                 pwd=raw_input(u"请输入微博密码: ".decode('utf-8').encode('gbk')) 
  10.                 low=int(raw_input(u"红包领取最高现金大于n时参与: ".decode('utf-8').encode('gbk'))) 
  11.                 fromfile=raw_input(u"是否使用luckyList.txt中红包列表:(y/n) ".decode('utf-8').encode('gbk')) 
  12.         except Exception, e: 
  13.                 print u"参数错误" 
  14.                 print  "----------......----------" 
  15.                 print e 
  16.                 exit(0) 
  17.    
  18.         print u"---------程序开始---------" 
  19.         print  "----------......----------" 
  20.         start(uname,pwd,low,fromfile) 
  21.         print u"---------程序结束---------" 
  22.         print  "----------......----------" 
  23.         os.system('pause') 

0×07 走你!

基本的爬虫骨架已经基本可以完成了,其实这个爬虫的很多细节上还是有很大发挥空间的,比如改装成支持批量登录的,比如优化下红包价值算法,代码本身应该也有很多地方可以优化的,不过以我的能力估计也就能搞到这了。

最后程序的结果大家都看到了,我写了几百行代码,几千字的文章,辛辛苦苦换来的只是一组双色球,尼玛坑爹啊,怎么会是双色球呢!!!(旁白:作者越说越激动,居然哭了起来,周围人纷纷劝说:兄弟,不至于的,不就是个微博红包么,昨天手都撸酸了也没摇出个微信红包。)

唉,其实我不是哭这个,我难过的是我已经二十多岁了,还在做写程序抓微博红包这么无聊的事情,这根本不是我想要的人生啊!

源码下载:http://down.51cto.com/data/1984536

责任编辑:林师授 来源: freebuf 微信支付宝红包

(责任编辑:百科)

    推荐文章
    热点阅读