爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问

这篇具有很好参考价值的文章主要介绍了爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、准备工作-服务器

1、先准备一个服务器(以阿里云为例子)
  • 1、先准备一个云服务器,比如阿里云服务器新人免费使用3个月 , 或者腾讯云服务器,又或者华为云服务器都可以,但是提醒注意下,新用户的首单资格优惠力度最大,所以最好在一年有活动的时候买,比如618或者双十一,当然免费的话最好月初的时候开始试用
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、注意注意:可能我是不熟悉,走了一个坑,如果你在一个月的月底开始试用3个月的话,那么那一个月就算用掉了,所以建议在月初的时候开始试用,薅羊毛获得最大时长;因为比如我就是5月22号试用的,到7月31号就到期了,这时候其实已经少试用了20多天了~~ ;所以记得问下客服,如果现在开始试用,云服务器到期的具体时间点
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 3、购买服务器后,登录到这里,然后重置密码,然后强制重启
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 4、快捷跳到后台-跳到这个控制台也可以选择对应产品跳到过来
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 可能这个时候大多数小白和我一样没啥概念,反正就先有个认识,这三种服务器的类型分类如下,而我们免费3个月的是云服务器ECS,所以点击这个进到对应后台
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 又比如腾讯云服务器,这里也有三种分类服务器,比如我第一次使用的是轻量应用服务器 ,所以点这个进到对应后台,没啥概念的小白的我,反正就先这样~
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 5、点击实例,如果没有显示你拥有的服务器,则地址位置看下是哪个区域,然后进行选择下
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

2、开通服务端口号访问权限
  • 1、开通可以访问的端口号,只有开通了端口号,才能正常连接;在安全组-管理规则-手动添加对应端口,和授权对象ip ; 这里的意思是比如你要在服务器上启动一个服务比如http:0.0.0.1:4000/test , 想要别人能通过你的服务器外网ip访问到的话,你就得把端口权限打开
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    2、如下开端口、到https://www.ip138.com/可以看到你的IP
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 手动添加规则,注意指定的端口,和授权可以访问的ip即可,然后保存
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 那腾讯云轻量应用服务器也是在添加规则的位置,设定端口和授权ip爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

二、准备工作-Xshell登录服务器

  • 1、Xshell/Xftp下载地址 ,简言之,Xshell负责环境代码部署,Xftp负责文件或代码的同步与传输,搭配使用更方便
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、下载安装好后,如下,Xftp和Xshell的区别:我们在Xftp上的操作,在Xshell同样可以,只是Xftp通过可视化界面和点击、拖拽等方式可以实现文件上传/下载/删除/重命名/移动等,而Xshell则需要通过敲击命令的方式来实现;简言之,Xshell负责环境部署,Xftp负责文件或代码的同步与传输
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

1、xshell基本登录操作
  • 1、双击打开xshell,登录linux系统等服务器操作的软件,文件>新建会话>如下连接对应服务器>按提示即可连上
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、登录上xshell服务器后,试着输入python3,可以发现服务器自带python3,ctrl+d退出python;接着你可以cd /opt 目录下,去下载一些常用的解压安装部署
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 3、比如在linux服务器上安装node环境
    cd /opt
    wget https://nodejs.org/dist/v16.15.0/node-v16.15.0-linux-x64.tar.xz
    tar -vxf node-v16.15.0-linux-x64.tar.xz
    mv node-v16.15.0-linux-x64  nodejs  
    
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
2、xftp基本操作
  • 1、Xftp是一个用于Windows系统平台上的FTP、STFP协议文件传输程序,它能帮助用户安全地在Unix系统和Windows系统上进行快速的文件传输任务,并且它可对文件列表进行可视化展示,更符合Windows用户的使用习惯
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 2、双击打开后,依然是新建会话连上服务器
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 3、连上登录好后,就可以实现windows系统和服务器Unix系统的文件传输了,只需要选中指定文件进行拖拽即可
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

三、部署代码到服务器上

  • 1、当然可以通过git的方式部署同步 ,如果你觉得xftp的方法麻烦的话,就用这个git的方法同步更新,git不熟悉的话,部署还需要麻烦些,可以加vsjyjy 备注:CSDN交流群
  • 2、但今天就简单介绍下临时几个文件的部署,以及常用命令等,所以就用xftp同步上线传文件即可,小白第一次x学习使用推荐这种方式吧
  • 3、当然还有其它方式部署爬虫,比如Scrapy等
1、部署一个python爬虫脚本在服务器上定时运行等
  • 1、样例代码代码https://github.com/Shirmay1/MoreMoreLearn , 文章所有代码开源在git上,csdn下载资源如果显示收费请到git上开源下
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、先在xsheel上命令创建一个目录data,专门用来存代码

    cd /
    mkdir data
    
  • 3、打开xftp,上传代码到服务器/data目录下
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 4、然后在xshell界面操作cd /data目录下,ls查看当前目录下的文件,然后python3运行目标python文件,如下正常运行
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 5、如果我们要让他一直持续运行到后台,并且定时启动呢,nohup python3 crawl_news.py >/dev/null 2>&1 & ,开个定时脚本,并logger.add('crawl_news.log', encoding='utf-8') 可以存储日志文件,loguru日志库学习

    	logger.add('crawl_news.log', encoding='utf-8')
    	
    	scheduler = BlockingScheduler(timezone='Asia/Shanghai')
    	scheduler.add_job(list_main, 'cron', hour=2, minute=30, args=(), max_instances=100, misfire_grace_time=360)
    	scheduler.start()
    
  • 6、如图,就成功部署好一个python爬虫脚本了,通过scheduler每天定时启动,ps -ef | grep crawl_news 搜索包含crawl_news的后台进程,如图进程号3562
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

2、部署一个python服务接口他人调用访问等
  • 1、样例代码 ,本地直接运行打开http://127.0.0.1:8444/get_ip , 服务器上运行,则把对应的127.0.0.1改成对应的外网地址
    # -*- coding: utf-8 -*-            
    # @Time : 2023/7/2
    # @Author: sy
    # @公众号: 逆向OneByOne
    # @desc: 部署python flask的接口调用测试; vsjyjy 注:CSDN交流
    from flask import Flask, request
    from loguru import logger
    logger.add('flask_api.log', encoding='utf-8')
    
    app = Flask(__name__)
    
    
    @app.route("/get_ip", methods=['get'])
    def get_ip():
        ip = request.remote_addr
        logger.info(f"ip is {ip}")
        return f"your ip is {ip}"
    
    
    if __name__ == '__main__':
        app.run(host="0.0.0.0", port=8444, debug=True)
    
  • 2、xftp拖文件到对应服务器上
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 3、将文件部署到服务器上,然后后台持续运行, nohup python3 flask_api.py >/dev/null 2>&1 &
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 4、然后如下,打开服务器公网的接口如下访问,此时已经返回正常数据,说明部署成功 ; 如果你的访问不起来的话,可能你服务器安全组-规则端口没有打开权限
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
3、部署一个js服务接口他人调用访问等
  • 1、代码https://github.com/Shirmay1/MoreMoreLearn,express用法 , 先启动express的js服务,然后python尝试调用

    # -*- coding: utf-8 -*-            
    # @Time : 2023/7/2
    # @Author: sy
    # @公众号: 逆向OneByOne
    # @desc: express接口调用案例
    import requests
    from loguru import logger
    logger.add('express_api.log', encoding='utf-8')
    
    lat_lng = {
        "lng": 120.5811424828,
        "lat": 31.3010678543,
        "Se": "inner",
        "num": 12
    }
    url = f"http://127.0.0.1:8444/lj_enc"
    resp = requests.post(url, data=lat_lng, timeout=10)
    logger.success(f"req_response {resp.text}")
    

    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、xftp上传部署文件
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 3、启动服务,我们在xshell上面,先node express_api.js看看有没有报错,测试下报错的话安装相关模块,
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 4、打开测试下,服务器正常打印日志,然后python脚本运行下,正常返回数据,说明没接口调通,如果失败,看下服务器端口权限是否打开
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 5、正式部署,用PM2部署js , pm2 start express_api.js --max-memory-restart200M (使用 --max-memory-restart 选项指定内存阈值) pm2
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

4、启动一个企业微信群告警的方式
  • 1、企业微信建一个群聊,然后添加一个群机器人
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
  • 2、代码https://github.com/Shirmay1/MoreMoreLearn
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
5、通过git的方式部署
  • 1、GitHub/Gitee/Gitlab平台:都可以,选择一个注册账号即可,平常写的代码是在工作区,通过git add命令是到暂存区, 通过git commit命令是到本地仓库,通过git push是到线上远程仓库

爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 2、安装下载与用户名密码配置, git安装下载
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 3、本地点击git bash后输入以下命令,配置用户名/密码,红色部分换成自己对应的

    • 显示当前的配置:git config --list
    • 设置用户名: git config --global user.name Shirmay
    • 设置用户名邮箱: git config --global user.email Shirmay@qqqqq.com
    • 系统用户级别设置:git config --global
  • 4、在你刚刚新建的远程仓库,克隆线上远程仓库, 建议通过ssh的连接方式登录,参考该文档目录十二ssh登录配置操作 , 按文档将sshkey复制到线上配置即完成第一步
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 5、本地新建一个空文件夹,记得github先建一个仓库,然后点击code这里复制ssh命令,然后打开git bash窗口输入命令:git clone git@github.com:Shirmay1/MoreMoreLearn.git,即可完成远程仓库克隆到本地的操作
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
    爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

  • 6、git忽略 pycache 和 .pyc文件

    • 在文件目录下新建.gitignore文件, 文件内容添加**/pycache,这样可以把文件夹中的__pycache__文件夹忽略,并且子文件夹中的__pycache__也一并忽略
      爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库
      爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问,# SpiderCrawl,爬虫,服务器,数据库

    • 如果意外的已经通过git上传了那些文件的话,可以本地使用命令删除

      rm -rf 文件
      git rm --cached 文件
      
  • 7、常用命令

    • git status:查看本地工作区与本地仓库代码的差别
    • git diff 文件名: 比较本地与线上仓库代码差异点
    • git restore 文件名: 将本地文件还原成本地仓库的文件
    • git add 文件名:将本地文件上传到暂存区,git add xx命令可以将xx文件添加到暂存区,如果有很多改动可以通过 git add -A .来一次添加所有改变的文件。注意 -A 选项后面还有一个句点。 git add -A表示添加所有内容, git add . 表示添加新文件和编辑过的文件不包括删除的文件; git add -u 表示添加编辑或者删除的文件,不包括新添加的文件
    • git commit -m ‘说明’:将暂存区代码提交到本地仓库
    • git push -u origin:将本地仓库提交到线上仓库
    • git remote -v:查看本地分支情况
    • git reset --hard: 回退到上一个版本
    • git pull origin master:从线上仓库拉取最新代码
    • git push origin master:将本地仓库的代码推到线上
    • 如下是本地常用的操作命令步骤,一般先git pull origin master , 然后再git push

四、常用操作命令

1、linux常用命令:
  • pwd:查看当前目录
  • ls : 查看目录下的文件 , 或者 ll 或者 la
  • ps -ef | grep .js : 搜索包含.js的进程
  • ps -ef | grep python : 搜索包含python的进程
  • ps aux|grep python |awk ‘{print $2}’|xargs kill -9 : 杀掉包含python的进程
  • nohup python epub_add.py >/dev/null 2>&1 & : 后台启python文件进程
  • mv: 移动文件/文件重命名
  • mkdir : 创建一个目录,-p用户创建多层目录
  • rm -rf:强制删除文件夹
  • df -h :查看磁盘空间
  • free -h : 查看内存使用
  • lsof -i:1110 查看1110端口占用 (yum install lsof -y)
2、windows常用命令
  • wmic process where name=“python.exe” list brief : 查看使用python的进程
  • netstat -ano |findstr “9110” : 看到端口占用
  • taskkill -f /pid 110108 : 杀掉进程
3、node常用命令
  • 直接启动运行js : node app2.js

  • pm2需要全局安装npm install -g pm2 , pm2

  • 启动进程/应用 pm2 start app2.js

  • 重新启动进程/应用 pm2 restart app2

  • 重新启动所有进程/应用 pm2 restart all

  • 列出所有进程/应用 pm2 list

  • 查看某个进程/应用具体情况 pm2 describe app2

  • 结束进程/应用 pm2 stop app2

  • 结束所有进程/应用 pm2 stop all

  • 删除进程/应用 pm2 delete app2

  • 删除所有进程/应用 pm2 delete all

  • 查看pm2的日志 pm2 logs

  • 查看某个进程/应用的日志,使用 pm2 logs www

  • 查看进程/应用的资源消耗情况 pm2 monit

  • 重命名进程/应用 pm2 start app2.js --name aaa文章来源地址https://www.toymoban.com/news/detail-583799.html

到了这里,关于爬虫小白入门在服务器上-部署爬虫或者开服务接口并供给他人访问的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 面向小白的Palworld幻兽帕鲁私有服务器保姆级部署教程

    想要部署属于自己的幻兽帕鲁服务器,您首先需要拥有一台服务器,说白了就是一台虚拟电脑配合公网IP地址,能够让您和您的朋友都通过这个IP地址访问您的帕鲁服务器,实现在一个相对独立、稳定且私密的云端空间中进行游戏,确保获得更加畅快的游戏体验。本篇文章将介

    2024年02月19日
    浏览(47)
  • 保姆级教程——将springboot项目部署到阿里云服务器(小白包会)

    昨天本想着看论文,结果发现找的论文和课题不一致。那干点什么好呢?那就把我的毕业设计(一个springboot项目)部署到服务器上,随便试试喽。网上的教程发现大部分都是一知半解,只能东拼西凑的查,费了不少时间。希望这篇博文能帮助一下刚入手的像我一样的小白!

    2023年04月18日
    浏览(37)
  • Docker 部署本地爬虫项目到服务器

    笔记:一直想写一篇博客的,那就趁着周末闲暇时光记录一下。 目录 一、前提准备 二、Docker部署爬虫示例 整体梳理 1、打包构建本地项目镜像 2、在 hub 网站上 创建一个仓库。 3、将本地镜像与hub上的仓库打上标签 4、确保已登录 Dockerhub 账号 5、推送镜像到 Dockerhub 仓库中

    2024年02月03日
    浏览(53)
  • 手把手教你如何把vue项目打包后部署到服务器(小白教程)

    一.需要用到的工具 vscode 下载链接:Visual Studio Code - Code Editing. Redefined FinalShell 下载链接:FinalShell官网 二.打包步骤 1.vscode打开你的vue项目-- 点终端 -- 输入npm run build 按回车进行打包;  2.打包成功 , 生成了dist文件夹, 打包好的文件会默认存放在里面;   三. 用FinalShell连接服

    2024年02月16日
    浏览(51)
  • 手把手教小白如何在Window系统下搭建Nginx服务器环境并部署前端项目

    这里日后补充… 在nginx官网http://nginx.org/en/download.html 下载稳定版至自己想要的目录下。 然后解压文件(没有exe的安装过程),下在解压后进入其目录如下: (注意:安装目录最好不要有中文,否则启动时容易报错) 启动方式有两种: (1)直接进入nginx安装目录下,双击n

    2024年02月16日
    浏览(47)
  • 通过宝塔辅助部署本地Python爬虫项目到阿里云轻量服务器

    笔记:最近想把本地的一套爬虫项目给搞到服务器上跑跑。 可在本地压缩成zip,手动将压缩包上传到宝塔文件夹,最终要将它解压出来,放到下面图片的路径下。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/35683919ba694d5485ad9b5197549105.png 对于添加python项目这里就不再赘述,详

    2024年02月09日
    浏览(72)
  • CIFS协议入门指南:快速部署文件共享服务器

    数据来源  本文涉及NTFS权限的知识,不熟悉的可以先看这篇文章         通过网络提供文件共享服务,提供文件下载和上传服务(类似于FTP服务器)         方法: 文件夹右键属性 -- 共享 -- 开启共享 -- 设置共享名 -- 设置共享权限         注:            

    2024年02月12日
    浏览(50)
  • 云服务器ECS入门及云上网站部署

    云服务器ECS (Elastic Compute Service) 是阿里云提供的性能卓越、稳定可靠、弹性扩展的laaS(Infrastructure as a Service) 级别云计算服务 云服务器ECS免去了您采购IT硬件的前期准备,让您像使用水、电、天然气等公共资源一样便捷、高效地使用服务器,实现计算资源的即开即用和弹性伸缩

    2024年02月06日
    浏览(28)
  • 云风网(www.niech.cn)个人网站搭建(八)服务器部署接口测试请求

    将之前测试的 html 文件中http://127.0.0.1:8090/地址改成云服务器外网地址,同时需要安全组需要开放 8090 端口 接下来根据步骤进行测试 注册请求成功,接下来查看数据库,数据库表也更新了数据 二、登录账户 账号登录成功,接下来测试一下登录信息错误是否正常,正常返回状

    2024年01月23日
    浏览(40)
  • 【Android】MQTT入门——服务器部署与客户端搭建

    MQTT(Message Queuing Telemetry Transport) 是一种基于发布/订阅模式的轻量级消息传输协议,专门针对低带宽、和不稳定网络环境的物联网应用而设计,它可以用极少的代码为互联网设备提供实时可靠的消息服务。 MQTT 协议主要用于物联网和移动设备等资源有限的场景中,其中包括

    2024年02月04日
    浏览(79)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包