跨界协作:借助gRPC实现Python数据分析能力的共享

这篇具有很好参考价值的文章主要介绍了跨界协作:借助gRPC实现Python数据分析能力的共享。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

gRPC是一个高性能、开源、通用的远程过程调用(RPC)框架,由Google推出。
它基于HTTP/2协议标准设计开发,默认采用Protocol Buffers数据序列化协议,支持多种开发语言。

在gRPC中,客户端可以像调用本地对象一样直接调用另一台不同的机器上服务端应用的方法,使得您能够更容易地创建分布式应用和服务。

gRPC支持多种语言,并提供了丰富的接口和库,以及简单易用的API,方便开发者进行快速开发和部署。
同时,gRPC的底层框架处理了所有强制严格的服务契约、数据序列化、网络通讯、服务认证、访问控制、服务观测等等通常有关联的复杂性,使得开发者可以更加专注于业务逻辑的实现。

1. 为什么用 gRPC

我平时用的最多的语言其实是golang,但是,做数据分析相关的项目,不太可能绕开python那些优秀的库。
于是,就想把数据分析的核心部分用python来实现,并用gRPC接口的方式提供出来。
其他的业务部分,仍然用原先的语言来实现。

gRPC相比于http REST,性能和安全上更加有保障,而且对主流的开发语言都支持的很好,不用担心与其他语言开发的业务系统对接的问题。

最后,gRPC虽然接口的定义和实现比http REST更复杂,但是,它提供了方便的命令行工具,
可以根据protocol buf的定义自动生成对应语言的类型定义,以及stub相关的代码等等。

实际开发时,一般只要关注接口的定义和业务功能的实现即可,gRPC框架需要的代码可以通过命令行工具生成。

2. 安装

对于Python语言,安装gRPC框架本身和对应的命令行工具即可:

$ pip install grpcio  # gRPC框架
$ pip install grpcio-tools # gRPC命令行工具

3. 开发步骤

开发一个gPRC接口一般分为4个步骤

  1. 使用[protocal buf](https://protobuf.dev/overview)定义服务接口
  2. 通过命令行生成clientserver的模板代码
  3. 实现server端代码(具体业务功能)
  4. 实现client端代码(具体业务功能)

下面通过一个示例演示gRPC接口的开发步骤。
这个示例来自最近做量化分析时的一个指标(MACD)的实现,
为了简化示例,下面实现MACD指标的业务功能部分是虚拟的,不是实际的计算方法。

3.1. 定义服务接口

接口主要定义方法,参数,返回值。

syntax = "proto3";

package idc;

// 定义服务,也就是对外提供的功能
service Indicator {
    rpc GetMACD(MACDRequest) returns (MACDReply) {}
}

// 请求的参数
message MACDRequest {
    string start_date = 1; // 交易开始时间
    string end_date = 2;   // 交易结束时间
}

// 返回值中每个对象的详细内容
message MACDData {
    string date = 1;  // 交易时间
    float open = 2;   // 开盘价
    float close = 3;  // 收盘价
    float high = 4;   // 最高价
    float low = 5;    // 最低价
    float macd = 6;   // macd指标值
}

// 返回的内容,是一个数组
message MACDReply {
    repeated MACDData macd = 1;
}

3.2. 生成模板代码

grpc_sample目录下,执行命令:

python -m grpc_tools.protoc -I./protos --python_out=. --pyi_out=. --grpc_python_out=. ./protos/indicator.proto

生成后文件结构如下:
跨界协作:借助gRPC实现Python数据分析能力的共享
生成了3个文件:

  1. indicator_pb2.pyproto文件定义的消息类
  2. indicator_pb2_grpc.py:服务端和客户端的模板代码
  3. indicator_pb2.pyi:不是必须的,为了能让mypy等工具校验代码类型是否正确

3.3. server端代码

通过继承indicator_pb2_grpc.py文件中的服务类,实现服务端功能。

# -*- coding: utf-8 -*-

from concurrent import futures

import grpc
import indicator_pb2
import indicator_pb2_grpc


class Indicator(indicator_pb2_grpc.IndicatorServicer):
    def GetMACD(self, request, context):
        macd = []
        for i in range(1, 5):
            data = indicator_pb2.MACDData(
                date=request.start_date,
                open=i * 1.1,
                close=i * 2.1,
                high=i * 3.1,
                low=i * 0.1,
                macd=i * 2.5,
            )
            macd.append(data)

        return indicator_pb2.MACDReply(macd=macd)


def serve():
    port = "50051"
    server = grpc.server(futures.ThreadPoolExecutor(max_workers=10))
    indicator_pb2_grpc.add_IndicatorServicer_to_server(Indicator(), server)
    server.add_insecure_port("[::]:" + port)
    server.start()
    print("Server started, listening on " + port)
    server.wait_for_termination()


if __name__ == "__main__":
    serve()

服务端需要实现proto文件中定义接口的具体业务功能。

3.4. client端代码

使用indicator_pb2_grpc.py文件中的Stub来调用服务端的代码。

# -*- coding: utf-8 -*-


import grpc
import indicator_pb2
import indicator_pb2_grpc


def run():
    with grpc.insecure_channel("localhost:50051") as channel:
        stub = indicator_pb2_grpc.IndicatorStub(channel)
        response = stub.GetMACD(
            indicator_pb2.MACDRequest(
                start_date="2023-01-01",
                end_date="2023-12-31",
            )
        )

        print("indicator client received: ")
        print(response)


if __name__ == "__main__":
    run()

3.5. 运行效果

加入客户端和服务端代码后,最后的文件结构如下:
跨界协作:借助gRPC实现Python数据分析能力的共享

测试时,先启动服务:

$  python.exe .\idc_server.py
Server started, listening on 50051

然后启动客户端看效果:

$  python.exe .\idc_client.py
indicator client received:
macd {
  date: "2023-01-01"
  open: 1.1
  close: 2.1
  high: 3.1
  low: 0.1
  macd: 2.5
}
macd {
  date: "2023-01-01"
  open: 2.2
  close: 4.2
  high: 6.2
  low: 0.2
  macd: 5
}
macd {
  date: "2023-01-01"
  open: 3.3
  close: 6.3
  high: 9.3
  low: 0.3
  macd: 7.5
}
macd {
  date: "2023-01-01"
  open: 4.4
  close: 8.4
  high: 12.4
  low: 0.4
  macd: 10
}

4. 传输文件/图片

除了上面的返回列表数据的接口比较常用以外,我用的比较多的还有一种接口就是返回图片。
将使用pythonmatplotlib等库生成的分析结果图片提供给其他系统使用。

开发的步骤和上面是一样的。

4.1. 定义服务接口

定义文件相关的服务接口,文件的部分需要加上stream关键字,也就是流式数据。

syntax = "proto3";

package idc;

// 定义服务,也就是对外提供的功能
service IndicatorGraph {
    rpc GetMACDGraph(MACDGraphRequest) returns (stream MACDGraphReply) {}
}

// 请求的参数
message MACDGraphRequest {
    string start_date = 1; // 交易开始时间
    string end_date = 2;   // 交易结束时间
}

// 返回的内容,是一个图片
message MACDGraphReply {
    bytes macd_chunk = 1;
}

注意,定义服务接口GetMACDGraph时,返回值MACDGraphReply前面加上stream关键字。
返回的文件内容是 bytes 二进制类型。

4.2. 生成模板代码

执行命令:

python -m grpc_tools.protoc -I./protos --python_out=. --pyi_out=. --grpc_python_out=. ./protos/indicator_graph.proto

生成3个文件:

  1. indicator_graph_pb2.py
  2. indicator_graph_pb2.pyi
  3. indicator_graph_pb2_grpc.py

4.3. server端代码

首先,生成一个MACD指标的图片(macd.png)。
跨界协作:借助gRPC实现Python数据分析能力的共享

然后,服务端的代码主要就是按块读取这个文件并返回。


import grpc
import indicator_graph_pb2
import indicator_graph_pb2_grpc


class IndicatorGraph(indicator_graph_pb2_grpc.IndicatorGraphServicer):
    def GetMACDGraph(self, request, context):
        chunk_size = 1024

        with open("./macd.png", mode="rb") as f:
            while True:
                chunk = f.read(chunk_size)
                if not chunk:
                    return

                response = indicator_graph_pb2.MACDGraphReply(macd_chunk=chunk)
                yield response

4.4. client端代码

客户端的代码也要相应修改,不再是一次性接受请求的结果,而是循环接受,直至结束。

import grpc
import indicator_graph_pb2
import indicator_graph_pb2_grpc


def run():
    with grpc.insecure_channel("localhost:50051") as channel:
        stub = indicator_graph_pb2_grpc.IndicatorGraphStub(channel)

        print("indicator client received: ")
        with open("./received_macd.png", mode="wb") as f:
            for response in stub.GetMACDGraph(
                indicator_graph_pb2.MACDGraphRequest(
                    start_date="2023-01-01",
                    end_date="2023-12-31",
                )
            ):
                f.write(response.macd_chunk)

客户端接收完成后,图片保存在 received_macd.png 中。

实际执行后,图片可以正常保存并显示。

5. 回顾

本篇是最近用gPRC封装python数据分析相关业务过程中一些简单的总结。

这里没有对gPRC做系统的介绍,它的官方文档已经非常完善,而且文档中针对主流编程语言的示例也都有。
本篇笔记中的两个示例虽然简单,却是我用的最多的两种情况:
一种是返回对象数组:是为了将pandasnumpy等库处理后的数据返回出来供其他系统使用;
一种是返回文件/图片:是为了将matplotlibseaborn等库生成的分析图片返回出来供其他系统使用。

目前gPRC对我最大的好处是,它提供了一种稳定可靠的,将python强大的数据分析能力结合到其他系统中的能力。文章来源地址https://www.toymoban.com/news/detail-825165.html

到了这里,关于跨界协作:借助gRPC实现Python数据分析能力的共享的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 简单的用Python抓取动态网页数据,实现可视化数据分析

    一眨眼明天就周末了,一周过的真快! 今天咱们用Python来实现一下动态网页数据的抓取 最近不是有消息说世界首富马上要变成中国人了吗,这要真成了,可就是历史上首位中国世界首富了! 那我们就以富豪排行榜为例,爬取一下2023年国内富豪五百强,最后实现一下可视化分

    2024年02月05日
    浏览(39)
  • Python多线程爬虫——数据分析项目实现详解

    前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家 :https://www.captainbed.cn/z 「个人网站」 :雪碧的个人网站 ChatGPT体验地址 爬虫是指一种自动化程序,能够模拟人类用户在互联网上浏览网页、抓取网页内容、提取数据等操作。爬虫通常

    2024年01月18日
    浏览(41)
  • 【数据分析】中介效应的简介、模型、python代码实现以及数据可视化

    当谈到因果关系时,中介效应是一种非常重要的概念。中介效应发生在一个变量(中介变量)部分地中介了另外两个变量之间的关系。 中介效应发生在以下情况下: 一个变量(中介变量)部分地中介了另外两个变量之间的关系。假设自变量X对因变量Y产生了影响,而这种关系

    2024年02月06日
    浏览(32)
  • 基于Python+django影片数据爬取与数据分析设计与实现

    博主介绍 : ✌ 全网粉丝30W+,csdn特邀作者、博客专家、CSDN新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战 ✌ 🍅 文末获取源码联系 🍅 👇🏻 精彩专栏 推荐订阅 👇🏻 不然下次找不到哟 2022-2024年

    2024年02月05日
    浏览(44)
  • 用Python实现创建十二星座数据分析图表

    下面小编提供的代码中,您已经将 pie.render() 注释掉,并使用了 pie.render_to_file(\\\'十二星座.svg\\\') 来将饼状图渲染到一个名为 十二星座.svg 的文件中。这是一个正确的做法,如果您想在文件中保存图表而不是在浏览器中显示它。 成功创建图表: 问题分析: 要确保代码能够正常工

    2024年02月21日
    浏览(34)
  • 基于Python热门旅游景点数据分析系统设计与实现

    博主介绍 : ✌全网粉丝30W+,csdn特邀作者、博客专家、CSDN新星计划导师、java优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战 ✌ 🍅 文末获取源码联系 🍅 👇🏻 精彩专栏 推荐订阅 👇🏻 不然下次找不到哟 java项目精品实战

    2024年02月11日
    浏览(36)
  • 基于Python的招聘岗位数据分析系统的设计与实现

    Design and Implementation of a Job Recruitment Data Analysis System based on Python 完整下载链接:基于Python的招聘岗位数据分析系统的设计与实现 《基于Python的招聘岗位数据分析系统的设计与实现》摘要: 本文基于Python语言,以招聘岗位数据为基础,设计并实现了一个招聘岗位数据分析系统。

    2024年04月24日
    浏览(25)
  • 基于python社交网络大数据分析系统的设计与实现

    摘 要 社交网络大数据分析系统是一种能自动从网络上收集信息的工具,可根据用户的需求定向采集特定数据信息的工具,本项目通过研究爬取微博网来实现社交网络大数据分析系统功能。对于采集微博热点群体发现信息数量较少的工作而言,实现一个网页下载程序不会很麻

    2024年02月22日
    浏览(32)
  • 数据分析课程设计(数学建模+数据分析+数据可视化)——利用Python开发语言实现以及常见数据分析库的使用

    目录 数据分析报告——基于贫困生餐厅消费信息的分类与预测 一、数据分析背景以及目标 二、分析方法与过程 数据探索性与预处理 合并文件并检查缺失值 2.计算文件的当中的值 消费指数的描述性分析 首先对数据进行标准化处理 聚类模型的评价 聚类模型的结果关联 利用决

    2024年02月12日
    浏览(42)
  • 基于python爬虫技术对于淘宝的数据分析的设计与实现

    本文主要介绍通过 selenium 模块和 requests 模块,同时让机器模拟人在浏览器上的行为,登录指定的网站,通过网站内部的搜索引擎来搜索自己相应的信息,从而获取相应的商品信息,并进而获取数据,然后通过csv模块将数据存储到本地库中,接着在通过pandas、jieba、matplotl

    2024年02月03日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包