docker Mysql-udf-http

这篇具有很好参考价值的文章主要介绍了docker Mysql-udf-http。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 1.Mysql-udf-http镜像已上传到dockerhub中

docker pull heidaodageshiwo/mysql-udf-http:v1

2.启动镜像(默认密码root1234)

docker run -tid -p 3306:3306 --name=mysql-udf-http --privileged=true heidaodageshiwo/mysql-udf-http:v1

附:也可以使用这个镜像,这个里面mysql版本是mysql8.0.35的,重新搞的一个(这个镜像体积小一点)

docker run -dit -p 3306:3306  --name udf --privileged=true  heidaodageshiwo/mysqludf:v2  /usr/sbin/init

用户名:root  密码:Root@123456

 

3.命令

[root@localhost ~]# docker images
REPOSITORY                       TAG       IMAGE ID       CREATED         SIZE
heidaodageshiwo/mysql-udf-http   v1        fc2684ea3cec   11 months ago   5.36GB
[root@localhost ~]# docker start mysql
mysql
[root@localhost ~]# docker ps
CONTAINER ID   IMAGE               COMMAND            CREATED       STATUS         PORTS                                                 NAMES
e55e89d35e01   mysql-udf-http:v1   "/usr/sbin/init"   10 days ago   Up 2 seconds   0.0.0.0:3306->3306/tcp, :::3306->3306/tcp, 9001/tcp   mysql
[root@localhost ~]# ^C
[root@localhost ~]#

4.连接:root/root1234

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

5.运行

SELECT http_post('http://192.168.101.9:8054/udf/test2','a=xoyo333&b=0111111');  


192.168.101.9:机器ip地址 8054项目端口  udf/test2接口  a=xoyo333&b=0111111入参

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

6.java代码:

controller

@RequestMapping("/udf")
@RestController
public class MysqlUdfHttpController {
    @Resource
    UdfMapper udfMapper;

    @RequestMapping("/test2")
    public String getMenuList12(String a,String b) {
        return a+b;
    }
  @RequestMapping("/test1")
    public List<Menu> test1(@RequestParam long pid) {
        String s = udfMapper.httpGets("http://192.168.101.9:8054/udf/test11?pid=1" );
        List<Menu> menus = JSONArray.parseArray(s, Menu.class);
        return menus;
    }
    @RequestMapping("/test11")
    public List<Menu> test11(@RequestParam long pid) {
        List<Menu> menu = menuService.findMenu(pid);
        return menu;
    }


}
UdfMapper
package com.zq.mybatisexample.mapper;

import org.apache.ibatis.annotations.Mapper;
import org.apache.ibatis.annotations.Param;
import org.apache.ibatis.annotations.Select;

@Mapper
public interface UdfMapper {
    @Select("select http_get(#{url}, #{params}) as response from dual")
    String httpGet(@Param("url") String url, @Param("params") String params);

    @Select("select http_post(#{url}, #{params}) as response from dual")
    String httpPost(@Param("url") String url, @Param("params") String params);

    @Select("select http_get(#{url}) from dual")
    String httpGets(@Param("url") String url );

}

7.测试:

navaicat中运行选择的sql即可调用到 代码中的代码:

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

8.例子2:实现(  请求java接口->mysql udf ->  java接口  )

页面请求接口:http://localhost:8054/udf/test1?pid=1

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

docker Mysql-udf-http,mysql,docker,容器,运维,mysql,Mysql-udf-http

解释:

页面调用:http://localhost:8054/udf/test1?pid=1

然后使用mysql udf的转发功能 

String s = udfMapper.httpGets("http://192.168.101.9:8054/udf/test11?pid=1" );

这一句作用:让mysql udf数据库去调用 

http://192.168.101.9:8054/udf/test11?pid=1  这个接口  (
可结合使用上方例子1  SELECT http_post('http://192.168.101.9:8054/udf/test2','a=vvv&b=aaaaa');   
来理解即可
)

然后test11接口返回数据即可。

应用场景1举例:

外网接口需要调用内网的一个接口,中间有隔离装置,内网还不能部署其他的gateway或其他转发程序,可以部署mysql udf来转发请求。

外网接口--->mysql udf(转发接口请求)--->内网接口文章来源地址https://www.toymoban.com/news/detail-772959.html

到了这里,关于docker Mysql-udf-http的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • hive创建udf函数流程

    1.编写udf函数 引入pom文件 dependencies     dependency !-- 这个属于额外的jar包 自己按需引用 比如你想搞得函数 里面要连接mysql 这里肯定需要引入mysql的驱动包 我这个包是为了计算字符串的表达式的。 --         groupIdorg.apache.commons/groupId         artifactIdcommons-jexl3/artifactId      

    2024年02月09日
    浏览(44)
  • ClickHouse Java多参UDF

    环境 版本 docker clickhouse 22.3.10.22 新建Maven项目 返回 返回 数据展开 java例程 返回 数据展开 xml文件名称需以 function.xml 结尾,其它则会添加失败,找不到函数。 1.execute_direct需为0 2.command需带上根目录,如/usr/bin/java 3.没有安装java等语言环境 4.没有命令或脚本权限 5.版本不支持,

    2024年02月06日
    浏览(36)
  • spark-udf函数

    from pyspark.sql import SparkSession from pyspark.sql.types import * ss = SparkSession.builder.getOrCreate() df_csv = ss.read.csv(‘hdfs://node1:8020/user/hive/warehouse/data/stu.csv’, schema=‘name string,age int,gender string,phone string,email string,city string,address string’) df_csv.show() def func(email): username = email.split(‘@’)[0] email

    2024年01月22日
    浏览(35)
  • Windows机器的udf提权

    前提条件 (1)需要拿到mysql的权限 (2)mysql有写入文件的权限 实验步骤 (1)拿到数据库操作页面 (2)查询mysql版本,不同版本dll文件位置不同 (3)查询是否有写入文件权限 (4)查询plugin文件路径 (5)将udf文件内容转换成16进制 (6)将本地udf64.dll文件以16进制数据上传

    2024年02月08日
    浏览(37)
  • Hive UDF自定义函数上线速记

    待补充 1.1 提交jar包至hdfs 使用命令or webui 上传jar到hdfs,命令的话格式如下 hdfs dfs -put [Linux目录] [hdfs目录] 示例: 1.2 将 JAR 文件添加到 Hive 中 注意hdfs路径前面要加上 hdfs://namenode , 如果是hdfs集群的话换成 dfs.nameservices 的值 1.3 注册永久 UDF 函数 hdfs://namenode 和1.2步骤保持一致 CR

    2024年02月11日
    浏览(41)
  • SparkSQL函数定义——UDF函数,窗口函数

    目录 1 定义UDF函数  1.1  返回值是数组类型的UDF定义 1.2 返回字典类型的UDF定义 2 窗口函数 目前python仅支持UDF 两种定义方式: 1. sparksession.udf.register() 注册的UDF可以用于DSL和SQL 返回值用于DSL风格,传参内给的名字用于SQL风格         方法一语法: udf对象 =  sparksession.ud

    2024年02月06日
    浏览(52)
  • Hive 的 UDF 函数(Python 版本)

    Hive 的 UDF 函数(Python 版本) 一、UDF 是什么 Hive 中支持很多的函数,可以极大的方便我们的工作。但是系统内置的函数虽然很多,却不能满足我们所有的需求。在遇到一些个性化需求的时候,系统内置的函数无法满足,此时就需要使用代码来完成自己的业务逻辑。 UDF: User

    2024年02月08日
    浏览(29)
  • Hive UDF、UDAF和UDTF函数详解

    在 Hive 中,可以编写和使用不同类型的自定义函数,包括 UDF(User-Defined Functions)、UDAF(User-Defined Aggregate Functions)和 UDTF(User-Defined Table Functions)。这些自定义函数允许你扩展 Hive 的功能,以执行自定义的数据处理操作。 UDF(User-Defined Functions) : 用途:UDF 用于处理一行数

    2024年02月10日
    浏览(39)
  • hive udf 判断四边形是否为矩形

    hive udf中经常要做判断四边形是否为矩形,所以写了这个udf如下:

    2024年02月12日
    浏览(41)
  • 16 | Spark SQL 的 UDF(用户自定义函数)

    UDF(用户自定义函数) :Spark SQL 允许用户定义自定义函数,以便在 SQL 查询或 DataFrame 操作中使用。这些 UDF 可以扩展 Spark SQL 的功能,使用户能够执行更复杂的数据操作。 示例:

    2024年02月10日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包