InfoGPT - 让ChatGPT/文心一言等大语言模型更易用

这篇具有很好参考价值的文章主要介绍了InfoGPT - 让ChatGPT/文心一言等大语言模型更易用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

   InfoGPT - 让ChatGPT/文心一言等大语言模型更易用        InfoGPT - 让ChatGPT/文心一言等大语言模型更易用  

InfoGPT 是笔者学习ChatGPT等大语言模型过程中开发的一款开源软件,截至 v0.0.14 版本,支持 openai api 代理、电报机器人、微信公众号三个平台。微信公众号集成比较麻烦,会专门开一篇介绍。

项目地址:https://github.com/alwqx/infogpt

欢迎大家试用和提需求

对于个人用户

  1. OpenAI API 代理

  2. 共享 API Key

InfoGPT - 让ChatGPT/文心一言等大语言模型更易用

Telegram Bot

InfoGPT - 让ChatGPT/文心一言等大语言模型更易用

二进制运行

  1. 前往 releases[1] 网页下载最新版本压缩包,这里以 Apple M2 芯片压缩包 infogpt-v0.0.14-darwin-arm64.tar.gz为例。

$ tar xzvf infogpt-v0.0.14-darwin-arm64.tar.gz
x README.md
x configs/
x configs/config.yaml
x infogpt
  1. 修改配置文件 configs/config.yaml

server:
  http:
    addr: 0.0.0.0:6060
    timeout: 300s
  grpc:
    addr: 0.0.0.0:6061
    timeout: 2s
admin:
  openai_api_key: ""
  proxy_url: ""
  gin_ratelimit: "20-D"
  telegram:
    token: ""
    # 机器人的请求限制,原则上应该比 user_ratelimit 大,为空则不进行限制
    ratelimit: ""
    # 每个用户的请求限制,为空则不进行限制
    user_ratelimit: "20-D"
    exclude_keys: ["foo", "bar"]
  wechat:
    app_id: ""
    app_secret: ""
    token: ""
    encoding_aes_key: ""
    # 机器人的请求限制,原则上应该比 user_ratelimit 大,为空则不进行限制
    ratelimit: ""
    # 每个用户的请求限制,为空则不进行限制
    user_ratelimit: "20-D"
    exclude_keys: ["foo", "bar"]
    auto_replay:
      "001": "infogpt infogpt1"
  1. 运行二进制文件

# geek @ geekdeMBP in ~/Downloads/infogptlab [22:18:36]
$ ./infogpt -conf configs
2023/04/18 22:18:54 maxprocs: Leaving GOMAXPROCS=12: CPU quota undefined
DEBUG msg=config loaded: config.yaml format: yaml
INFO module=service/admin ts=2023-04-18T22:18:54+08:00 caller=service.go:71 service.id=geekdeMBP.lan service.name= service.version= trace.id= span.id= msg=[NewAdminService] no proxy_url, use http.DefaultClient
WARN msg=[NewAdminService] not enable telegram bot, skip

[GIN-debug] GET    /hello                    --> infogpt/internal/server.ginHello (5 handlers)
[GIN-debug] GET    /openaiproxy/*path        --> infogpt/internal/server.openaiProxy (5 handlers)
WARN msg=not enable wechat, skip

注意:默认只有代理功能,即把向 infogpt 发送的请求转发到 OpenAI 的 API server。

  1. 后台运行

nohup ./infogpt -conf configs > infogpt.log 2>&1 &
  1. 请求 demo

$ curl --location 'localhost:6060/openaiproxy/v1/completions' \
--header 'Authorization: Bearer YOUR_TOKEN' \
--header 'Content-Type: application/json' \
--data '{
    "model": "text-davinci-003",
    "prompt": "你好",
    "max_tokens": 1024,
    "temperature": 0
  }'
{
  "id": "cmpl-76grTMyULgpL8MT8iAyqR9ZChwyqX",
  "object": "text_completion",
  "created": 1681829083,
  "model": "text-davinci-003",
  "choices": [
    {
      "text": "\n\n 你好!",
      "index": 0,
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 4,
    "completion_tokens": 9,
    "total_tokens": 13
  }
}

详情参考文档 deploy[2]

Docker 运行

docker run -d --name infogpt --rm -p 6060:6060 -p 6061:6061 -v </path/to/your/configs>:/data/conf infogpt:latest

TODOs

  • [x] 支持 OpenAI Proxy

  • [x] REST/gRPC 接口

    • [x] 聊天

    • [x] 生成网页文章摘要

    • [x] 生成书籍内容摘要

  • [x] Telegram

    • [x] /chat /url /book 三个命令

    • [x] 使用频率限制

  • [x] WeChat 公众号有限支持

    • [x] 使用频率限制

    • [x] 超时缓存问答

  • [ ] 支持 ChatGPT Proxy

  • [ ] Slack

  • [ ] 生成文件内容摘要

致谢

本开源项目的开发,离不开这些开源项目的支持:

  • go-kratos[3]

参考资料

[1]

releases: https://github.com/alwqx/infogpt/releases

[2]

deploy: docs/deploy.md

[3]

go-kratos: https://github.com/go-kratos/kratos文章来源地址https://www.toymoban.com/news/detail-488124.html

到了这里,关于InfoGPT - 让ChatGPT/文心一言等大语言模型更易用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 对标ChatGPT:百度大语言模型 文心一言发布

    看了发布会,总体而言感觉 中规中矩 ,当然也显示了一些不错的能力,例如能够生成图片、视频,这是OpenAI目前没有开放的功能,百度给整合了,挺好的。但视频生成功能目前没开放体验,因为运算量太大。 很遗憾,目前体验 只能通过邀请码 注册 。 企业版内测需要填详尽

    2024年02月09日
    浏览(51)
  • 大语言模型汇总(ChatGPT、盘古、通义、文心一言、混元)

    首先就是OpenAI所提出的GPT相关模型,也是目前最火的大语言模型,发布版本已经到了4.0 1.ChatGPT 官网:https://chat.openai.com/chat 如下图是自然语言功能的使用示例 2.华为的盘古模型 盘古模型是华为开发的一系列大规模自回归中文预训练语言模型,包括 NLP 大模型、CV 大模型、多模

    2024年02月11日
    浏览(40)
  • AI百度文心一言大语言模型接入使用(中国版ChatGPT)

    基于百度文心一言语言大模型的智能文本对话AI机器人API,支持聊天对话、行业咨询、语言学习、代码编写等功能. 重要提示:建议使用https协议,当https协议无法使用时再尝试使用http协议 请求方式: POST 序号 参数 是否必须 说明 1 ques 是 你的问题 2 appKey 是 唯一验证AppKey, 可前往官

    2024年02月12日
    浏览(59)
  • 大模型语言模型的全面测评:ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问

    在当今人工智能技术日益成熟的背景下,大模型语言模型的应用越来越广泛。作为一名AI爱好者,我测试了五个平台的大模型,分别是ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问。通过对这五个平台的提问并得到其回答结果,我深刻感受到这些大模型的强大

    2024年02月10日
    浏览(54)
  • 检测文本是否由AI生成,GPT、文心一言等均能被检测

    目前很多机构推出了ChatGPT等AI文本检测工具,但是准确率主打一个模棱两可,基本和抛硬币没啥区别。 先说结论,我们对比了常见的几款AI检测工具,copyleaks检测相比较而言最准确。 来源:GPT3.5 提问词:Redis有什么作用? Redis是一种开源的内存数据库,它具有多种作用和用途

    2024年02月14日
    浏览(71)
  • 无限上下文,多级内存管理!突破ChatGPT等大语言模型上下文限制

    目前,ChatGPT、Llama 2、文心一言等主流大语言模型,因技术架构的问题上下文输入一直受到限制,即便是Claude 最多只支持10万token输入,这对于解读上百页报告、书籍、论文来说非常不方便。 为了解决这一难题,加州伯克利分校受操作系统的内存管理机制启发,提出了MemGPT。

    2024年02月06日
    浏览(64)
  • 文心一言 —— 中国的语言大模型

    在人工智能和自然语言处理领域,语言模型的发展正在引领一场技术革命。在这场革命中,中国的文心一言作为一颗新星,正以其独特的能力和特性引起广泛关注。 文心一言是中国自主开发的大型语言模型,它集合了先进的机器学习技术和大量的语料数据,旨在更好地理解和

    2024年01月19日
    浏览(45)
  • 百度“文心一言”大模型(ERNIE)发布了,对标ChatGPT

    大家好,我是微学AI,今天给大家介绍一下基于大语言模型的背景下,国内外的发展现状,以及百度的“文心一言”大模型。 一、自然语言处理模型的发展 自然语言处理(NLP)大模型的发展可以追溯到早期的简单的规则模型,再到后的机器学习,近十年崛起的神经网络和深度学

    2024年01月17日
    浏览(49)
  • 文心一言初体验,和ChatGPT语言理解能力比较

    百度旗下AI大模型文心一言宣布向全社会全面开放,所有用户都可以体验这款AI大模型了。要比较这两个语言模型,我们先设计好题目。 题目1:如果我给你一个题目,你可以帮我用python实现它吗?我的题目是如何用一行代码实现九九乘法口诀表。 题目2:请根据这行python代码,

    2024年02月10日
    浏览(63)
  • 大模型圆桌,ChatGPT、文心一言、讯飞星火如何看待「泛自动驾驶」

      2022年11月30日,ChatGPT横空出世,掀开了人工智能认知大模型的进化爆发序幕。半年以来,国内外科技公司不甘落后,相继推出各自的认知模型,试图在巨大时代浪潮里分得一杯羹。 那么,层出不穷的大模型如何看待人类所处的时代,如何分析未来的发展?作为泛自动驾驶领

    2024年02月13日
    浏览(75)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包