ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

这篇具有很好参考价值的文章主要介绍了ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在过去的几个月里,为了探索了 LLM 结合 SDLC、BizDevOps 的可能性,我们(Thoughtworks 开源社区)创建了 ClickPrompt、 AutoDev、DevTi 等一系列的开源项目。从个人的经验来看,未来越来越多的应用将围绕于 LLM@Core 设计,所以我们挖了一个新的坑、新的试验:ArchGuard Co-mate:https://github.com/archguard/comate,欢迎来入坑一起探索和研究。

Why is Co-mate ?

我们发起 Co-mate 项目的原因,可以归于:在 LLM 优先的应用开发时代,掌握相关的开发技能。这些相关的技能包含但是不限于:

  • 探索是否存在更好的交互模?如基于 Chat 的动态 UI(DSL)生成 等。

  • 适用于 JVM 体系下的 LLM 应用开发?如 JVM 版 LangChain、Embedding 等。

  • 如何辅助上下文理解、构建的本地小模型?即 Sentence Transformer + ONNX 的本地处理。

  • 如何设计新一代、适用于 LLM 的软件 API?即如何以确定性的方式与 ArchGuard API 交互。

  • 如何更好地构建上下文,以工程化的方式构建 AI 应用的上下文(即 prompt)?

而出于架构治理的场景,我们则是想探索:

  • 如何让 LLM 解释软件架构给人听?毕竟,让人理解构建都是一件费力的事情。

  • 如何让 LLM 基于代码、分层、依赖关系等,解释架构、业务?

  • 如何让 LLM 更好地理解规范,从文档出发,去设计软件架构?

每个问题都足够的有意思,并且具备一定的业务和技术复杂度,足以让我们掌握基于 LLM 的软件架构所需要考虑的因素。

What is Co-mate ?

作为一个探索性的项目,解释 Co-mate 的用途并不是一件容易的事情。一个架构师的助手能做到什么程度,我们还没有想得足够的清晰 —— 因为我们还没对架构的定义达到一致意见。

但是呢,先让我们看看 Co-mate 当前的处理流程:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

从表面上看,基本上和主流的 AI 应用没有区别;从实际代码上来看,和主流的 AI 应用也看不出多大的区别。还是让我们看看两个典型的 Co-mate 场景。

示例 1:介绍一下这个系统

当用户在 Co-mate 中去分析 Co-mate 时,会返回类似于如下的结果:

Co-mate 项目是一个 AI 助手应用程序,使用了 Jetpack Compose、RxJava、DataStore 等一系列相关的库来构建设计和治理工具等功能。该应用还使用了一些第三方库来构建用户界面,如 Coil-Compose、Voyager Navigator 等,以及进行深度学习推理任务,如 Kotlin Deep Learning API、Inference API 等。该应用需要考虑高效的算法和模型推理能力等非功能需求。

对于这个场景下,其数据处理过程如下:

  1. 匹配本地相关的指令(如 “分析系统”)

    1. 如果匹配到,则直接调用 AG API 来构建上下文。

    2. 如果没有匹配到,则调用 LLM 进行选择命令,然后可以调用 AG 原有 API。

  2. 调用 AG API 构建上下文(项目信息、软件依赖信息等)。

  3. 调用 LLM 进行总结,并返回给用户。

所以,我们尝试构建两个新的 API:本地语义分析、(动态)上下文收集 API。

示例 2:API 规范性检查

基于 ArchGuard 的能力,我们挑选的第二个场景是检查 API 是否规范。当你有一个 Controller 里的 API 需要检查是否符合 API 规范时,就可以执行: 检查 API 规范 。

假设你的 API 是: /api/blog/get ,并且已经通过 spec-partitioner (还没有实现)转换了你的 API 规范。

最后,Co-mate 会返回:

API '/api/blog/get' 不符合 URI 构造规范,Rule: uri construction regex: \/api\/[a-zA-Z0-9]+\/v[0-9]+\/[a-zA-Z0-9\/-]+,建议 API 修改为 '/api/blog/v1/get'。

(PS:垃圾 GPT 3.5 Turbo,居然认可了 /get)

所以,当你有了完整的架构规范时,那么就可以进入下一代架构生成:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

这也是我们想进一步探索的工作。

How Co-mate works ?

众所周知 GPT 充满了各种不确定性,人们对于 GPT 理解的能力也是不同的。因此,从架构设计的角度来说,我们需要分解 GPT 的原子能力,诸如于总结、分类、提取、翻译、逻辑推理,消除其中的不确定性因素,再由我们的软件封装 API 提供动态能力。

分层架构与 ArchGuard 能力映射

在示例 1 中,我们做的第一件是分解架构与数据按不同的架构元素分析。因为我们对于架构缺乏统一的定义,所以我从 Global 的 slides 找了一个适合于 LLM 理解的分层架构、并且也适用于 ArchGuard 表达。随后,构建了一个不太成功的分层与所需要的上下文数据映射:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

于是在示例 1 里,我们给的 prompt 模板是:

{xxx} 项目是一个 {channel type} 应用程序,使用了 Jetpack Compose、{xxx} 和一系列相关的库来构建 {xxx} 等功能。该应用还使用了一些第三方库来构建用户界面 {xxx},以及进行 {xxx} 等任务。该应用需要考虑 {xxx} 等非功能需求。

在这个 prompt 里,它依赖于两个主要数据:项目介绍与项目的技术栈(依赖信息)。技术栈可以直接从 ArchGuard SCA 中获取,而项目介绍则是从 README.md 中解析得到的。

LLM 与 Co-mate API 的能力映射

在示例 2 中,我们做的第一件事是分解 API 文档, 按不同 LLM 的原子能力进行分解。构建出四种不同的原子能力:

  • 推理出适用于 URI 的正则表达式。

  • 推理出一个合理的 example。

  • 提取一些 checklist,诸如于状态码、HTTP Action 等。

  • 将剩下的不确定性内容,扔到一起。

如下图所示:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

在右侧,我们则构建了一个 Kotlin Typesafe DSL,以动态的加载到系统中(未来),每一个函数对应到一个 Rule。

rest_api {
    uri_construction {
        rule("/api\\/[a-zA-Z0-9]+\\/v[0-9]+\\/[a-zA-Z0-9\\/\\-]+")
        example("/api/petstore/v1/pets/dogs")
    }
    http_action("GET", "POST", "PUT", "DELETE")
    status_code(200, 201, 202, 204, 400, 401, 403, 404, 500, 502, 503, 504)
    security("""Token Based Authentication (Recommended) Ideally, ...""")
    misc("""....""")
}

作为一个 demo,这个 DSL 依旧具备很大的完善空间。其中比较有意思的部分在于 security 和 misc 部分,这些不确定性正好适用于 LLM 进行推理。所以,在执行对应的 misc、security 规则检查时,会再调用 GPT 来检查:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

以将其中的确定性与不确定性更好的结合,进而充分地利用了 LLM 与 ArchGuard 的能力,并减少对 GPT 的消耗。

Welcome join us

下图是,当前 ArchGuard Co-mate 的所有模块:

ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索

简单介绍如下:

  • Comate-Core 提供了 CLI 和 GUI 所需要的基本能力,

  • Meta-Action 则是定义了基本的 Action

  • Architecture 定义了什么是 Co-mate 理解的架构

  • LLM-Core 则是对于 LLM 的调用 。

  • Spec Partitioner 则是计划对于规范的提取与自动生成(当前都是手动 prompt)

而我们在采用 JVM 技术栈的时候,遇到了几个坑 KotlinDL 和 Deep Java Library 都是通过 JNI/Rust 的方式调用了 HuggingFace Tokenizers、ONNX API,导致了应用在 macOS 下 crash。而一种理想的方式应该是通过 JSON RPC 的方式来调用,所以我们计划使用 Rust 构建一个新的模块:Comate Agent。

所以,如果你对使用 JVM 技术栈来开发 AI 应用,对 Rust 技术栈来开发 AI 应用,欢迎来加入我们。

总结

该文介绍了 Thoughtworks 开源社区创建的一系列开源项目,探索了大语言模型与架构治理、架构设计的可能性。其中,ArchGuard Co-mate 是一个探索性的项目,旨在探索架构师助手的能力,包括本地语义分析、动态上下文收集 API、架构规范检查等。文章还介绍了分层架构与 ArchGuard 能力映射、LLM 与 Co-mate API 的能力映射等内容。文章来源地址https://www.toymoban.com/news/detail-477464.html

到了这里,关于ArchGuard Co-mate:一次关于大语言模型与架构治理、架构设计的探索的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【译】关于大语言模型的一些直觉

    原作:jasonwei, 引言:如今,一个悬而未决的问题是,为什么大型语言模型如此有效。在这篇博文中,我将讨论有关大型语言模型的六个基本直觉。其中许多直觉受到手动检查数据的启发,这是一项我发现有帮助且会推荐的练习。   语言模型经过预训练,可以简单地预测文本

    2024年03月26日
    浏览(40)
  • 关于语言模型私有化部署的讨论 | AIGC实践

    上周在与TC同行关于AIGC实践的线上交流中,大家普遍比较关心的一个实践切入点是:语言模型的私有化部署——简单来说,就是在企业内部,部署一个属于自己的“ChatGPT”,对于本行业/专业知识,以及企业独有的产品和技术信息有充分的了解,并且提供用户接口,通过自然

    2024年02月11日
    浏览(69)
  • 关于大语言模型LLM插件和Agent的一些想法

    What is a Plugin? A  plugin  is a software add-on that is installed on a program, enhancing its capabilities. For example, if you wanted to watch a video on a website, you may need a plugin to do so. If the plugin is not installed, your browser will not understand how to play the video. 插件是安装在程序上的软件附加组件,目的是增强其功

    2024年02月04日
    浏览(44)
  • ChatGPT:基于GPT-3.5架构的强大语言模型

    这段时间,周围朋友们讨论最多的除了春招的激烈之外,就是ChatGPT了,大家被ChatGPT的智能和超强的学习能力所震惊,甚至担心未来会被人工智能所取代。 这样的担心不无道理,我们程序员作为技术人员,需要对新技术保持敏锐的嗅觉,以免被时代抛弃。但就我最近对ChatGP

    2024年02月07日
    浏览(49)
  • 大语言模型底层架构丨带你认识Transformer

    本文分享自华为云社区《大语言模型底层架构你了解多少?大语言模型底层架构之一Transfomer的介绍和python代码实现》,作者: 码上开花_Lancer 。 语言模型目标是建模自然语言的概率分布,在自然语言处理研究中具有重要的作用,是自然语言处理基础任务之一。大量的研究从

    2024年02月05日
    浏览(42)
  • 【人工智能】LLM 大型语言模型和 Transformer 架构简介

    目录 大型语言模型 (LLM) 一、LLM的起源 二、LLM的发展阶段 三、LLM的应用领域

    2024年02月14日
    浏览(65)
  • 关于生成式语言大模型的一些工程思考 paddlenlp & chatglm & llama

    生成式语言大模型,随着chatgpt的爆火,市场上涌现出一批高质量的生成式语言大模型的项目。近期百度飞桨自然语言处理项目paddlenlp发布了2.6版本。更新了以下特性:全面支持主流开源大模型Bloom, ChatGLM, GLM, Llama, OPT的训练和推理;Trainer API新增张量训练能力, 简单配置即可开

    2024年02月12日
    浏览(43)
  • 语言接口:探索大模型优先架构的新一代 API 设计

    过去的两三个月里,在开发基于大语言模型的软件时,也一直在思考如何设计一个大模型优先架构。而随着越来越多的团队加入到这场竞赛里,我们会发现:基于大语言模型的软件架构与过去的不同之处,诸如于:我们需要新一代的 API。 我暂时将这一代 API 称为:语言接口

    2024年02月09日
    浏览(45)
  • 大语言模型之六- LLM之企业私有化部署架构

    2023年上半年,广泛使用API(如OpenAI)来创建基于大型语言模型(LLM)的基础设施,极大地塑造了软件领域。 LangChain 和LlamaIndex在这一趋势中发挥了重要的作用。2023年下半年LLMOps的运维工作流程中微调(或指令调整)模型门槛降低基本成了业内标准流程,这一趋势的发展主要

    2024年01月19日
    浏览(56)
  • OpenAI开发系列(二):大语言模型发展史及Transformer架构详解

    全文共1.8w余字,预计阅读时间约60分钟 | 满满干货,建议收藏! 在2020年秋季,GPT-3因其在社交媒体上病毒式的传播而引发了广泛关注。这款拥有超过1.75亿参数和每秒运行成本达到100万美元的大型语言模型(Large Language Models,LLMs)开启了自然语言处理(NLP)领域的新纪元。

    2024年02月07日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包