本地构建自己的chatgpt已成为可能,国外团队从GPT3.5提取大规模数据完成本地机器人训练,并开源项目源码和模型支持普通在笔记上运行chatgpt

这篇具有很好参考价值的文章主要介绍了本地构建自己的chatgpt已成为可能,国外团队从GPT3.5提取大规模数据完成本地机器人训练,并开源项目源码和模型支持普通在笔记上运行chatgpt。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

国外团队从GPT3.5提取大规模数据完成本地机器人训练,并开源项目源码和模型支持,普通在笔记上运行chatgpt。下面是他们分享的:收集到的数据、数据管理程序、训练代码和最终模型,以促进开放研究和可重复性。

本地构建自己的chatgpt已成为可能,国外团队从GPT3.5提取大规模数据完成本地机器人训练,并开源项目源码和模型支持普通在笔记上运行chatgpt

1、数据收集和管理

在 2023 年 3 月 20 日至 2023 年 3 月 26 日期间,该团队使用 GPT-3.5-Turbo OpenAI API 收集了大约 100 万个提示-响应对。为此,我们首先通过利用三个公开可用的数据集收集了不同的问题提示样本:

• The unified chip2 subset of LAION OIG.
• Coding questions with a random sub-sample of Stackoverflow Questions(用 Stackoverflow 问题的随机子样本来编码问
题)
• Instruction-tuning with a sub-sample of Bigscience/P3(使用 Big- science/P3 的子样本进行指令调优)

他们选择在斯坦福羊驼项目(Taori et al., 2023)的评论基础上,将大量注意力放在数据准备和管理上。在收集了提示生成对的初始数据集之后,我
们将数据加载到 Atlas 中进行数据管理和清理。使用 Atlas,我们删除了所有 GPT-3.5-Turbo 无法响应提示并产生畸形输出的例子。这将他们的示例总数减少到 806,199 对高质量的提示生成对。接下来,他们决定从最终训练数据集中移除整个Bigscience/P3 子集,文章来源地址https://www.toymoban.com/news/detail-420307.html

到了这里,关于本地构建自己的chatgpt已成为可能,国外团队从GPT3.5提取大规模数据完成本地机器人训练,并开源项目源码和模型支持普通在笔记上运行chatgpt的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包