Embedding 向量生成GPT数据使用相关

这篇具有很好参考价值的文章主要介绍了Embedding 向量生成GPT数据使用相关。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

如果使用python3.6的版本,使用pycharm创建工程,那么默认会使用 docx包,这样运行程序会爆异常,突然想起以前请教的一个大神,想当 初,这个问题困扰了我 两天时间,在此记录一下:

python-docx

Embedding 向量生成GPT数据使用相关,embedding,gpt

一直报这个错误:

Embedding 向量生成GPT数据使用相关,embedding,gpt

解决办法: 

修改注册表信息
参考:https://github.com/pypa/pip/issues/7424#issuecomment-589675343 和
http://www.noobyard.com/article/p-shumspjw-vm.html

Step 1:
Press Win+R to open Run, type in “regedit” and click OK.
Step 2:
Move to HKEY_CURRENT_USER/Software/Microsoft/Windows/Current Version/Internet Settings.
Step 3:
Find a file with the name ‘ProxyServer’ and 将值修改为0.
注意:修改为0之后就不能使用代理科学上网了,下载好包之后,可以再改成1。
 

Embedding 向量生成GPT数据使用相关,embedding,gpt

Embedding 向量生成GPT数据使用相关,embedding,gpt 

 

 

 

Embedding 向量生成GPT数据使用相关,embedding,gpt

代码 头部网络代理 使用示例: Embedding 向量生成GPT数据使用相关,embedding,gpt

 pip install pinecone-clientEmbedding 向量生成GPT数据使用相关,embedding,gpt

 pip install flask -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com

Embedding 向量生成GPT数据使用相关,embedding,gpt

 

python记事本:

pip install xxx   --user  会安装到系统的python里面 而不是 anaconda里面的python。别用

安装库时候后面加   -i https://pypi.tuna.tsinghua.edu.cn/simple   可以使用清华源

如果报:Embedding 向量生成GPT数据使用相关,embedding,gpt

就将注册表的  计算机\HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Internet Settings

里面的 ProxyEnable  代理值先 改为0,实际运行代码时候再改回去!

最后 项目环境中拥有的模块列表:(不一定全用到。)文章来源地址https://www.toymoban.com/news/detail-665046.html

pip list --format=columns

Package                      Version
---------------------------- ---------
absl-py                      1.4.0
aiohttp                      3.8.5
aiosignal                    1.3.1
astunparse                   1.6.3
async-timeout                4.0.3
attrs                        23.1.0
blinker                      1.6.2
cachetools                   5.3.1
certifi                      2023.7.22
charset-normalizer           3.2.0
click                        8.1.3
colorama                     0.4.6
dnspython                    2.4.2
docx                         0.2.4
filelock                     3.12.2
Flask                        2.3.2
flatbuffers                  23.5.26
frozenlist                   1.4.0
fsspec                       2023.6.0
gast                         0.4.0
google-auth                  2.22.0
google-auth-oauthlib         1.0.0
google-pasta                 0.2.0
grpcio                       1.57.0
h5py                         3.9.0
huggingface-hub              0.16.4
idna                         3.4
importlib-metadata           6.8.0
itsdangerous                 2.1.2
Jinja2                       3.1.2
joblib                       1.3.2
keras                        2.13.1
libclang                     16.0.6
loguru                       0.7.0
lxml                         4.9.3
Markdown                     3.4.4
MarkupSafe                   2.1.3
mpmath                       1.3.0
multidict                    6.0.4
networkx                     3.1
numpy                        1.24.3
oauthlib                     3.2.2
openai                       0.27.8
opt-einsum                   3.3.0
packaging                    23.1
pandas                       2.0.3
Pillow                       10.0.0
pinecone-client              2.2.2
pip                          23.2.1
protobuf                     4.24.1
pyasn1                       0.5.0
pyasn1-modules               0.3.0
python-dateutil              2.8.2
python-docx                  0.8.11
pytz                         2023.3
PyYAML                       6.0.1
regex                        2023.8.8
requests                     2.31.0
requests-oauthlib            1.3.1
rsa                          4.9
safetensors                  0.3.2
scikit-learn                 1.3.0
scipy                        1.10.1
setuptools                   68.0.0
six                          1.16.0
sklearn                      0.0.post7
sympy                        1.12
tensorboard                  2.13.0
tensorboard-data-server      0.7.1
tensorflow                   2.13.0
tensorflow-estimator         2.13.0
tensorflow-intel             2.13.0
tensorflow-io-gcs-filesystem 0.31.0
termcolor                    2.3.0
threadpoolctl                3.2.0
tokenizers                   0.13.3
torch                        2.0.1
tqdm                         4.66.1
transformers                 4.31.0
typing_extensions            4.5.0
tzdata                       2023.3
urllib3                      1.26.16
Werkzeug                     2.3.7
wheel                        0.38.4
win32-setctime               1.1.0
wrapt                        1.15.0
yarl                         1.9.2
zipp                         3.16.2

到了这里,关于Embedding 向量生成GPT数据使用相关的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大模型必备 - 中文最佳向量模型 acge_text_embedding

    近期,上海合合信息科技股份有限公司发布的文本向量化模型 acge_text_embedding 在中文文本向量化领域取得了重大突破,荣获 Massive Text Embedding Benchmark (MTEB) 中文榜单(C-MTEB)第一名的成绩。这一成就标志着该模型将在大模型领域的应用中发挥更加迅速和广泛的影响。 假设你需

    2024年04月25日
    浏览(29)
  • 2.自然语言处理NLP:词映射为向量——词嵌入(word embedding)

    1. 什么是词嵌入(word2vec) : 把词映射为向量(实数域)的技术 2. 为什么不采用one-hot向量: one-hot词向量无法准确表达不同词之间的相似度,eg:余弦相似度,表示夹角之间的余弦值,无法表达不同词之间的相似度。 3. word2vec主要包含哪两个模型 跳字模型: 基于某个词生成

    2024年02月06日
    浏览(50)
  • pytorch nn.Embedding 读取gensim训练好的词/字向量(有例子)

      *也许看了上面你依然会一脸懵(别着急,下面给你举个例子)

    2024年02月07日
    浏览(36)
  • 使用Langchain+GPT+向量数据库chromadb 来创建文档对话机器人

    使用Langchain+GPT+向量数据库chromadb 来创建文档对话机器人 文件存放地址 参考: https://python.langchain.com/docs/use_cases/chatbots https://python.langchain.com/docs/integrations/vectorstores/chroma https://blog.csdn.net/v_JULY_v/article/details/131552592?ops_request_misc=%257B%2522request%255Fid%2522%253A%252216945020581680022659096

    2024年02月03日
    浏览(40)
  • 使用GPT-4生成训练数据微调GPT-3.5 RAG管道

    OpenAI在2023年8月22日宣布,现在可以对GPT-3.5 Turbo进行微调了。也就是说,我们可以自定义自己的模型了。然后LlamaIndex就发布了0.8.7版本,集成了微调OpenAI gpt-3.5 turbo的功能 也就是说,我们现在可以使用GPT-4生成训练数据,然后用更便宜的API(gpt-3.5 turbo)来进行微调,从而获得

    2024年02月09日
    浏览(43)
  • 详解AI大模型行业黑话,迅速搞懂提示工程(prompt)、向量工程(embedding)、微调工程(fine-tune)

    大家都在讨论大模型,似乎什么都可以与大模型结合,可当初学者也想上手时,却面临一堆令人头大的词汇,什么Prompt、、Embedding、Fine-tuning,看到瞬间头都大了。一堆英文就算了,还不容易查到正确解释,怎么办呢?别担心,本文就用一种有趣的方式让大家认识它们。 首先

    2024年02月02日
    浏览(40)
  • 基于GPT3.5实现本地知识库解决方案-利用向量数据库和GPT向量接口-实现智能回复并限制ChatGPT回答的范围...

    标题有点长,但是基本也说明出了这篇文章的主旨,那就是利用GPT AI智能回答自己设置好的问题 既能实现自己的AI知识库机器人,又能节省ChatGPT调用的token成本费用。 代码仓库地址 document.ai: 基于GPT3.5的通用本地知识库解决方案 下面图片是整个流程: 导入知识库数据 利用

    2024年02月02日
    浏览(48)
  • 大语言模型Prompt工程之使用GPT4生成图数据库Cypher

    Here’s the table of contents:     使用GPT4测试了生成Cypher的能力,没想到大型语言模型(LLM,Large Language Model)效果能好成这样,非常惊艳!     之前的文章中介绍了,使图数据库快速搭建一个可配置图谱问答系统的功能。其中Cypher的解析、组合生成和意图识别等能力是依赖于

    2023年04月22日
    浏览(39)
  • 大语言模型Prompt工程之使用GPT3.5生成图数据库Cypher

    Here’s the table of contents:     使用GPT3.5测试了生成Cypher的能力,相比于GPT4生成Cypher的能力,GPT3.5对于自然语言任务指令的理解稍差一些。     通过测试发现,设计合适的Prompt工程以后,GPT3.5可以基于样例准确生成Cypher,但是对于样例没有覆盖的问句,Cypher经常会错误生成

    2024年02月05日
    浏览(46)
  • Pytorch常用的函数(二)pytorch中nn.Embedding原理及使用

    图像数据表达不需要特殊的编码,并且有天生的顺序性和关联性,近似的数字会被认为是近似的特征。 正如图像是由像素组成,语言是由词或字组成,可以把语言转换为词或字表示的集合。 然而,不同于像素的大小天生具有色彩信息,词的数值大小很难表征词的含义。最初

    2024年02月09日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包