python-pytorch实现skip-gram 0.5.001

这篇具有很好参考价值的文章主要介绍了python-pytorch实现skip-gram 0.5.001。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

数据加载、切词

按照链接https://blog.csdn.net/m0_60688978/article/details/137538274操作后,可以获得的数据如下文章来源地址https://www.toymoban.com/news/detail-853742.html

  1. wordList 文本中所有的分词,放入这个数组中
  2. raw_text 这个可以忽略,相当于wordlist的备份,防止数据污染了
  3. vocab 将wordList转变为set,即set(wordList)
  4. vocab_size 所有分词的个数
  5. word_to_idx 字典格式,汉字对应索引
  6. idx_to_word 字典格式,索引对应汉字

准备训练数据

data3 = []
window_size1=2
for i,word in enumerate(raw_text):
    target = raw_text[i]
    contexts=raw_text[max(i - window_size1, 0): min(i + window_size1 + 1, len(raw_text))]
    for context in contexts:
        if target!=context:
            data3.append((context,target))
data3,len(data3)

准备模型和参数

# 超参数
learning_rate = 0.003
device = torch.device('cpu')
embedding_dim = 100
epoch = 10
class SkipGramModel(nn.Module):
    def __init__(self, vocab_size, embedding_dim):
        super(SkipGramModel, self).__init__()
        self.embedding = nn.Embedding

到了这里,关于python-pytorch实现skip-gram 0.5.001的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python-pytorch基础之神经网络分类

    执行的命令: print(out,“======”,y,“+++++”,(out.argmax(dim=1)==y).sum().item()) print(out.argmax(dim=1),“------------”,(out.argmax(dim=1)==y),“~~~~~~~~~~~”,(out.argmax(dim=1)==y).sum()) 输出的结果: tensor([[9.9999e-01, 1.4671e-05], tensor([0, 1, 1, 1, 0, 1, 1, 0, 0]) ------------ tensor([ True, True, True, True, True, True, True,

    2024年02月14日
    浏览(31)
  • python-pytorch基础之神经网络回归

    从上面结果看 第一列是预测的,第二列是实际的,可以查看两列值相差很小,说明模型有效

    2024年02月15日
    浏览(38)
  • python-pytorch 如何使用python库Netron查看模型结构(以pytorch官网模型为例)0.9.2

    2024年4月27日14:32:30----0.9.2 以pytorch官网的tutorial为观察对象,链接是https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html 模型代码如下 pip install netron即可 其他安装方式参考链接 https://blog.csdn.net/m0_49963403/article/details/136242313 随便找一个地方打个点,如sample方法中 结果

    2024年04月29日
    浏览(36)
  • 小土堆pytorch学习笔记001

    目录 1、Pytorch环境的配置与安装。 2、pytorch编辑器的选择 (1)pycharm (下载社区版) (2)jupyter (可以交互) 3、为什么torch.cuda.is_available()返回False 4、python学习中的两大法宝函数 (1)dir() 函数:打开、看见 (2)help()函数:说明书 5、Pycharm 及Jupyter的使用对比: (1)Pych

    2024年01月25日
    浏览(34)
  • 基于飞桨实现的特定领域知识图谱融合方案:ERNIE-Gram文本匹配算法

    文本匹配任务在自然语言处理领域中是非常重要的基础任务,一般用于研究两段文本之间的关系。文本匹配任务存在很多应用场景,如信息检索、问答系统、智能对话、文本鉴别、智能推荐、文本数据去重、文本相似度计算、自然语言推理、问答系统、信息检索等,这些自然

    2023年04月09日
    浏览(36)
  • Python习题集001

    1.运用输入输出函数编写程序,将华氏温度转换为摄氏温度,换算公式:C=(F-32)*5/9,其中C为摄氏温度,F为华氏温度。 2.编写程序,根据输入的长和宽,计算矩形的面积并输出。 3.编写程序,输入三个学生的成绩计算平均分并输出。 6.为了给孩子储备教育基金,希望在孩子

    2023年04月14日
    浏览(37)
  • 头歌答案Python,001

    金宝,答案在这里,自己抄。 1,第一关,计算机 2,第1关:练习-Python函数之变量的作用域 3, 第1关 练习-Python函数之函数返回值

    2024年02月08日
    浏览(35)
  • 用python画一些有趣的图案(001)

    1、python画迪斯科灯  2、Python画随机雨点  3、Python画五彩螺旋 五彩螺旋2    

    2024年02月11日
    浏览(48)
  • 前端实现表格生成序号001、002、003自增

    我们最终想要实现的效果如图,从后端获取数据之后,不使用data中的id,而是使用自己生成的按照顺序自增的序号id。 script 简单解释一下这段代码,大致思路就是接受到后端传来的数据后,不调用id。而是自定义序号 先看这段代码 具体来说: index:是一个数字,表示当前元

    2024年01月17日
    浏览(39)
  • Pytorch+Python实现人体关键点检测

    用Python+Pytorch工程代码对人体进行关键点检测和骨架提取,并实现可视化。 物体检测为许多视觉任务提供动力,如实例分割、姿态估计、跟踪和动作识别。它在监控、自动驾驶和视觉答疑中有下游应用。当前的对象检测器通过紧密包围对象的轴向包围框来表示每个对象。然后

    2024年02月09日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包