LU-ASR01语音模块

这篇具有很好参考价值的文章主要介绍了LU-ASR01语音模块。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.LU-ASR01语音模块介绍

该模块一共有 8 个 I/O口,1 路串口 Tx、Rx,1 路传感器接口.其中 I/O口1-6可以输出 PWM 信 号,I/O7、I/O8 不能输出 PWM 信号.DHT 接口可接 DHT11 模块或 DS18B20 模块,对应的软件上要选对传感器型号和播报类型,DHT11 只能选温湿度进行播报,DS18B20 只能选择温度进行播报.

LU-ASR01语音模块

2.怎么使用语音模块

  • 安装软件——天问Block

软件下载地址:http://www.haohaodada.com/new/twen51/index.php

  • 安装串口驱动

百度网盘链接:https://pan.baidu.com/s/1mWOQ7IYT0uAxVL1_hvV_gQ

提取码:lc66文章来源地址https://www.toymoban.com/news/detail-468978.html

  • 软件功能配置

LU-ASR01语音模块

首先新建应用,如图所示,确认串口是否连接,上图串口连接的是COM4口;然后在界面中点击设备.

LU-ASR01语音模块

点击设备会出现上图界面选择主板TWEN-ASR,至此软件配置完成.

  • 如何成功烧录代码

LU-ASR01语音模块

上图为简单测试例程,当图形编程完后,先点击生成模型,模型生成成功后,再点击编译,编译成功后,代码就成功烧录进模块.

  • 注意事项

COM口和设备主板一定要选择正确,否则就会烧录失败,烧录需用type-c数据线连接模块的type-c接口;同时上述都没问题,但是还是烧录失败,大概率是图形编程存在问题.

3.资料领取:

  • 简单应用案例

链接:https://pan.baidu.com/s/1Y0_7UVMQbTShZnNjdTEHHA

提取码:lc66

  • 操作视频

链接:https://pan.baidu.com/s/1QhVnLaPVVWzuoYJ4x22ZtA

提取码:lc66

到了这里,关于LU-ASR01语音模块的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • STM32使用ASR01语音播报模块

    先下载天问block软件 点击这里下载天问block  选上设备:  添加扩展:   自己再根据鹿小班模块进行操作进行相关操作,先接上usb数据线 记得先生成模型再去编译下载    发送给单片机通信时只需要vcc gnd 还有tx接上单片机rx,如果想用stm32控制语音模块,可以接线,让asr01读

    2024年02月16日
    浏览(100)
  • 通过串口中断的方式进行ASR-01S模块与STM32通信(问题与解决)

    最近在做一个智能家居的项目,需要实现语音控制的功能,于是我选用了ASR-01S模块与STM32通信,这个模块最大的好处在于有配套的编程软件和语音库,不用自己训练且编程简单(少儿编程的程度)。ASR-01S的代码架构在这不多说,总之在收到语音后它会通过串口发送一串命令给

    2024年04月22日
    浏览(53)
  • 语音识别 - ASR whisper

    目录 1. 简单介绍 2. 代码调用 Introducing Whisper https://openai.com/blog/whisper/ OpenAI 的开源自动语音识别神经网络 whisper 安装 Python 调用

    2024年02月12日
    浏览(44)
  • ASR项目实战-语音识别

    本文深入探讨语音识别处理环节。 本阶段的重点特性为语音识别、VAD、热词、文本的时间偏移、讲话人的识别等。 业界流派众多,比如Kaldi、端到端等,具体选择哪一种,需要综合考虑人员能力、训练数据量和质量、硬件设施、交付周期等,作出相对合理的交付规划。 基于

    2024年02月04日
    浏览(49)
  • 开源(离线)中文语音识别ASR(语音转文本)工具整理

    开源(离线)中文语音识别ASR(语音转文本)工具整理 Open AI在2022年9月21日开源了号称其英文语音辨识能力已达到人类水准的Whisper神经网络,且它亦支持其它98种语言的自动语音辨识。 Whisper系统所提供的自动语音辨识(Automatic Speech Recognition,ASR)模型是被训练来运行语音辨识与翻

    2024年02月13日
    浏览(70)
  • ASR 语音识别接口封装和分析

    这个文档主要是介绍一下我自己封装了 6 家厂商的 短语音识别 和 实时流语音识别 接口的一个包,以及对这些接口的一个对比。分别是,阿里,快商通,百度,腾讯,科大,字节。 zxmfke/asrfactory (github.com) 之前刚好在测试各家的语音识别相关功能,但是每家的返回值都不同,

    2024年02月13日
    浏览(56)
  • Python使用PaddleSpeech实现语音识别(ASR)、语音合成(TTS)

    目录 安装 语音识别 补全标点 语音合成 参考 PaddleSpeech是百度飞桨开发的语音工具 注意,PaddleSpeech不支持过高版本的Python,因为在高版本的Python中,飞桨不再提供paddle.fluid API。这里面我用的是Python3.7 需要通过3个pip命令安装PaddleSpeech: 在使用的时候,urllib3库可能会报错,因

    2024年04月25日
    浏览(43)
  • Python使用whisper实现语音识别(ASR)

    目录 Whisper的安装 Whisper的基本使用 识别结果转简体中文 断句 Whisper是OpenAI的一个强大的语音识别库,支持离线的语音识别。在使用之前,需要先安装它的库: 使用whisper,还需安装setuptools-rust: 但是,whisper安装时,自带的pytorch可能有些bug,因此需要卸载重装: 卸载: 重装

    2024年03月20日
    浏览(62)
  • ASR(自动语音识别)任务中的LLM(大语言模型)

    浅度融合 浅层融合指的是 LLM 本身并没有和音频信息进行直接计算。其仅对 ASR 模型输出的文本结果进行 重打分 或者 质量评估 。 深度融合 LLM 与 ASR 模型进行深度结合,统一语音和文本的编码空间或者直接利用 ASR 编码器的隐状态参与计算,利用大语言模型的能力得到更好的

    2024年02月12日
    浏览(49)
  • 音频深度学习变得简单:自动语音识别 (ASR),它是如何工作的

            在过去的几年里,随着Google Home,Amazon Echo,Siri,Cortana等的普及,语音助手已经无处不在。这些是自动语音识别 (ASR) 最著名的示例。此类应用程序从某种语言的语音音频剪辑开始,并将说出的单词提取为文本。因此,它们也称为语音转文本算法。         

    2024年02月15日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包