webrtc Thread 和 TaskQueue 的 应用和思考

这篇具有很好参考价值的文章主要介绍了webrtc Thread 和 TaskQueue 的 应用和思考。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

webrtc Thread 和 TaskQueue 的 应用和思考

Thread

#include "rtc_base/thread.h"

void FunctionToRunOnThread() {
    // Your threaded logic here.
    printf("Function running on the thread!\n");
}

int main() {
    rtc::Thread* thread = rtc::Thread::Create().release();
    thread->Start();

    // Send a task to the thread.
    thread->Invoke<void>(RTC_FROM_HERE, &FunctionToRunOnThread);

    // Cleanup.
    thread->Stop();
    delete thread;

    return 0;
}

为什么要在Create 后调用release:rtc::Thread* thread = rtc::Thread::Create().release();

这种写法的目的是获取std::unique_ptr管理的原始指针,并确保std::unique_ptr不会在作用域结束后自动删除它。

当你调用rtc::Thread::Create()时,这个函数返回一个std::unique_ptr<rtc::Thread>对象。这个std::unique_ptr对象拥有一个rtc::Thread的实例,当这个std::unique_ptr对象超出作用域或被销毁时,它会自动删除这个rtc::Thread实例。

当你调用release()方法时,你实际上是在告诉std::unique_ptr放弃对rtc::Thread的所有权。这意味着std::unique_ptr不再拥有这个对象,并且在std::unique_ptr销毁时不会删除它。这就允许你手动管理这个对象的生命周期。

** 所以 release 是 std::unique_ptr 的方法。**

TaskQueue

#include "rtc_base/task_queue.h"

void FunctionToRunOnQueue() {
    // Your task logic here.
    printf("Function running on the task queue!\n");
}

int main() {
    rtc::TaskQueue task_queue("MyTaskQueue");

    // Post a task to the queue.
    task_queue.PostTask(RTC_FROM_HERE, &FunctionToRunOnQueue);

    // The task queue will automatically handle the task. 
    // For the sake of this example, just wait a bit to let the task run.
    rtc::Thread::Current()->SleepMs(100);

    return 0;
}

RTC_FROM_HERE 是 WebRTC 代码库中用于标识代码位置的宏。它通常与日志、断言和任务调度等功能一起使用,以提供源代码中的文件名和行号信息。

例如,当你在 WebRTC 中遇到一个断言失败或者想要追踪一个特定的日志事件,RTC_FROM_HERE 会提供一个表示代码位置的rtc::Location对象,这样你可以知道是哪个文件的哪一行产生了这个事件或错误。

它的定义大致如下:

#define RTC_FROM_HERE rtc::Location(__FILE__, __LINE__)

webrtc::Threadwebrtc::TaskQueue 为什么不单独编译成so 给webrtc使用 而将 源码集成到webrtc 中,他们不是解耦的吗?

webrtc::Threadwebrtc::TaskQueue直接集成到 WebRTC 源码中,而不是编译为单独的 .so (shared object) 文件或库,是基于几个原因的决策:

  1. 紧密集成: 尽管webrtc::Threadwebrtc::TaskQueue作为组件是相对独立的,但它们与 WebRTC 的其他部分有着紧密的交互和依赖关系。将它们与核心代码紧密集成可以确保更好的性能和优化。

  2. 编译和链接优化: 将所有组件编译到一个单一的二进制文件中允许编译器进行更多的跨模块优化。这可能会导致更快的代码和更小的二进制大小。

  3. 简化部署和分发: 不需要管理、分发和链接多个.so文件可以简化应用程序的部署和分发。此外,这可以确保版本兼容性,因为所有组件都是从同一源码树构建的。

  4. 避免 ABI (Application Binary Interface) 的问题: ABI 是二进制代码如何在运行时调用和使用的一个规范。不同的编译器、编译器版本或编译器标志可能会导致不同的 ABI。将所有东西编译到一个库中可以避免潜在的 ABI 兼容性问题。

  5. 维护和开发效率: 在单一的代码库中工作可以简化开发流程,特别是当需要跨多个组件进行更改时。

  6. 安全性: 将所有组件紧密集成可以确保一致的安全实践和策略。此外,避免加载外部.so文件还可以减少潜在的安全风险。文章来源地址https://www.toymoban.com/news/detail-645670.html

到了这里,关于webrtc Thread 和 TaskQueue 的 应用和思考的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【WebRTC】音视频通信

    WebRTC对等体还需要查找并交换本地和远程音频和视频媒体信息,例如分辨率和编解码器功能。 交换媒体配置信息的信令通过使用被称为SDP的会话描述协议格式来交换,被称为提议和应答的元数据块 一方发起调用 getUserMedia 打开本地摄像头 媒体协商(信令交换,媒体协商主要

    2024年02月07日
    浏览(54)
  • WebRTC音视频通话-WebRTC本地视频通话使用ossrs服务搭建

    iOS开发-ossrs服务WebRTC本地视频通话服务搭建 之前开发中使用到了ossrs,这里记录一下ossrs支持的WebRTC本地服务搭建。 ossrs是什么呢? SRS(Simple Realtime Server)是一个简单高效的实时视频服务器,支持RTMP、WebRTC、HLS、HTTP-FLV、SRT等多种实时流媒体协议。 官网地址:https://ossrs.net/lt

    2024年02月12日
    浏览(43)
  • mediasoup webrtc音视频会议搭建

    拉下源码: https://github.com/versatica/mediasoup-demo 源码里有以下目录其中,app网页的界面终端,broadcasters是广播,也就是他支持我们用ffmpeg推流上去给所有的成员广播,server是流媒体服务器。 源码包含了,https服务器用于浏览器获取界面,信令服务器用于房间管理,和流媒体服务

    2024年02月05日
    浏览(42)
  • WebRTC音视频会议底层支撑技术

    WebRTC允许应用使用P2P通信。WebRTC是一个广泛的话题,在本文中,我们将重点讨以下问题。 为什么Web RTC 如此受欢迎? 在P2P连接过程中会发生什么 信号传递 NATs和ICE STUN TURN服务器 VP9视频编解码器 WebRTC APIs 安全 1.为什么Web RTC 如此受欢迎? 开放源代码 它为浏览器提供了端到端

    2024年02月11日
    浏览(57)
  • webRTC一对一音视频对话

    环境 阿里云操作系统: ubuntu 18.4 amd         注意:安全组一定添加对应的入口端口 nodejs -v 18.19.0 npm -v 10.2.3 需要安装的库 package.json 服务器端         webRTC一定要使用https服务器,如果没有ssl证书,可以使用自制证书         1.创建HTTPS服务器                 使用soc

    2024年01月19日
    浏览(57)
  • WebRTC实战-第二章-使用WebRTC实现音视频通话

    、 什么是WebRTC|WebRTC入门到精通必看|快速学会音视频通话原理|WebRTC超全资料分享FFmpeg/rtmp/hls/rtsp/SRS WebRTC **WebRTC详细指南** http://www.vue5.com/webrtc/webrtc.html WEBRTC三种类型(Mesh、MCU 和 SFU)的多方通信架构 WebRTC API包括媒体捕获,音频和视频编码和解码,传输层和会话管理 。 假设

    2023年04月12日
    浏览(50)
  • WebRTC音视频通话-RTC直播本地视频及相册视频文件

    WebRTC音视频通话-RTC直播本地视频及相册视频文件 WebRTC音视频通话-RTC直播本地视频文件效果图如下 WebRTC音视频通话-RTC直播本地视频文件时候,用到了AVPlayer、CADisplayLink。 AVPlayer是什么? AVPlayer是基于AVFoundation框架的一个类,很接近底层,灵活性强,可以自定义视频播放样式

    2024年02月13日
    浏览(48)
  • WebRTC | 音视频直播客户端框架

            端到端通信互动技术可分解为以下几个技术难点:客户端技术、服务器技术、全球设备网络适配技术和通信互动质量监控与展示技术。         音视频直播可分成两条技术路线:一条是以音视频会议为代表的实时互动直播;另一条是以娱乐直播为代表的流媒体

    2024年02月14日
    浏览(46)
  • WebRTC音视频通话-WebRTC推拉流过程中日志log输出

    WebRTC音视频通话-WebRTC推拉流过程中日志log输出 之前实现iOS端调用ossrs服务实现推拉流流程。 推流:https://blog.csdn.net/gloryFlow/article/details/132262724 拉流:https://blog.csdn.net/gloryFlow/article/details/132417602 在推拉流过程中的WebRTC的相关日志log输出可以看到一些相关描述信息。在WebRTC日志

    2024年02月10日
    浏览(55)
  • WebRTC音视频通话-实现GPUImage视频美颜滤镜效果iOS

    WebRTC音视频通话-实现GPUImage视频美颜滤镜效果 在WebRTC音视频通话的GPUImage美颜效果图如下 可以看下 之前搭建ossrs服务,可以查看:https://blog.csdn.net/gloryFlow/article/details/132257196 之前实现iOS端调用ossrs音视频通话,可以查看:https://blog.csdn.net/gloryFlow/article/details/132262724 之前WebR

    2024年02月12日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包