一维热传导方程的推导

这篇具有很好参考价值的文章主要介绍了一维热传导方程的推导。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一维热传导方程的推导

模型建立

考虑一根具有定横截面积 A A A的杆,其方向为 x x x轴的方向(由 x = 0 x=0 x=0 x = L x=L x=L),如图1所示。

设单位体积的热能量为未知变量,叫做热能密度: e ( x , t ) e(x,t) e(x,t)

假设通过截面的热量是恒定的,杆是一维的。做到这一点的最简单方法是将杆的侧面完全绝热,这样热能就不能通过杆的侧面扩散出去。

x x x t t t的依赖对应于杆受热不均匀的情形;热能密度由一个截面到另一个截面是变化的。

热能守恒

考察杆介于 x x x x + Δ x x+\Delta x x+Δx之间的薄片,如图1所示。若热能密度在薄片内是常数,则薄片内的总能量是热能密度和体积(即横截面积乘以长度)的乘积:

E ( x , t ) = e ( x , t ) A Δ x E(x,t)=e(x,t)A\Delta x E(x,t)=e(x,t)AΔx

如果我们想知道薄片内部温度随时间变化多快,我们需要知道有多少热量进入或离开该区域。根据傅里叶定律(Fourier’s law),通过单位时间、单位面积、单位温差流动出去或流入进来(取决于温差符号) 的热量为常数 k k k。因此,在时刻 t t t时,在位置$x+\Delta x $处流出去或流入进来(取决于温差符号) 的总热量为:

Q o u t ( x + Δ x , t ) = − k A ∂ u ∂ x ( x + Δ x , t ) Q_{out}(x+\Delta x,t)=-kA\frac{\partial u}{\partial x}(x+\Delta x,t) Qout(x+Δx,t)=kAxu(x+Δx,t)

其中 ∂ u ∂ x \frac{\partial u}{\partial x} xu表示温度关于位置$x $ 的变化率。

类似地,在位置$x $处流入或流出(取决于温差符号) 的总热量为:

Q i n ( x , t ) = k A ∂ u ∂ x ( x , t ) Q_{in}(x,t)=kA\frac{\partial u}{\partial x}(x,t) Qin(x,t)=kAxu(x,t)

注意负号表示如果 ∂ u ∂ x \frac{\partial u}{\partial x} xu为正,则表示从高温区域向低温区域传递;反之亦然。

根据能量守恒原理,我们可以得到以下等式:

E ( x , t + Δ t ) − E ( x , t ) = Q i n ( x , t ) − Q o u t ( x + Δ x , t ) E(x,t+\Delta t)-E(x,t)=Q_{in}(x,t)-Q_{out}(x+\Delta x,t) E(x,t+Δt)E(x,t)=Qin(x,t)Qout(x+Δx,t)

这意味着在$\Delta t $时间内薄片内部储存或释放(取决于符号) 的总能量等于在该时间段内进入或离开该区域(取决于符号) 的总能量。

方程推导

代入上述等式,得到:

e ( x , t ) A Δ x ∂ u ∂ t ( x , t ) = − k A ∂ u ∂ x ( x + Δ x , t ) + k A ∂ u ∂ x ( x , t ) e(x,t)A\Delta x\frac{\partial u}{\partial t}(x,t)=-kA\frac{\partial u}{\partial x}(x+\Delta x,t)+kA\frac{\partial u}{\partial x}(x,t) e(x,t)AΔxtu(x,t)=kAxu(x+Δx,t)+kAxu(x,t)

将两边同时除以 A Δ x A\Delta x AΔx,得到:

e ( x , t ) ∂ u ∂ t ( x , t ) = − k ∂ u ∂ x ( x + Δ x , t ) − ∂ u ∂ x ( x , t ) Δ x e(x,t)\frac{\partial u}{\partial t}(x,t)=-k\frac{\frac{\partial u}{\partial x}(x+\Delta x,t)-\frac{\partial u}{\partial x}(x,t)}{\Delta x} e(x,t)tu(x,t)=kΔxxu(x+Δx,t)xu(x,t)

Δ x → 0 \Delta x \to 0 Δx0,利用极限定义,得到:

e ( x , t ) ∂ u ∂ t ( x , t ) = − k ∂ 2 u ∂ x 2 ( x , t ) e(x,t)\frac{\partial u}{\partial t}(x,t)=-k \frac{\partial^2u}{\partial x^2}(x,t) e(x,t)tu(x,t)=kx22u(x,t)

这就是一维热传导方程的基本形式。如果杆的横截面积不是常数,则需要对上式做一些修正。文章来源地址https://www.toymoban.com/news/detail-610333.html

到了这里,关于一维热传导方程的推导的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能基础_机器学习003_有监督机器学习_sklearn中线性方程和正规方程的计算_使用sklearn解算八元一次方程---人工智能工作笔记0042

    然后我们再来看看,如何使用sklearn,来进行正规方程的运算,当然这里 首先要安装sklearn,这里如何安装sklearn就不说了,自己查一下 首先我们还是来计算前面的八元一次方程的解,但是这次我们不用np.linalg.solve这个 解线性方程的方式,也不用 直接 解正规方程的方式: 也就是上面这种

    2024年02月08日
    浏览(52)
  • 人工智能基础_机器学习007_高斯分布_概率计算_最小二乘法推导_得出损失函数---人工智能工作笔记0047

    这个不分也是挺难的,但是之前有详细的,解释了,之前的文章中有, 那么这里会简单提一下,然后,继续向下学习 首先我们要知道高斯分布,也就是,正太分布, 这个可以预测x在多少的时候,概率最大 要知道在概率分布这个,高斯分布公式中,u代表平均值,然后西格玛代表标准差,知道了

    2024年02月07日
    浏览(68)
  • 人工智能_机器学习065_SVM支持向量机KKT条件_深度理解KKT条件下的损失函数求解过程_公式详细推导_---人工智能工作笔记0105

    之前我们已经说了KKT条件,其实就是用来解决 如何实现对,不等式条件下的,目标函数的求解问题,之前我们说的拉格朗日乘数法,是用来对 等式条件下的目标函数进行求解. KKT条件是这样做的,添加了一个阿尔法平方对吧,这个阿尔法平方肯定是大于0的,那么 可以结合下面的文章去

    2024年02月04日
    浏览(40)
  • 《微波原理与技术》学习笔记2传输线理论-传输线方程的推导与求解

    目录 微波传输线的引入         引入微波传输线的原因:         传输线的定义:         传输线的分类:         分布参数电路:         分布参数:         均匀传输线:         均匀无耗传输线:         分布效应:         𝛤形网

    2024年02月07日
    浏览(46)
  • 机器学习——SMO算法推导与实践

    明天再说,啊。。。。感觉天空明朗了很多,即使现在已经很晚了 还是要打开柯南,看看电视,等待天气预报所说的台风天吧! 一时之间,忽然失去了用markdown语法写下推导过程的勇气。。。以上只是自己在线性可分的情况下,推导的smo算法但实际书本上给出的smo算法,是增

    2024年02月14日
    浏览(38)
  • PINN解偏微分方程实例2(一维非线性薛定谔方程)

       考虑偏微分方程如下: i h t + 0.5 h x x + ∣ h ∣ 2 h = 0 h ( 0 , x ) = 2 s e c h ( x ) h ( t , − 5 ) = h ( t , 5 ) h x ( t , − 5 ) = h x ( t , 5 ) begin{align} begin{aligned} ih_t + 0.5h_{xx} + |h|^2h = 0 \\\\ h(0,x) = 2 sech(x) \\\\ h(t,-5) = h(t,5) \\\\ h_x(t,-5) = h_x(t,5) end{aligned} end{align} ​ i h t ​ + 0.5 h xx ​ + ∣ h ∣

    2024年02月01日
    浏览(49)
  • 机器学习理论基础—支持向量机的推导(一)

    SVM:从几何角度,对于线性可分数据集,支持向量机就是找距离正负样本都最远的超平面,相比于感知机,其解是唯一的,且不偏不倚,泛化性能更好。 超平面 n维空间的超平面(wT X+ b= 0,其中w,x ∈ R) 超平面方程不唯— 法向量w和位移项b确定一个唯一超平面 法向量w垂直于

    2024年04月28日
    浏览(32)
  • 机器学习——支持向量机(数学基础推导篇【未完】)

    在一个周日下午,夏天的雨稀里哗啦地下着 我躺在床上,捧着ipad看支持向量机 睡了好几个觉…支持向量机太好睡了 拉格朗日乘数法太好睡了 几何函数太好睡了 在我看来,支持向量机是目前学下来,最难以理解的内容 希望日后不要太难…脑子不支持的 支持向量积的原理,

    2024年02月12日
    浏览(93)
  • AI-应试-机器学习公式推导与代码实现-预备

    (AI算法系列) 机器学习 背景 训练过程 应用场景 局限及挑战 未来 2.1机器学习 模型:要学习的决策函数或条件概率分布 策略:决定按什么标准选最优模型-》loss 分类:对数、交叉熵 回归:均方 算法:具体的优化求解算法:梯度下降、牛顿法、拟牛顿法 2.2 核心:从数据中最

    2024年02月03日
    浏览(52)
  • 机器学习——正规方程

    之前我们使用梯度下降算法求代价函数J(θ)的最小值,而梯度下降算法是通过一步步不断地迭代来收敛到全局最小值,如下 而正规方程则是另一种求解J(θ)最小值的方法,并且正规方程不需要通过迭代,而是一次性得到θ的最优值 正规方程的基本概念如下(省略证明过程,记

    2024年02月21日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包