偏应力张量

这篇具有很好参考价值的文章主要介绍了偏应力张量。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【1】偏应力张量

  通常将应力张量分为两个部分,一部分是球应力张量,另一部分是偏应力张量。其中偏应力张量表示为 p δ i j p \delta _{ij} pδij(这里的 δ i j \delta _{ij} δij是克罗内克函数)的张量,其中平均应力 p p p
p = 1 3 c k k = 1 3 ( σ x + σ y + σ z ) = 1 3 I 1 (1) p = \frac { 1 } { 3 } c _ { k k } = \frac { 1 } { 3 } ( \sigma _ { x } + \sigma _ { y } + \sigma _ { z } ) = \frac { 1 } { 3 } I _ { 1 } \tag{1} p=31ckk=31(σx+σy+σz)=31I1(1)  显然由式(1)得知, p p p对于坐标轴可能的所有方向都是相同的,所以称作球应力。偏应力张量 s i j s_{ij} sij定义为从实际应力状态中减去球面应力状态。因此,有
s i j = σ i j − p δ i j (2) s _ { i j } = \sigma _ { i j } - p \delta _ { i j }\tag{2} sij=σijpδij(2)  式(2)给出了偏应力张量 s i j s _ { i j } sij所需要的定义,这个张量的分量为
s i j = [ s 11 s 12 s 13 s 21 s 22 s 23 s 31 s 32 s 33 ] = [ ( σ 11 − p ) σ 12 σ 13 σ 21 ( σ 22 − p ) σ 23 σ 31 a 32 ( σ 33 − p ) ] (3) s _ { i j } = \left[ \begin{array} { l l l } { s _ { 11 } } & { s _ { 12 } } & { s _ { 13 } } \\ { s _ { 21 } } & { s _ { 22 } } & { s _ { 23 } } \\ { s _ { 31 } } & { s _ { 32 } } & { s _ { 33 } } \end{array} \right]\tag{3}=\left[ \begin{array} { l l l } { ( \sigma _ { 11 } - p ) } & { \sigma_ { 12 } } & { \sigma _ { 13 } } \\ { \sigma _ { 21 } } & { ( \sigma_ { 22 } - p ) } & { \sigma _ { 23 } } \\ { \sigma _ { 31 } } & { a _ { 32 } } & { ( \sigma _ { 33 } - p ) } \end{array} \right] sij= s11s21s31s12s22s32s13s23s33 = (σ11p)σ21σ31σ12(σ22p)a32σ13σ23(σ33p) (3)   注意,在式(2)中,对于 i ≠ j i \neq j i=j,有 δ i j = 0 \delta _ { i j }=0 δij=0 s i j = σ i j s_{ij}= \sigma _{ij} sij=σij.

【1.1】偏应力张量是一个纯剪状态

   从式(2)可得,
σ i i = s i i + p δ i i (4) \sigma _{ii}=s_{ii}+p \delta _{ii}\tag{4} σii=sii+pδii(4)
   代换 δ i j \delta _ { i j } δij并用式(1),可以从式(4)中得到
σ i i = s i i + 1 3 σ i i (5) \sigma _{ii}=s_{ii}+ \frac{1}{3}\sigma _{ii}\tag{5} σii=sii+31σii(5) s i i = s 11 + s 22 + s 33 = 0 (6) s_{ii}=s_{11}+s_{22}+s_{33}=0\tag{6} sii=s11+s22+s33=0(6)
固偏应力张量是一个纯剪状态。

【1.2】 s i j s_{ij} sij​的主方向

显然,在所有方向上减去一个常数正应力不会改变其主方向,所以偏应力张量与原应力张量的方向是一致的。用主应力表示,偏应力张量为
s i j = [ σ 1 − p 0 0 0 σ 2 − p 0 0 0 0 σ 3 − p ] (7) s _ { i j } = \left[ \begin{array} { l l l } {\sigma _ { 1 } - p } & { 0 } & { 0 } \\ { 0 } & {\sigma _ { 2 } - p } & { 0 } \\ { 0 } & { 0 } & { 0 } & { \sigma_ { 3 } - p } \end{array} \right]\tag{7} sij= σ1p000σ2p0000σ3p (7)为了获得偏应力张量s的不变量,采用推导式(2.45)的类似方法,从而可以写出
∣ s i j − s δ i j ∣ = 0 (8) |s_{ij}-s \delta _{ij}|=0\tag{8} sijsδij=0(8) s 3 − J 1 s 2 + J 2 s − J 3 = 0 (9) s^{3}-J_{1}s^{2}+J_{2}s-J_{3}=0\tag{9} s3J1s2+J2sJ3=0(9)其中, J 1 {J_1} J1 J 2 {J_2} J2 J 3 {J_3} J3为偏应力张量的不变量。不变量 J 1 {J_1} J1 J 2 {J_2} J2 J 3 {J_3} J3可以表达成以 s {s} s的分量或主值 s 1 {s_1} s1 s 2 {s_2} s2 s 3 {s_3} s3表示的不同形式,或者以应力张量的分量或主值 σ 1 {\sigma_1} σ1 σ 2 {\sigma_2} σ2 σ 3 {\sigma_3} σ3表示的不同形式。所以有
J 1 = s i i = s 11 + s 22 + s 33 = s 1 + s 2 + s 3 = 0 J_{1}=s_{ii}=s_{11}+s_{22}+s_{33}=s_{1}+s_{2}+s_{3}=0 J1=sii=s11+s22+s33=s1+s2+s3=0 J 2 = 1 2 S i j S j i = 1 2 ( S 11 2 + S 22 2 + S 33 2 + S 12 s 21 + S 21 s 12 + ⋯   ) = 1 2 ( s 1 2 + s 2 2 + s 3 2 ) J _ { 2 } = \frac { 1 } { 2 } S _ { i j } S _ { j i } = \frac { 1 } { 2 } ( S _ { 1 1 } ^ { 2 } + S _ { 2 2 } ^ { 2 } + S _ { 3 3 } ^ { 2 } + S _ { 1 2 } s _ { 2 1 } + S _ { 2 1 } s _ { 1 2 } + \cdots )= \frac{1}{2}(s_{1}^{2}+s_{2}^{2}+s_{3}^{2}) J2=21SijSji=21(S112+S222+S332+S12s21+S21s12+)=21(s12+s22+s32) J 3 = 1 3 s i j s j k s k i = 1 3 ( s 1 3 + s 2 3 + s 3 3 ) = s 1 s 2 s 3 J_{3}= \frac{1}{3}s_{ij}s_{jk}s_{ki}= \frac{1}{3}(s_{1}^{3}+s_{2}^{3}+s_{3}^{3})=s_{1}s_{2}s_{3} J3=31sijsjkski=31(s13+s23+s33)=s1s2s3文章来源地址https://www.toymoban.com/news/detail-744878.html

到了这里,关于偏应力张量的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 轻松掌握线性代数-万字长文基础知识概览

    线性代数是一门将 m 维世界与 n 维世界联系起来的学科 映射:把集合 Y 的元素与集合 X 的元素相对应的规则叫做 “从集合 X 到集合 Y 的映射”。 像:通过映射 f 与 x i 相对应的集合 Y 的元素,叫做 x i 通过映射 f 形成的像,一般表示为 f(x i )。 线性映射的例子 f ( x ) = 2 x f(

    2024年02月11日
    浏览(75)
  • 线性代数的学习和整理3:标量,向量和张量的定义和对比

    目录 1 标量 scalar 2 向量 /矢量 vector 2.1 什么是向量(直观) 2.2 什么是向量(严格定义) 2.3 向量如何表示?在向量空间的表示方法 3 矩阵(matrix) 3.1 矩阵的定义 3.2 矩阵和向量的关系 3.3  方阵 4 ​张量(tensor):向量,矩阵都可以看成张量 4.1 张量的定义 4.2 更多维度的张量,举

    2024年02月04日
    浏览(53)
  • 偏应力张量

      通常将应力张量分为两个部分,一部分是 球应力张量 ,另一部分是 偏应力张量 。其中偏应力张量表示为 p δ i j p delta _{ij} p δ ij ​ (这里的 δ i j delta _{ij} δ ij ​ 是克罗内克函数)的张量,其中平均应力 p p p 为 p = 1 3 c k k = 1 3 ( σ x + σ y + σ z ) = 1 3 I 1 (1) p = frac { 1

    2024年02月05日
    浏览(30)
  • 数值线性代数:知识框架

    记录数值线性代数研究的知识框架。 软件包 线性方程组 直接法 Guass消元法/LU分解、Cholesky分解 LAPACK oneAPI MKL ARPACK Octave 迭代法 Jacobi迭代、SOR迭代、共轭梯度法 最小二乘 特征值/特征向量 非对称 幂法、QR、Arnoldi分解 对称 QR、Jacobi、二分法、分治法、SVD Golub G H , Loan C F V .Ma

    2024年02月15日
    浏览(42)
  • 线性代数知识

    ❀关于李永乐-线性代数基础班学习笔记。 1.1.1 二、三阶行列式 若有二元一次方程组,进行加减消元: 根据相加相减的系数,可以提炼成二阶行列式 假设方程组系数行列式不为0,则可让分母做运算。 若解三元一次方程组,很自然会出现3个数加加减减。 注意只有二三阶才可

    2024年02月04日
    浏览(46)
  • 线性代数-知识点复习(面试用)

    整理:Peter1146717850 一、向量与线性组合 向量:往什么方向走多么远 e.g. ( 1 2 ) begin{pmatrix} 1 \\\\ 2end{pmatrix} ( 1 2 ​ ) 向量的 模 :向量的长度 向量的 加减法 :向量对应元素相加减(前提:维度相同) ( a b c ) + ( x y z ) = ( a + x b + y c + z ) begin{pmatrix} a \\\\b \\\\ cend{pmatrix} + begin{pma

    2024年04月25日
    浏览(37)
  • 深度学习-必备的数学知识-线性代数5

    线性代数 在数学中,分解通常指的是将一个复杂的对象或结构分解为更简单的部件或组件。这个概念在许多数学领域都有应用。在线性代数中,矩阵分解是常见的一个主题,我们通过分解矩阵来发现它不明显的性质。 矩阵有许多种的分解方式:LU分解、QR分解、特征分解、奇

    2024年02月02日
    浏览(68)
  • 深度学习-必备的数学知识-线性代数6

    线性代数 通过伪逆求解线性方程组 伪逆,又称为Moore-Penrose逆,它是一种广义的矩阵。我们可以找到任意一个矩阵的伪逆。矩阵 A mathbf{A} A 的伪逆定义为: A + = lim ⁡ x → 0 ( A T A + α I ) − 1 A T mathbf{A}^+=lim_{x to 0}(mathbf{A}^Tmathbf{A}+alphamathbf{I})^{-1}mathbf{A}^T A + = x → 0 lim ​

    2024年01月18日
    浏览(56)
  • 深度学习-必备的数学知识-线性代数(合集)

    为方便大家阅读,这里推出一个线性代数的合集。这与之前的内容是一致的。 我们在深度学习-简介和 深度学习-历史背景中已经初步了解的深度学习。在我们开始学习深度学习前还需要做些准备工作。就是学习应用数学和机器学习基础。 想要理解深度学习这些是必不可少的

    2024年02月03日
    浏览(55)
  • 深度学习-必备的数学知识-线性代数-1

    我们在深度学习-简介和 深度学习-历史背景中已经初步了解的深度学习。在我们真正开始学习深度学习前还需要做些准备工作。那就是学习应用数学和机器学习基础。想要理解深度学习这些是必不可少的。 我将在这篇文章中为大家介绍一部分与深度学习有关的线性代数。 我

    2024年02月05日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包