云原生Kubernetes:K8S安全机制

这篇具有很好参考价值的文章主要介绍了云原生Kubernetes:K8S安全机制。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、理论

1.K8S安全机制

2.Authentication认证

3.Authorization授权

4.Admission Control准入控制

5.User访问案例

6.ServiceAccount访问案例

二、实验

1.Admission Control准入控制

2.User访问案例

3.ServiceAccount访问案例

三、问题

1.生成资源报错

2.镜像拉取失败

四、总结


一、理论

1.K8S安全机制

(1)概念

Kubernetes 作为一个分布式集群的管理工具,保证集群的安全性是其一个重要的任务。API Server 是集群内部各个组件通信的中介, 也是外部控制的入口。所以 Kubernetes 的安全机制基本就是围绕保护 API Server 来设计的。
比如 kubectl 如果想向 API Server 请求资源,需要过三关,第一关是认证(Authentication),第二关是鉴权(Authorization), 第三关是准入控制(Admission Control),只有通过这三关才可能会被 K8S 创建资源。
云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2)端口

api server是k8s集群的入口,默认有两个端口:

1)本地端口8080: 用于接收HTTP请求, 不对外服务, 非认证或授权的HTTP请求通过该端口访问API Server

2)安全端口6443: 用于接收认证授权的HTTPS请求,对外服务。

(3)访问

用户通过安全端口访问k8s的api server需要过三关:认证、授权、准入控制

1)Authentication认证: 用于识别用户身份, 方式有: SSL证书,token, 用户名+密码等

2)Authorization授权: 确认是否对资源具有相关的权限

3)Admission Control准入控制: 判断操作是否符合集群的要求

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

 无论kubectl客户端命令或api或ui,在创建或访问资源时,一定要有apiServer所对应的资源版本,只要资源版本与kind能够正确匹配才能进行继续操作,否侧操作会被终止。

2.Authentication认证

(1)Authentication认证:

它用于识别用户身份, 验证方式有:

token
用户名+密码
SSL证书

(2)HTTP Token 认证

通过一个 Token 来识别合法用户

1)HTTP Token 的认证是用一个很长的特殊编码方式的并且难以被模仿的 Token 字符串来表达客户的一种方式。

2)Token 是一个很长的很复杂的字符串,每一个 Token 对应一个用户名存储在 API Server 能访问的文件中。

3)当客户端发起 API 调用请求时,需要在 HTTP Header 里放入 Token。

(3)HTTP Base 认证

通过一个 Token 来识别合法用户

用户名:密码 用 BASE64 算法进行编码后的字符串放在 HTTP Request 中的 Heather Authorization 域里发送给服务端, 服务端收到后进行解码,获取用户名及密码。

(4)HTTPS 证书认证(最严格)

基于 CA 根证书签名的客户端身份认证方式。

(5)用户分类

用户有两种:

1)用户账户(user) : 是在集群外部访问apiserver时使用的用户,如kubectl命令就是作为kubernetes的admin用户来执行的。

2)服务账户(ServiceAccount): 为了方便Pod里面的进程调用Kubernetes API或其他外部服务而设计的。

对比:


1)User account是为人设计的,而service account则是为Pod中的进程调用Kubernetes API而设计;

2)User account是跨namespace的,而service account则是仅局限它所在的namespace;

3)每个namespace都会自动创建一个default service account
 

① 需要被认证的访问类型

1)Kubernetes 组件对 API Server 的访问:kubectl、kubelet、kube-proxy

2)Kubernetes 管理的 Pod 对 API Server 的访问:Pod(coredns,dashborad 也是以 Pod 形式运行)

②安全性说明

1)Controller Manager、Scheduler 与 API Server 在同一台机器,所以直接使用 API Server 的非安全端口访问(比如 8080 端口)

2)kubectl、kubelet、kube-proxy 访问 API Server 就都需要证书进行 HTTPS 双向认证,端口号使用 6443

③证书颁发

1)手动签发:使用二进制部署时,需要先手动跟 CA 进行签发 HTTPS 证书

2)自动签发:kubelet 首次访问 API Server 时,使用 token 做认证,通过后,Controller Manager 会为 kubelet 生成一个证书, 以后的访问都是用证书做认证了

④ Service Account

Service Account是为了方便 Pod 中的容器访问API Server。因为 Pod 的创建、销毁是动态的,所以要为每一个 Pod 手动生成证书就不可行了。 Kubenetes 使用了 Service Account 来循环认证,从而解决了 Pod 访问API Server的认证问题。
 

⑤ Secret 与 SA 的关系

Kubernetes 设计了一种资源对象叫做 Secret,分为两类:

1)用于保存 ServiceAccount 的 service-account-token

2)用于保存用户自定义保密信息的 Opaque

⑥Service Account 中包含三个部分


1)Token:是使用 API Server 私钥签名的 Token 字符串序列号,用于访问 API Server 时,Server 端认证

2)ca.crt:ca 根证书,用于 Client 端验证 API Server 发送来的证书

3)namespace:标识这个 service-account-token 的作用域名空间

默认情况下,每个 namespace 都会有一个 Service Account,如果 Pod 在创建时没有指定 Service Account,就会使用 Pod 所属的 namespace 的 Service Account。每个 Pod 在创建后都会自动设置 spec.serviceAccount 为 default(除非指定了其他 Service Accout)。
 

(6)kubeconfig文件

① 概念

kubeconfig 文件包含集群参数(CA 证书、API Server 地址),客户端参数(上面生成的证书和私钥),集群 context 上下文参数 (集群名称、用户名)。

Kubenetes 组件(如 kubelet、kube-proxy)通过启动时指定不同的 kubeconfig 文件可以切换到不同的集群 ,连接到 apiserver。
也就是说 kubeconfig 文件既是一个集群的描述,也是集群认证信息的填充。包含了集群的访问方式和认证信息。kubectl 文件默认位于 ~/.kube/config

1)kubeconfig文件用于组织有关群集、用户、命名空间和身份验证机制的信息,用于对k8s集群的访问。

2)使用kubectl命令时默认使用~/.kube/config这个kubeconfig文件来访问k8s集群,也可以用--kubeconfig指定其它文件

 ② 配置段

1)users: 用户账号及其认证信息列表

2)cluster: 目标集群列表

3)contexts: 以哪个user接入哪个cluster的连接组合。

4)current-context:当前使用的context

③ 示例

 查看admin用户的kubeconfig文件
 

[root@master1 ~]# cat /root/.kube/config
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUR1RENDQXFDZ0F3SUJBZ0lVRXJCMXhTc2NDMUV3V2lkckc3UEJXT29HSkFFd0RRWUpLb1pJaHZjTkFRRUwKQlFBd1lURUxNQWtHQTFVRUJoTUNRMDR4RVRBUEJnTlZCQWdUQ0VoaGJtZGFhRzkxTVFzd0NRWURWUVFIRXdKWQpVekVNTUFvR0ExVUVDaE1EYXpoek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweEV6QVJCZ05WQkFNVENtdDFZbVZ5CmJtVjBaWE13SUJjTk1qQXhNVEEwTVRNek5qQXdXaGdQTWpFeU1ERXdNVEV4TXpNMk1EQmFNR0V4Q3pBSkJnTlYKQkFZVEFrTk9NUkV3RHdZRFZRUUlFd2hJWVc1bldtaHZkVEVMTUFrR0ExVUVCeE1DV0ZNeEREQUtCZ05WQkFvVApBMnM0Y3pFUE1BMEdBMVVFQ3hNR1UzbHpkR1Z0TVJNd0VRWURWUVFERXdwcmRXSmxjbTVsZEdWek1JSUJJakFOCkJna3Foa2lHOXcwQkFRRUZBQU9DQVE4QU1JSUJDZ0tDQVFFQXpZNWhMTDhTYXU2MGVpNDR6RTlhNVdDdHVCc00KN0tmMXJkd2RnVVo2VFpRK3VFNkdhdmN5SWhCT3l2bFprVEt0WmhEcXdmSml3TjZBVk5tdTEvTktrVkZ2UEUrOQppOVF4Z0FkM0JsUk1FVi9nMUVrejZVRXpSM2JJSXdWd2QrUHRpZGZ3a1RtZ3E5bkR4MklpR3VMT1A4UnJoNmdFCmlkR1dLbERjZ0wrYnB6RUVieW4yTWpDWWY0dlZCUDlqS044WFdrM3pKdGlyMUhxOWx2akRXUEZrZStHMUZHdXEKKy9acy9jQk1Nb3JpSWhld1ZDb2t1ZGVVOVVPbUZSN0JObDFGOStBeWhWZHlmbE0yTFo1R2dQZmg2MFdBZkI2WApSa3o2dHMxcTJLR0FZdG5TeGhsblREamxpUWxWT0M2UURUeTBMNUgzV3lmdVdrOHlzWmVUNkxHQ3R3SURBUUFCCm8yWXdaREFPQmdOVkhROEJBZjhFQkFNQ0FRWXdFZ1lEVlIwVEFRSC9CQWd3QmdFQi93SUJBakFkQmdOVkhRNEUKRmdRVVRMNHErYkhUV2pMdmlVRk5BVmp4c1dTTDZuMHdId1lEVlIwakJCZ3dGb0FVVEw0cStiSFRXakx2aVVGTgpBVmp4c1dTTDZuMHdEUVlKS29aSWh2Y05BUUVMQlFBRGdnRUJBQ2pZTXVLN2dDWlJmUWVPTW1SYVg5dmNjTldECjdOOVltb25XTHNZb0RiaGE2Und1VFlFVDRBWXJuUWE1d3pEV3pBK0Erb0liSjR4WjZnREZGK2s2KzM0V1ZreXcKLyt2NkFVL2hSNytjL2pIc3RGZGFRVXZGVHFhNUtmelcyOEZHQWptQ3ZOYyt1QjJ4ZjQvcy9EMnRwTWxpT3l6cwpKWEhNV3I3UWs5RHR3THJlZ2lZTlc3a202M25RbllWSTNRQzlIK0xNaVNsMHNIUlBER1VseU15N2hqWUNQR2duCkNEQlBWYWJhR0ltdW5YSnBGd2RKTUhmbFRuZllSUnQ3RG0zOVlXMjhWSGw4N0xlZXY5Y3dlVTI5KzNtYlJiUmwKME1tNlpoQzlsK0NjSXN6dEtUVWJBQ01LT1dYbUZXRk1uQVFZdnhxN2hIR25IaXpWb3k1VHNxVkZQRUE9Ci0tLS0tRU5EIENFUlRJRklDQVRFLS0tLS0K
    server: https://192.168.122.11:6443
  name: cluster1
contexts:
- context:
    cluster: cluster1
    user: admin
  name: context-cluster1-admin
current-context: context-cluster1-admin
kind: Config
preferences: {}
users:
- name: admin
  user:
    client-certificate-data: LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tCk1JSUQxekNDQXIrZ0F3SUJBZ0lVYUZlakwzVXErUTJqWnJIbzB4cmFaUVAyY3pZd0RRWUpLb1pJaHZjTkFRRUwKQlFBd1lURUxNQWtHQTFVRUJoTUNRMDR4RVRBUEJnTlZCQWdUQ0VoaGJtZGFhRzkxTVFzd0NRWURWUVFIRXdKWQpVekVNTUFvR0ExVUVDaE1EYXpoek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweEV6QVJCZ05WQkFNVENtdDFZbVZ5CmJtVjBaWE13SUJjTk1qQXhNVEEwTVRNek9UQXdXaGdQTWpBM01ERXdNak14TXpNNU1EQmFNR2N4Q3pBSkJnTlYKQkFZVEFrTk9NUkV3RHdZRFZRUUlFd2hJWVc1bldtaHZkVEVMTUFrR0ExVUVCeE1DV0ZNeEZ6QVZCZ05WQkFvVApEbk41YzNSbGJUcHRZWE4wWlhKek1ROHdEUVlEVlFRTEV3WlRlWE4wWlcweERqQU1CZ05WQkFNVEJXRmtiV2x1Ck1JSUJJakFOQmdrcWhraUc5dzBCQVFFRkFBT0NBUThBTUlJQkNnS0NBUUVBNHdyc0dnSnE0T00zcUV5elE2Q3AKZGRjaWlUTnNuRG1odzBjcUwyWG1CTnA4cmxSUkFiUWY3QmNpTVRPVTF5TUdTYWo4YW9TNGhjUVFqcWpVRXRBKwphUVpOTXRPTXppZVZMMHpEZzMrV09Qb3o3MGdyeEU2QzFGVE5XcGFWRjljUUFWVFJNUS9ZZm9YYmNZRDdPT1dLCktCYldJUVJ2SzF2T0RiMmhEcUZBYkl5Q3N4dzI5ZFlyL3QwNDV2QVcrUTFWMjVIYjVrQVE2a1Z5WVFYcDZJSFQKdVZmaTRnVHlrclJDY1BaVUo5Q0ZCWFcvZFhrZkViZXpGYU9iU2VwVE5NU2FGeDBCNDE1c09CTFVYRTVuRG8wRwpNZ2duV015WTVUcW1UQU5CVGw5MTNySEdTeXdSZWRtQ2Z2Q1BiZSsxVnJFU2hiK3Z6aHZkMHZ5empNbk1NcDM3CkhRSURBUUFCbzM4d2ZUQU9CZ05WSFE4QkFmOEVCQU1DQmFBd0hRWURWUjBsQkJZd0ZBWUlLd1lCQlFVSEF3RUcKQ0NzR0FRVUZCd01DTUF3R0ExVWRFd0VCL3dRQ01BQXdIUVlEVlIwT0JCWUVGTlI5MWlJY2c5UVhiemlxOXRlQgpBZEdidnpnYk1COEdBMVVkSXdRWU1CYUFGRXkrS3ZteDAxb3k3NGxCVFFGWThiRmtpK3A5TUEwR0NTcUdTSWIzCkRRRUJDd1VBQTRJQkFRQVhrNktieG1oUUdoeHd0TmZaU2txUG1tR21rK2U0OTJLRU1vSnZVcm5ZTTFaUkxmVk8KenRDbVByTWxORitIUWZySG5qczNtc1NzWmwwc1hxN3RwMnRKWEVURXFwdVdkMTBxQVZZVVBSelhrL1FLNDNXTAozYU13cWdZNjhkdGJOcytlNFpyT2J3YWJOZmp2T1RjUjVwV2RpTEFmT2hUSE9UZWtEZkUza1l4MGlQdGNGWmFTCmhVb3A5ZGV6RUpFbWNLM2xxQm1TYkN3cEhoSGZxUHlkcy8rVEhHMHdrV2E4a0pwSytxSUx6dkZDa0trRlZrMDcKcWtIMUthUHFzMUFKSmJzTWxMQjkzVEE0ajM1QWowTzF5eElpRjlDUmFoQ2pNeDlhaUl2dVNTejZpeGpMbDhWVgpnNzU0K2RzZThlMElaU0xHV2t6QzVDNnk0WWNid1ROa3dSU28KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQo=
    client-key-data: LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQpNSUlFb3dJQkFBS0NBUUVBNHdyc0dnSnE0T00zcUV5elE2Q3BkZGNpaVROc25EbWh3MGNxTDJYbUJOcDhybFJSCkFiUWY3QmNpTVRPVTF5TUdTYWo4YW9TNGhjUVFqcWpVRXRBK2FRWk5NdE9NemllVkwwekRnMytXT1BvejcwZ3IKeEU2QzFGVE5XcGFWRjljUUFWVFJNUS9ZZm9YYmNZRDdPT1dLS0JiV0lRUnZLMXZPRGIyaERxRkFiSXlDc3h3Mgo5ZFlyL3QwNDV2QVcrUTFWMjVIYjVrQVE2a1Z5WVFYcDZJSFR1VmZpNGdUeWtyUkNjUFpVSjlDRkJYVy9kWGtmCkViZXpGYU9iU2VwVE5NU2FGeDBCNDE1c09CTFVYRTVuRG8wR01nZ25XTXlZNVRxbVRBTkJUbDkxM3JIR1N5d1IKZWRtQ2Z2Q1BiZSsxVnJFU2hiK3Z6aHZkMHZ5empNbk1NcDM3SFFJREFRQUJBb0lCQVFDUCtZSWxNRGxFYVBJSAplTFFKQTUzU2kxMXNNYjhEQm96cy8zamgyN1ZVaUpTZUcvdk9uOEhLZmhVQnJGc0xYanVEaEhTa3U0c2owR1JMCmd3WVE5QnRQa0Y1dUI3YjNtQ1JEZldOU1JSc25BSXJraHhpeUFMTjRJRnFrd203RFVtN2syVHRhNkZoNlN6b1EKTFNHaVAvVXZYT1BteGlBVkY3OS8rU3RqMHArKzlOMk5VT0NYSlV0MldUaFdyRDRBdHlBSG9hN3IvVnlxbGhKaQpLa3JaOURpSWh0cGp0bXorSlV1TXR0NHg4dWxvc2ZLZDBmeEtFTDdhamFsVXYxK1ZKZEc0YytvNUxjTEt6dWQzCk9QWW1aR1JPUmZHV3lSNUFNaTZmL09GU0F5dVU0MFB4Y2NrNEhRdlBkMUVPdndJVHhMc0lESy9TWUZtZDIrOTgKK1BwRkhoWUJBb0dCQU9qVVpHTGZOa2oxaFpZb0JDT2pieHM4VDZ5S0Mwc2lCNXo0VHlhdTNIRGhxNFRsbU13aQpLaVdVRWMrdmowd2NGblU4NWNsQjkwN2E4VWVnYzBsTHdHOFhuUUlYZHZvanB4Uk9oZ2pZZS90Vmk0SE5iMjJlCnoxNldsaGEyRWdESDBpQ1VsRERJVVIvVkN3N3VabzBwRnVkTjYxdXBybjQxU1M4cjBOVFVwQVdCQW9HQkFQbWoKR1ltanRMS04wY2hiNFFNejRTSW9DcEJPbGJhY1VxdzlxSGl6YzZrR0lwdDFZVFpDeTArcDVHSHJmbXpQczUrWgpVRFc4alFTdjU0R09sMUlnT2FNSTRLekk3YzhhZEExVjIzU09wSkZ4K1dlQTNQTThndUUrVzdnMzMwaWFJVXorClpxNDJyWC9YREVOWktrMHRESXdpSjRaN0VsTGsvaUxlTFJjS2NodWRBb0dBSnRraGN0blpuZXpSZ0U5bStXZFEKcDVPMW00MWcrd1ZQamVKa21vaThvVjBXR0ZPUzNpU3BNYUgySXRnaEtjclorRy9UeTNQbFJ0UURSRGRDWlMxdAppMXUrUjlZUWRRWXozNUNHanIxSVdwUllkYTBJZFpyMDhNeGhlS0tpZUZ6ZTg2NjIxempsU0ZGc3llMy9VSGhWCnFQeDRVOUFKSEdmWnNUUTNZUHVsN29FQ2dZQXdpdzdFUFJrK1AyV3oyR29BL1cyaC9yZFBLSGprY2JHQjNOdU4KM1JkNG5zRE1DaDlGTmVmakxkNURURS9oU09KYy9xc2lSL0FFSVZDYldPY0VDVkFyNitZRXMyM0xBQkhoSmZqdQp5VzRtK2tyTlhibVpjd0xnV2dmcjRyR0FwTGdsQ0xOZTNUTVAwUG1KZnlWQ3JLZnIrQmhIaGxjaDEzV3p3aEJ5CmtvMXQ0UUtCZ0I1Z08xQnNNYmpUNVZtSWJLRXVhMU03Q1BKcDVpZERNVGc2K0R2bVJKdDYwbmZrZGwyNGYzSlIKdHFwZFlXL2JyMVZsZzl1U2VFcnBXNEtTNXN0UkZPK3Q0Z212Rkx6TUJKdStoSSswN2pHUnBGanp1TDFPMVorOQpXZ0lxS2tKOW5DN3VSWEtxUmxBTXZTVVVjcUtLTUZSTWtBZEpmOUZHNEdVaHFSZUdhUlp2Ci0tLS0tRU5EIFJTQSBQUklWQVRFIEtFWS0tLS0tCg==

3.Authorization授权

(1)概念

之前的认证(Authentication)过程,只是确认通信的双方都确认了对方是可信的,可以相互通信。而鉴权是确定请求方有哪些资源的权限。API Server 目前支持以下几种授权策略:(通过 API Server 的启动参数 “--authorization-mode” 设置)

认证环节之后是授权, 确认是否对资源具有相关的权限

一个请求需要在其请求信息中包含用户名,请求的动作以及目标对象; 若存在某授权策略对于此请求给予了授权许可,即授权成功。
 

(2)授权模块

1)AlwaysDeny:表示拒绝所有的请求,一般用于测试

2)AlwaysAllow:允许接收所有请求,如果集群不需要授权流程,则可以采用该策略,一般用于测试

3)ABAC(Attribute-Based Access Control):基于属性的访问控制,表示使用用户配置的授权规则对用户请求进行匹配和控制。也就是说定义一个访问类型的属性,用户可以使用这个属性访问对应的资源。此方式设置较为繁琐,每次设置需要定义一长串的属性才可以。

4)Webhook:通过调用外部 REST 服务对用户进行授权,即可在集群外部对K8S进行鉴权

5)RBAC(Role-Based Access Control):基于角色的访问控制,K8S自1.6版本起默认使用规则

(3)RBAC

RBAC使用rbac.authorization.k8s.io API Group 来实现授权决策,允许管理员通过 Kubernetes API 动态配置策略,要启用RBAC,需要在 apiserver 中添加参数–authorization-mode=RBAC,如果使用的kubeadm安装的集群,都默认开启了RBAC,可以通过查看 Master 节点上 apiserver 的静态Pod定义文件:
 

[root@master pki]# cat /etc/kubernetes/manifests/kube-apiserver.yaml
···
   - --authorization-mode=Node,RBAC
···

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

① RBAC的优势

RBAC 相对其它访问控制方式,拥有以下优势:

1)对集群中的资源(Pod,Deployment,Service)和非资源(元信息或者资源状态)均拥有完整的覆盖

2)整个 RBAC 完全由几个 API 资源对象完成,同其它 API 资源对象一样,可以用 kubectl 或 API 进行操作

3)可以在运行时进行调整,无需重启 API Server,而 ABAC 则需要重启 API Server

 ② RBAC 的 API 资源对象说明

RBAC 引入了 4 个新的顶级资源对象:Role、ClusterRole、RoleBinding、ClusterRoleBinding,4 种对象类型均可以通过 kubectl 与 API Server 操作。

官方文档:https://kubernetes.io/docs/reference/access-authn-authz/rbac/

③ 角色

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

Role 授权特定命名空间的访问权限

ClusterRole 授权所有命名空间的访问权限

如果使用 RoleBinding 绑定 ClusterRole,仍会受到命名空间的影响;

如果使用 ClusterRoleBinding 绑定 ClusterRole, 将会作用于整个 K8S 集群。

④ 角色绑定

RoleBinding 将角色绑定到主机(即subject)

ClusterRoleBinding 将集群角色绑定到主体

⑤ 主体 (subject)

User 用户
Group 用户组
ServiceAccount 服务帐号

User 使用字符串表示,它的前缀 system: 是系统保留的,集群管理员应该确保普通用户不会使用这个前缀格式;Group 书写格式与 User 相同,同样 system: 前缀也为系统保留。
Pod使用 ServiceAccount 认证时,service-account-token 中的 JWT 会保存用户信息。 有了用户信息,再创建一对角色/角色绑定(集群角色/集群角色绑定)资源对象,就可以完成权限绑定了。
 

⑥ Role and ClusterRole

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

在 RBAC API 中,Role 表示一组规则权限,权限只能增加(累加权限),不存在一个资源一开始就有很多权限而通过 RBAC 对其进行减少的操作。也就是说只有白名单权限,而没有黑名单权限的概念。

Role 只能定义在一个 namespace 中,如果想要跨 namespace 则可以创建 ClusterRole,也就是说定义 ClusterRole 不需要绑定 namespace。

Role 示例
 

apiVersion: rbac.authorization.k8s.io/v1  #指定 core API 组和版本
kind: Role   #指定类型为 Role
metadata:
  namespace: default   #使用默认命名空间
  name: pod-reader   #Role 的名称
 
rules:   #定义规则
- apiGroups: [""]  #""表示 apiGroups 和 apiVersion 使用相同的 core API 组,即 rbac.authorization.k8s.io
  resources: ["pods"]  #资源对象为 Pod 类型
  verbs: ["get", "watch", "list"]  #被授予的操作权限

以上配置的意义是,如果把 pod-reader 这个 Role 赋予给一个用户,那么这个用户将在 default 命名空间中具有对 Pod 资源对象 进行 get(获取)、watch(监听)、list(列出)这三个操作权限。

ClusterRole 示例

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  # "namespace" 被忽略,因为 ClusterRoles 不受名字空间限制
  name: secret-reader
rules:
- apiGroups: [""]
  resources: ["secrets"]  #资源对象为 Secret 类型
  verbs: ["get", "watch", "list"]

⑦ RoleBinding and ClusterRoleBinding

1)RoloBinding 可以将角色中定义的权限授予用户或用户组,RoleBinding 包含一组主体(subject),subject 中包含有不同形式的待授予权限资源类型(User、Group、ServiceAccount);

2)RoloBinding 同样包含对被绑定的 Role 引用;

3)RoleBinding 适用于某个命名空间内授权,而 ClusterRoleBinding 适用于集群范围内的授权

RoleBinding 示例1

apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
  name: read-pods
  namespace: default
subjects:
- kind: User
  name: zhangsan
  apiGroup: rbac.authorization.k8s.io
roleRef:
  kind: Role
  name: pod-reader
  apiGroup: rbac.authorization.k8s.io

将 default 命名空间的 pod-reader Role 授予 zhangsan 用户,此后 zhangsan 用户在 default 命名空间中将具有 pod-reader 的权限。


RoleBinding 同样可以引用 ClusterRole 来对当前 namespace 内 User、Group 或 ServiceAccount 进行授权, 这种操作允许集群管理员在整个集群内定义一些通用的 ClusterRole,然后在不同的 namespace 中使用 RoleBinding 来引用。
 

RoleBinding 示例2

apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
  name: read-secrets
  namespace: kube-public
subjects:
- kind: User
  name: lisi
  apiGroup: rbac.authorization.k8s.io
roleRef:
  kind: ClusterRole
  name: secret-reader
  apiGroup: rbac.authorization.k8s.io

以上 RoleBinding 引用了一个 ClusterRole,这个 ClusterRole 具有整个集群内对 secrets 的访问权限;但是其授权用户 lisi 只能访问 kube-public 空间中的 secrets(因为 RoleBinding 定义在 kube-public 命名空间)。

使用 ClusterRoleBinding 可以对整个集群中的所有命名空间资源权限进行授权

ClusterRoleBinding 示例

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: read-secrets-global
subjects:
- kind: Group
  name: manager
  apiGroup: rbac.authorization.k8s.io
roleRef:
  kind: ClusterRole
  name: secret-reader
  apiGroup: rbac.authorization.k8s.io

以上 ClusterRoleBinding 授权 manager 组内所有用户在全部命名空间中对 secrets 进行访问。

⑧ Resources

Kubernetes 集群内一些资源一般以其名称字符串来表示,这些字符串一般会在 API 的 URL 地址中出现; 同时某些资源也会包含子资源,例如 log 资源就属于 pods 的子资源,API 中对 Pod 日志的请求 URL 样例如下:

GET /api/v1/namespaces/{namespace}/pods/{name}/log

#在这里,pods 对应名字空间作用域的 Pod 资源,而 log 是 pods 的子资源。

如果要在 RBAC 授权模型中控制这些子资源的访问权限,可以通过 / 分隔符来分隔资源和子资源实现。
以下是一个定义允许某主体读取 pods 同时访问这些 Pod 的 log 子资源的 Role 定义样例:
 

apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  namespace: default
  name: pod-and-pod-logs-reader
rules:
- apiGroups: [""]
  resources: ["pods", "pods/log"]
  verbs: ["get", "list"]
rules.verbs有:"get", "list", "watch", "create", "update", "patch", "delete", "exec"
rules.resources有:"services", "endpoints", "pods", "secrets", "configmaps", "crontabs", "deployments", "jobs", "nodes", "rolebindings", "clusterroles", "daemonsets", "replicasets", "statefulsets", "horizontalpodautoscalers", "replicationcontrollers", "cronjobs"
rules.apiGroups有:"","apps", "autoscaling", "batch"

4.Admission Control准入控制

(1)概念

通过认证和鉴权之后,客户端并不能得到API Server的真正响应,这个请求还需通过Admission Control所控制的一个准入控制插件列表的层层考验。

(2)准入控制器

1)Admission Control配备有一个“准入控制器”的插件列表,发送给API Server的任何请求都需要通过列表中每一个准入控制器的检查,检查不通过API Server拒绝此调用请求。

2)此外,准入控制器还能够修改请求参数以完成一些自动化的任务,比如Service Account这个控制器。

(3)配置准入控制

当前可配置的Admission Control准入控制如下:

1)NamespaceLifecycle:用于命名空间回收,防止在不存在的 namespace 上创建对象,防止删除系统预置 
namespace,删除 namespace 时,连带删除它的所有资源对象。

2)LimitRanger:用于配额管理,确保请求的资源不会超过资源所在 Namespace 的 LimitRange 的限制。

3)ServiceAccount:用于在每个 Pod 中自动化添加 ServiceAccount,方便访问 API Server。

4)ResourceQuota:用于资源配额管理目的,作用于namespace上,它会观察所有请求,确保在namespace上的配额不会超标。推荐在Admission Control参数列表中将这个插件安排在最后一个,以免可能被其他插件拒绝的Pod被过早分配资源。

5)NodeRestriction: 用于 Node 加入到 K8S 群集中以最小权限运行。

6)AlwaysAdmit:允许所有请求;

7)AlwaysPullmages:在启动容器之前总去下载镜像,相当于在每个容器的配置项
imagePullPolicy=Always

8)AlwaysDeny:禁止所有请求,一般用于测试;

8)DenyExecOnPrivileged:它会拦截所有想在Privileged Container上执行命令的请求,如果你的集群支持Privileged Container,你又希望限制用户在这些Privileged Container上执行命令,强烈推荐你使用它,其功能已经合并到DenyEscalatingExec中。

10)ImagePolicyWebhook:这个插件将允许后端的一个Webhook程序来完成admission controller的功能。ImagePolicyWebhook需要使用一个配置文件(通过kube-apiserver的启动参数–admission-control-config-file设置)定义后端Webhook的参数。目前该插件还处在Alpha版本。

11)SecurityContextDeny:这个插件将使用SecurityContext的Pod中的定义全部失效。SecurityContext在Container中定义了操作系统级别的安全设定(uid,gid,capabilityes,SELinux等)。在未启用PodSecurityPolicy的集群中建议启用该插件,以禁用容器设置的非安全访问权限。

12)InitialResources:是一个实验特性,旨在为未设置资源请求与限制的Pod,根据其镜像的历史资源的使用情况进行初始化的资源请求、限制设置。

13)DefaultStorageClass:为了实现共享存储的动态供应,为未指定StorageClass或PV的PVC尝试匹配默认的StorageClass,尽可能减少用户在申请PVC时所需了解的后端存储细节。

14)DefaultTolerationSeconds:这个插件为那些没有设置forgiveness tolerations并具有notready:NoExecute和unreachable:NoExecute两种taints的Pod设置默认的“容忍”时间,为5min。

15)PodSecurityPolicy:这个插件用于在创建或修改Pod时决定是否根据Pod的security context和可用的PodSecurityPolicy对Pod的安全策略进行控制。

① LimitRanger示例

[root@master1 ~]# kubectl create ns limitrange
namespace/limitrange created
[root@master1 ~]# kubectl describe ns limitrange
Name:         limitrange
Labels:       <none>
Annotations:  <none>
Status:       Active
 
No resource quota.
 
No LimitRange resource.			看到无LimitRange

cpu限制 

[root@master1 ~]# vim limitrange.yml
apiVersion: v1
kind: LimitRange
metadata:
  name: cpu-limit-range
  namespace: limitrange
spec:
  limits:
  - default:
      cpu: 1000m
    defaultRequest:
      cpu: 1000m
    min:
      cpu: 500m
    max:
      cpu: 2000m
    maxLimitRequestRatio:
      cpu: 4
    type: Container
[root@master1 ~]# kubectl apply -f limitrange.yml
limitrange/cpu-limit-range created

查看名称空间

[root@master1 ~]# kubectl describe ns limitrange
Name:         limitrange
Labels:       <none>
Annotations:  <none>
Status:       Active
 
No resource quota.
 
Resource Limits
 Type       Resource  Min   Max  Default Request  Default Limit  Max Limit/Request Ratio
 ----       --------  ---   ---  ---------------  -------------  -----------------------
 Container  cpu       500m  2    1                1              4
[root@master1 ~]# vim limitrange-pod.yml
apiVersion: v1
kind: Pod
metadata:
  name: nginx
  namespace: limitrange
spec:
  containers:
  - name: c1
    image: nginx:1.15-alpine
    imagePullPolicy: IfNotPresent
    resources:
      requests:
        cpu: 200m						# cpu请求200m,小于namespace的cpu最小限制(500m)
[root@master1 ~]# kubectl apply -f limitrange-pod.yml
Error from server (Forbidden): error when creating "limitrange-pod.yml": pods "nginx" is forbidden: [minimum cpu usage per Container is 500m, but request is 200m, cpu max limit to request ratio per Container is 4, but provided ratio is 5.000000]

说明: 可看到namespace的cpu最小限制是500m,创建此pod请求为200m,准入控制拒绝了。 改成限制范围内就可以创建。

[root@master1 ~]# vim limitrange-pod.yml
apiVersion: v1
kind: Pod
metadata:
  name: nginx
  namespace: limitrange
spec:
  containers:
  - name: c1
    image: nginx:1.15-alpine
    imagePullPolicy: IfNotPresent
    resources:
      requests:	
        cpu: 600m							 #  改成大于500m
[root@master1 ~]# kubectl apply -f limitrange-pod.yml
pod/nginx created
 
[root@master1 ~]# kubectl get pods -n limitrange
NAME    READY   STATUS    RESTARTS   AGE
nginx   1/1     Running   0          11s		 可以成功创建pod

② ResourceQuota示例

[root@master1 ~]# vim resourcequota.yml
apiVersion: v1
kind: ResourceQuota
metadata:
  name: quota
  namespace: limitrange
spec:
  hard:						  #  硬限制
    pods: "1"				  #  限制此namespace里就不能超过1个pod
[root@master1 ~]# kubectl apply -f resourcequota.yml
resourcequota/quota created
[root@master1 ~]# kubectl describe ns limitrange
Name:         limitrange
Labels:       <none>
Annotations:  <none>
Status:       Active
 
Resource Quotas
 Name:     quota
 Resource  Used  Hard
 --------  ---   ---
 pods      1     1						# 硬限制为1个pod,已经有1个pod了
 
Resource Limits
 Type       Resource  Min   Max  Default Request  Default Limit  Max Limit/Request Ratio
 ----       --------  ---   ---  ---------------  -------------  -----------------------
 Container  cpu       500m  2    1                1              4
[root@master1 ~]# vim resourcequota-pod.yml
apiVersion: v1
kind: Pod
metadata:
  name: nginx2								  # 改一个pod名
  namespace: limitrange						  # 相同的namespace
spec:
  containers:
  - name: c1
    image: nginx:1.15-alpine
    imagePullPolicy: IfNotPresent
[root@master1 ~]# kubectl apply -f resourcequota-pod.yml
Error from server (Forbidden): error when creating "resourcequota-pod.yml": pods "nginx2" is forbidden: exceeded quota: quota, requested: pods=1, used: pods=1, limited: pods=1
报错,pod数量超过了

5.User访问案例

(1)创建证书

①创建user私钥

#yum install openssl -y

[root@master pki]# (umask 077;openssl genrsa -out david.key 2048)
Generating RSA private key, 2048 bit long modulus
..........................................+++
..........................................................+++
e is 65537 (0x10001)

②创建证书签署请求

O=组织信息,CN=用户名

[root@master pki]# openssl req -new -key david.key -out david.csr -subj "/O=k8s/CN=david"

③签署证书

[root@master pki]# openssl  x509 -req -in david.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out david.crt -days 365
Signature ok
subject=/O=k8s/CN=david
Getting CA Private Key

(2) 创建配置文件

① 创建配置文件主要有以下几个步骤:

kubectl config set-cluster --kubeconfig=/PATH/TO/SOMEFILE      #集群配置
kubectl config set-credentials NAME --kubeconfig=/PATH/TO/SOMEFILE #用户配置
kubectl config set-context    #context配置
kubectl config use-context    #切换context
* --embed-certs=true的作用是不在配置文件中显示证书信息。
* --kubeconfig=/root/david.conf用于创建新的配置文件,如果不加此选项,则内容会添加到家目录下.kube/config文件中,可以使用use-context来切换不同的用户管理k8s集群。
* context简单的理解就是用什么用户来管理哪个集群,即用户和集群的结合。

②创建集群配置:

[root@master pki]#  kubectl config set-cluster k8s --server=https://192.168.204.171:6443 --certificate-authority=ca.crt --embed-certs=true --kubeconfig=/root/david.conf
Cluster "k8s" set.
[root@master pki]# kubectl config view --kubeconfig=/root/david.conf
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: DATA+OMITTED
    server: https://192.168.204.171:6443
  name: k8s
contexts: []
current-context: ""
kind: Config
preferences: {}
users: []

③创建用户配置:

[root@master pki]# kubectl config set-credentials david --client-certificate=david.crt --client-key=david.key --embed-certs=true --kubeconfig=/root/david.conf
User "david" set.
[root@master pki]# kubectl config view --kubeconfig=/root/david.conf
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: DATA+OMITTED
    server: https://192.168.204.171:6443
  name: k8s
contexts: []
current-context: ""
kind: Config
preferences: {}
users:
- name: david
  user:
    client-certificate-data: REDACTED
    client-key-data: REDACTED

④创建context配置:

[root@master pki]# kubectl config set-context david@k8s --cluster=k8s --user=david --kubeconfig=/root/david.conf
Context "david@k8s" created.
[root@master pki]# kubectl config view --kubeconfig=/root/david.conf
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: DATA+OMITTED
    server: https://192.168.204.171:6443
  name: k8s
contexts:
- context:
    cluster: k8s
    user: david
  name: david@k8s
current-context: ""
kind: Config
preferences: {}
users:
- name: david
  user:
    client-certificate-data: REDACTED
    client-key-data: REDACTED

⑤切换context:

[root@master pki]# kubectl config use-context david@k8s --kubeconfig=/root/david.conf
Switched to context "david@k8s".
[root@master pki]# kubectl config view --kubeconfig=/root/david.conf
apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: DATA+OMITTED
    server: https://192.168.204.171:6443
  name: k8s
contexts:
- context:
    cluster: k8s
    user: david
  name: david@k8s
current-context: david@k8s
kind: Config
preferences: {}
users:
- name: david
  user:
    client-certificate-data: REDACTED
    client-key-data: REDACTED

⑥ 创建系统用户:

[root@master pki]# useradd david
[root@master pki]# mkdir -p /home/david/.kube

[root@master pki]# cd ~

[root@master ~]# cp david.conf /home/david/.kube/config
[root@master ~]# chown david.david -R /home/david/
[root@master ~]# su - david
[david@master ~]$ 

k8s验证文件

[david@master ~]$ kubectl get pod
Error from server (Forbidden): pods is forbidden: User "david" cannot list resource "pods" in API group "" in the namespace "default"
[david@master ~]$ 

默认新用户是没有任何权限的。

⑦创建Role

回到root用户,此role只有pod的get、list、watch权限

[root@master ~]$ cat pods-reader.yaml 
apiVersion: rbac.authorization.k8s.io/v1
kind: Role
metadata:
  name: pods-reader
rules:
- apiGroups:
  - ""
  resources:
  - pods
  verbs:
  - get
  - list
  - watch

[root@master ~]$ kubectl apply -f pods-reader.yaml 

⑧创建Rolebinding

用户david和role pods-reader的绑定

[root@master ~]$ vim david-pods-reader.yaml 
[root@master ~]$ cat david-pods-reader.yaml 
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
  name: david-pods-reader
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: Role
  name: pods-reader
subjects:
- apiGroup: rbac.authorization.k8s.io
  kind: User
  name: david

[root@master ~]$ kubectl apply -f david-pods-reader.yaml 

⑨验证结果

如果没有指定命名空间的话,默认就是default命名空间

[david@master ~]$ kubectl get pod
NAME                                      READY   STATUS    RESTARTS   AGE
nfs-client-provisioner-64c6fddb75-7qrdx   1/1     Running   1          4d18h
[david@master ~]$ kubectl get pod -n kube-system
Error from server (Forbidden): pods is forbidden: User "david" cannot list resource "pods" in API group "" in the namespace "kube-system"
[david@master ~]$ 

⑩ 创建ClusterRole


[root@master ~]# vim  cluster-reader.yaml 
[root@master ~]# cat  cluster-reader.yaml 
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: cluster-reader
rules:
- apiGroups:
  - ""
  resources:
  - pods
  verbs:
  - get
  - list
  - watch
 



#或者全乎一点
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: test-clusterrole
rules:
  - apiGroups: [""]
    resources: ["pods"]
    verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
  - apiGroups: ["extensions", "apps"]
    resources: ["deployments"]
    verbs: ["get", "watch", "list"]
  - apiGroups: [""]
    resources: ["pods/exec"]
    verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
  - apiGroups: [""]
    resources: ["pods/log"]
    verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]
  - apiGroups: [""]
    resources: ["namespaces","namespaces/status"]
    verbs: ["*"]   # 也可以使用['*']
  - apiGroups: ["","apps","extensions","apiextensions.k8s.io"]
    resources: ["role","replicasets","deployments","customresourcedefinitions","configmaps"]
    verbs: ["*"]

⑪创建ClusterRoleBinding

[root@master ~]# vim david-read-all-pod.yaml 
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: david-read-all-pods
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-reader
subjects:
- apiGroup: rbac.authorization.k8s.io
  kind: User
  name: david
 
root@k8s-master:~#

⑫验证结果

[david@master ~]$ kubectl get pod --all-namespaces
NAMESPACE     NAME                                      READY   STATUS    RESTARTS   AGE
default       nfs-client-provisioner-64c6fddb75-7qrdx   1/1     Running   1          4d19h
kube-public   nginx-deployment-5688f5c784-7w6rs         1/1     Running   2          7d
kube-public   nginx-deployment-5688f5c784-dpxzv         1/1     Running   2          7d
kube-public   nginx-deployment-5688f5c784-pntg6         1/1     Running   2          7d
kube-system   coredns-bccdc95cf-k5npl                   1/1     Running   0          4d
kube-system   coredns-bccdc95cf-zg9bh                   1/1     Running   0          4d
kube-system   etcd-master                               1/1     Running   10         22d
kube-system   kube-apiserver-master                     1/1     Running   10         22d
kube-system   kube-controller-manager-master            1/1     Running   10         22d
kube-system   kube-flannel-ds-amd64-drz9g               1/1     Running   2          6d3h
kube-system   kube-flannel-ds-amd64-pkcnl               1/1     Running   9          22d
kube-system   kube-flannel-ds-amd64-s6g9d               1/1     Running   2          6d3h
kube-system   kube-proxy-d6scc                          1/1     Running   10         22d
kube-system   kube-proxy-gjmvl                          1/1     Running   10         22d
kube-system   kube-proxy-zw6sj                          1/1     Running   10         22d
kube-system   kube-scheduler-master                     1/1     Running   11         22d
kube-system   kubernetes-dashboard-859b87d4f7-phhlt     1/1     Running   9          21d

就可以看到所有命名空间的pod了.

权限绑定指定的namespace
也可以使用下面方法进行绑定
kubectl get clusterrole 查看系统自带角色
kubectl create rolebinding devuser-admin-rolebinding(rolebinding的名字) --clusterrole=admin(clusterrole的名字,admin在k8s所有namespace下都有最高权限) --user=devuser(将admin的权限赋予devuser用户) --namespace=dev(范围是dev这个namespace下) 即dev


扩展:

kubectl api-resources 可以查看apiGroups

⑬ 验证结果

创建了ClusterRole和ClusterRoleBinding后就可以看到所有命名空间的pod了。

[david@master ~]$ kubectl get pod
NAME                                      READY   STATUS    RESTARTS   AGE
nfs-client-provisioner-64c6fddb75-7qrdx   1/1     Running   1          4d19h
[david@master ~]$ kubectl get pod -n kube-system
NAME                                    READY   STATUS    RESTARTS   AGE
coredns-bccdc95cf-k5npl                 1/1     Running   0          4d
coredns-bccdc95cf-zg9bh                 1/1     Running   0          4d
etcd-master                             1/1     Running   10         22d
kube-apiserver-master                   1/1     Running   10         22d
kube-controller-manager-master          1/1     Running   10         22d
kube-flannel-ds-amd64-drz9g             1/1     Running   2          6d3h
kube-flannel-ds-amd64-pkcnl             1/1     Running   9          22d
kube-flannel-ds-amd64-s6g9d             1/1     Running   2          6d3h
kube-proxy-d6scc                        1/1     Running   10         22d
kube-proxy-gjmvl                        1/1     Running   10         22d
kube-proxy-zw6sj                        1/1     Running   10         22d
kube-scheduler-master                   1/1     Running   11         22d
kubernetes-dashboard-859b87d4f7-phhlt   1/1     Running   9          21d

6.ServiceAccount访问案例

 (1)创建namespace

[root@master ~]#  kubectl create namespace dd
namespace/dd created

(2)验证namespace的sa与secret

创建namespace默认会创建一个serviceaccount和一个secret

[root@master ~]# kubectl get sa -n dd
NAME      SECRETS   AGE
default   1         10s

[root@master ~]# kubectl get secret -n dd
NAME                  TYPE                                  DATA   AGE
default-token-l7srv   kubernetes.io/service-account-token   3      18s
[root@master ~]# kubectl get secret -n dd
NAME                  TYPE                                  DATA   AGE
default-token-l7srv   kubernetes.io/service-account-token   3      18s
[root@master ~]#  kubectl describe sa default -n dd
Name:                default
Namespace:           dd
Labels:              <none>
Annotations:         <none>
Image pull secrets:  <none>
Mountable secrets:   default-token-l7srv
Tokens:              default-token-l7srv
Events:              <none>
[root@master ~]# 
[root@master ~]#  kubectl describe secret default-token-l7srv -n dd
Name:         default-token-l7srv
Namespace:    dd
Labels:       <none>
Annotations:  kubernetes.io/service-account.name: default
              kubernetes.io/service-account.uid: 509e1301-b1e3-4ca8-8bdc-cdddbd5e9ee0

Type:  kubernetes.io/service-account-token

Data
====
token:      eyJhbGciOiJSUzI1NiIsImtpZCI6IiJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJkZCIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkZWZhdWx0LXRva2VuLWw3c3J2Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImRlZmF1bHQiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiI1MDllMTMwMS1iMWUzLTRjYTgtOGJkYy1jZGRkYmQ1ZTllZTAiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6ZGQ6ZGVmYXVsdCJ9.T3UecCBjGUCuT4w257cUEZVzeo56JGz8dEXiR9xFe6onW3_3KOPzKY-gddKwWgyaf_zHpJ5lhpdT-QWt_dVvCAp9M7wXVwruhZZQ2AduLp8JfjsVtIy9Q5s84zuVtJFZmKVFrhbfigvncP9guoohvN21FIGCv2RvV2WAkLakGl49mmhsmnjfZm5BPt2kTeptz7wDtRWpkKCue1Ggr-tlk85DdktDB7ELbKyPl6aT-SGPDGO4foNbAcOtUrE5mPW7TDKvO7OlmFUTFUAArhRnzc_s9g8CD-N7QbwxffVeq9HL_EBwhyjREI5hc6LoibIe-deQDnjwTXMGq_hmnva4Jg
ca.crt:     1025 bytes
namespace:  2 bytes
[root@master ~]# 

(3)创建pod验证其sa与secret 

创建namespace默认会创建一个serviceaccount和一个secret

[root@master1 ~]# kubectl run nginx --image=nginx:1.15-alpine -n dd
pod/nginx created
[root@master ~]# kubectl describe pod nginx -n dd
Name:           nginx-5d89b4499d-6qshp
Namespace:      dd
Priority:       0
Node:           node02/192.168.204.175
Start Time:     Tue, 26 Sep 2023 18:08:15 +0800
Labels:         pod-template-hash=5d89b4499d
                run=nginx
Annotations:    <none>
Status:         Running
IP:             10.244.1.118
Controlled By:  ReplicaSet/nginx-5d89b4499d
Containers:
  nginx:
    Container ID:   docker://c966681cc57507af44319b3b252ad1facecf49bb220066c84baa6838d8e22a6f
    Image:          nginx:1.15-alpine
    Image ID:       docker-pullable://nginx@sha256:57a226fb6ab6823027c0704a9346a890ffb0cacde06bc19bbc234c8720673555
    Port:           <none>
    Host Port:      <none>
    State:          Running
      Started:      Tue, 26 Sep 2023 18:08:35 +0800
    Ready:          True
    Restart Count:  0
    Environment:    <none>
    Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from default-token-l7srv (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  default-token-l7srv:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  default-token-l7srv
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  93s   default-scheduler  Successfully assigned dd/nginx-5d89b4499d-6qshp to node02
  Normal  Pulling    92s   kubelet, node02    Pulling image "nginx:1.15-alpine"
  Normal  Pulled     73s   kubelet, node02    Successfully pulled image "nginx:1.15-alpine"
  Normal  Created    73s   kubelet, node02    Created container nginx
  Normal  Started    73s   kubelet, node02    Started container nginx

说明: 创建pod不指定serviceaccount则默认使用default

(4)创建一个SA

[root@master ~]# kubectl create sa david -n dd
serviceaccount/david created
[root@master ~]# kubectl get sa -n dd
NAME      SECRETS   AGE
david     1         10s
default   1         7m6s
[root@master ~]# kubectl get secret -n dd
NAME                  TYPE                                  DATA   AGE
david-token-5gskc     kubernetes.io/service-account-token   3      19s
default-token-l7srv   kubernetes.io/service-account-token   3      7m15s

(5)创建pod并自定义SA

[root@master ~]# vim sa-pod.yml
apiVersion: v1
kind: Pod
metadata:
  name: nginx2
  namespace: dd
spec:
  containers:
  - name: c1
    image: nginx:1.15-alpine
    ports:
    - name: httpd
      containerPort: 80
  serviceAccountName: david			 #指定sa为david

(6)验证pod使用的SA

[root@master ~]# kubectl apply -f sa-pod.yml
pod/nginx2 created
[root@master ~]# kubectl describe pod nginx2 -n dd
......
   Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from david-token-5gskc (ro)
......
Volumes:
  david-token-5gskc:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  david-token-5gskc
......

#完整如下
[root@master ~]# kubectl describe pod nginx2 -n dd
Name:         nginx2
Namespace:    dd
Priority:     0
Node:         node02/192.168.204.175
Start Time:   Tue, 26 Sep 2023 18:16:55 +0800
Labels:       <none>
Annotations:  kubectl.kubernetes.io/last-applied-configuration:
                {"apiVersion":"v1","kind":"Pod","metadata":{"annotations":{},"name":"nginx2","namespace":"dd"},"spec":{"containers":[{"image":"nginx:1.15-...
Status:       Running
IP:           10.244.1.119
Containers:
  c1:
    Container ID:   docker://cbb31e791077cba449a1841a1596396df680a2574e663289d339983bdc90844a
    Image:          nginx:1.15-alpine
    Image ID:       docker-pullable://nginx@sha256:57a226fb6ab6823027c0704a9346a890ffb0cacde06bc19bbc234c8720673555
    Port:           80/TCP
    Host Port:      0/TCP
    State:          Running
      Started:      Tue, 26 Sep 2023 18:16:56 +0800
    Ready:          True
    Restart Count:  0
    Environment:    <none>
    Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from david-token-5gskc (ro)
Conditions:
  Type              Status
  Initialized       True 
  Ready             True 
  ContainersReady   True 
  PodScheduled      True 
Volumes:
  david-token-5gskc:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  david-token-5gskc
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:
  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  15s   default-scheduler  Successfully assigned dd/nginx2 to node02
  Normal  Pulled     14s   kubelet, node02    Container image "nginx:1.15-alpine" already present on machine
  Normal  Created    14s   kubelet, node02    Created container c1
  Normal  Started    14s   kubelet, node02    Started co

二、实验

1.Admission Control准入控制

(1) LimitRanger示例云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

cpu限制 

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

生成pod云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

查看名称空间

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

创建资源清单,cpu请求200m,小于namespace的cpu最小限制(500m)

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

可看到namespace的cpu最小限制是500m,创建此pod请求为200m,准入控制拒绝了。 改成限制范围内就可以创建。

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

改成大于500m云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

可以成功创建pod

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

删除,减少资源占用

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2) ResourceQuota示例

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

硬限制,限制此namespace里就不能超过1个pod云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全
生成pod,硬限制为1个pod,目前有0个pod

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

硬限制为1个pod,已经有1个pod了

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

改一个pod名,相同的namespace

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

报错,pod数量超过了

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

2.User访问案例

(1)创建证书

①创建user私钥云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

②创建证书签署请求

O=组织信息,CN=用户名

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

③签署证书云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2) 创建配置文件

① 创建配置文件主要有以下几个步骤:

kubectl config set-cluster --kubeconfig=/PATH/TO/SOMEFILE      #集群配置
kubectl config set-credentials NAME --kubeconfig=/PATH/TO/SOMEFILE #用户配置
kubectl config set-context    #context配置
kubectl config use-context    #切换context
* --embed-certs=true的作用是不在配置文件中显示证书信息。
* --kubeconfig=/root/david.conf用于创建新的配置文件,如果不加此选项,则内容会添加到家目录下.kube/config文件中,可以使用use-context来切换不同的用户管理k8s集群。
* context简单的理解就是用什么用户来管理哪个集群,即用户和集群的结合。

②创建集群配置:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

③创建用户配置:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

④创建context配置:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑤切换context:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑥ 创建系统用户:云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

k8s验证文件,默认新用户是没有任何权限的

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑦创建Role

回到root用户,此role只有pod的get、list、watch权限

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑧创建Rolebinding
用户david和role pods-reader的绑定

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑨验证结果

生成pod

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全


如果没有指定命名空间的话,默认就是default命名空间
云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

所以我们是可以查看查看default命名空间的pod,但是其他空间的pod是无法查看的。
云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑩创建ClusterRole

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑪创建ClusterRoleBinding

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑫ 验证结果

生成pod

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

查看

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

扩展:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

⑬ 验证结果

创建了ClusterRole和ClusterRoleBinding后就可以看到所有命名空间的pod了。

 

3.ServiceAccount访问案例

(1)创建namespace云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2)验证namespace的sa与secret

创建namespace默认会创建一个serviceaccount和一个secret云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(3)创建pod验证其sa与secret 

创建namespace默认会创建一个serviceaccount和一个secret云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

说明: 创建pod不指定serviceaccount则默认使用default

(4)创建pod并自定义SA

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(5)验证pod使用的SA云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

三、问题

1.生成资源报错

(1)报错

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2)原因分析

关键词“requests”错误

(3)解决方法

修改配置文件

修改前:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

修改后:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

成功:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

2.镜像拉取失败

(1)报错

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

(2)原因分析

指定镜像名称错误

(3)解决方法

修改镜像名称

修改前:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

修改后:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

成功:

云原生Kubernetes:K8S安全机制,云原生Kubernetes,云原生,kubernetes,安全

四、总结

k8s namespace

k8s 中的 namespace 就类似于 windows 中的多个桌面,或者 linux 中的多个终端;namespace 之间的 api 对象是不可见的。

Token 认证和 Base 认证方式只能进行服务端对客户端的单向认证,而客户端不知道服务端是否合法;而 HTTPS 证书认证方式 则可以实现双向认证。

用户有两种:

1)用户账户(user) : 是在集群外部访问apiserver时使用的用户,如kubectl命令就是作为kubernetes的admin用户来执行的。

2)服务账户(ServiceAccount): 为了方便Pod里面的进程调用Kubernetes API或其他外部服务而设计的。

Secret 与 SA 的关系:

Kubernetes 设计了一种资源对象叫做 Secret,分为两类:

1)用于保存 ServiceAccount 的 service-account-token

2)用于保存用户自定义保密信息的 Opaque

Service Account 中包含三个部分:

1)Token:是使用 API Server 私钥签名的 Token 字符串序列号,用于访问 API Server 时,Server 端认证

2)ca.crt:ca 根证书,用于 Client 端验证 API Server 发送来的证书

3)namespace:标识这个 service-account-token 的作用域名空间

kubeconfig 文件包含:集群参数(CA 证书、API Server 地址),客户端参数(上面生成的证书和私钥),集群 context 上下文参数 (集群名称、用户名)。

在 RBAC API 中,Role 表示一组规则权限,权限只能增加(累加权限),不存在一个资源一开始就有很多权限而通过 RBAC 对其进行减少的操作。也就是说只有白名单权限,而没有黑名单权限的概念。

Role 只能定义在一个 namespace 中,如果想要跨 namespace 则可以创建 ClusterRole,也就是说定义 ClusterRole 不需要绑定 namespace。
 文章来源地址https://www.toymoban.com/news/detail-729610.html

到了这里,关于云原生Kubernetes:K8S安全机制的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云原生Kubernetes:K8S概述

    目录 一、理论 1.云原生 2.K8S 3.k8s集群架构与组件 4.K8S网络 二、总结 (1)概念 云原生是一种基于容器、微服务和自动化运维的软件开发和部署方法。它可以使应用程序更加高效、可靠和可扩展,适用于各种不同的云平台。 如果要更直接通俗的来解释下上面的概念,云原生更

    2024年02月10日
    浏览(54)
  • 云原生Kubernetes:K8S存储卷

    目录 一、理论 1.存储卷 2.emptyDir 存储卷 3.hostPath卷 4.NFS共享存储 5.PVC 和 PV 6.静态创建PV 7.动态创建PV 二、实验  1.emptyDir 存储卷 2.hostPath卷 3.NFS共享存储 4.静态创建PV 5.动态创建PV 三、问题 1.生成pod一直pending 2.shoumount -e未显示共享目录 3.静态创建pv 报错 4.使用 Deployment 来创建

    2024年02月07日
    浏览(73)
  • 【云原生K8S】Kubernetes之探针

    目录 一、探针是什么 二、探针类型  Ⅰ、livenessProbe 容器重启策略  Ⅱ、readinessProbe Ⅲ、startupProbe 执行顺序: 字段详情 三、探测机制 Ⅰ、HTTP GET探针 Ⅱ、TCP套接字探针 Ⅲ、Exec探针 探针:是由 kubelet 对容器执行的定期诊断 要执行诊断,则需kubelet 调用由容器实现的 Handler。

    2024年02月09日
    浏览(67)
  • 云原生_kubernetes(k8s)介绍

    目录 一、应用部署方式演变 二、k8s介绍 三、k8s的组件 四、k8s中的概念 五、k8s资源管理方式 1、命令式对象管理 2、命令式对象配置 3、声明式对象配置 在部署应用程序的方式上,主要经历了三个时代: 1 、物理机部署: 互联网早期,会直接将应用程序部署在物理机上 优点

    2023年04月13日
    浏览(59)
  • 【云原生 • Kubernetes】认识 k8s、k8s 架构、核心概念点介绍

    目录 一、Kubernetes 简介 二、Kubernetes 架构 三、Kunbernetes 有哪些核心概念? 1. 集群 Cluster 2. 容器 Container 3. POD 4. 副本集 ReplicaSet 5. 服务 service 6. 发布 Deployment 7. ConfigMap/Secret 8. DaemonSet 9. 核心概念总结 Kubernetes 简称 k8s,是支持云原生部署的一个平台,起源于谷歌。谷歌早在十几

    2024年02月03日
    浏览(198)
  • 云原生Kubernetes:K8S常用服务端口

    目录 一、理论 1.K8S常用服务端口号 (1)K8S集群 表1 K8S集群端口 协议 端口号 K8S集群 TCP 22 使用主机驱动通过SSH进行节点配置 TCP 53 集群DNS服务 UDP 53 集群DNS服务 TCP 2376 主机驱动与Docker守护进程通信的TLS端口 TCP 2379 etcd客户端请求 TCP 2380 etcd节点通信 UDP 8472 Canal/Flannel VXLAN ove

    2024年02月10日
    浏览(70)
  • 【kubernetes】k8s中的选主机制

    1 为什么需要leader-election? 在集群中存在某种业务场景,一批相同功能的进程同时运行,但是同一时刻,只能有一个工作,只有当正在工作的进程异常时,才会由另一个进程进行接管。这种业务逻辑通常用于实现一主多从。 如果有人认为,传统应用需要部署多个通常是为了容

    2024年02月07日
    浏览(47)
  • 【云原生 • Kubernetes】认识 k8s 网络、外部网络访问 k8s 内部服务

    目录 一、认识 Kubernetes 网络 二、外部网络如何访问 k8s 内部服务 1. NodePort 2. Load Balancer 3. Ingress Kubernetes 最底层的网络为节点网络,用来保证 k8s 集群的节点(master 和 worker、worker 节点之间)能够做正常的 IP 寻址和通讯。 Kubernetes 第二层网络就是 Pod 网络,构建于节点网络之上

    2024年01月16日
    浏览(70)
  • 云原生Kubernetes:K8S配置资源管理

    目录 一、理论 1.Secret 2.Secret创建 3.Secret使用 4.Configmap 5.Configmap创建 6.Configmap使用 二、实验 1.Secret创建 2.Secret使用 3.Configmap创建 4.Configmap使用 三、问题 1.变量引用生成资源报错 2.查看pod日志失败 3.创建configmap报错 4.YAML创建configmap报错 5. 生成资源报错 6.文件挂载pod报错Error 四

    2024年02月07日
    浏览(66)
  • 【云原生K8s】初识Kubernetes的理论基础

      K8S由google的Borg系统(博格系统,google内部使用的大规模容器编排工具)作为原型,后经GO语言延用Borg的思路重写并捐献给CNCF基金会开源。 云原生基金会(CNCF)于2015年12月成立,隶属于Linux基金会。CNCF孵化的第一个项目就是Kubernetes, 随着容器的广泛使用,Kubernetes已经成为容

    2024年02月14日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包