Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1)

这篇具有很好参考价值的文章主要介绍了Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7

深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年最新网络安全全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上网络安全知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

如果你需要这些资料,可以添加V获取:vip204888 (备注网络安全)
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

正文

authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
jaasLoginRenew=3600000
requireClientAuthScheme=sasl
zookeeper.sasl.client=true


#### 2. 配置zookeeper **JAAS**


cat zk\_jaas.conf文件内容如下,如果没有改文件则使用vi命令编辑



Server {
org.apache.zookeeper.server.auth.DigestLoginModule required
username=“admin”
password=“admin123”
user_kafka=“kafka123”;
};


1. 注意:admin用户 是zk 集群之间使用的。kafka用户 是 broker 与 zk 之间使用的。


#### 3. **修改zkEnv.sh**



将上一步添加的 jaas 配置文件添加到zookeeper的环境变量中,zkEnv.sh文件最后添加一行:

vim zkEnv.sh

ZOOBINDIR=“ Z O O B I N D I R : − / u s r / b i n " Z O O K E E P E R P R E F I X = " {ZOOBINDIR:-/usr/bin}" ZOOKEEPER_PREFIX=" ZOOBINDIR:/usr/bin"ZOOKEEPERPREFIX="{ZOOBINDIR}/…”

添加如下 新增变量SERVER_JVMFLAGS:

export SERVER_JVMFLAGS=“-Djava.security.auth.login.config=…/conf/zk_jaas.conf”


### 配置kafka sasl动态认证



SASL/SCRAM认证是把凭证(credential)存储在Zookeeper,使用kafka-configs.sh在Zookeeper中创建凭据。对于每个SCRAM机制,必须添加具有机制名称的配置来创建凭证,所以在启动Kafka broker之前需要创建代理间通信的凭据。

这里配置的 Kafka和生产者/消费者之间 采用SASL/PLAIN和SASL/SCRAM两种方式共同完成认证,授权使用ACL方式。PLAIN方式的用户是在jaas文件中写死的,不能动态的添加;SCRAM支持动态的添加用户。


#### 1. 创建用户


配置SASL/SCRAM认证的第一步,是配置可以连接到kafka集群的用户。本案例创建了3个用户:admin,producer,consumer。kafka\_server\_admin用户用于broker之间的认证通信,producer用户用于生产者连接kafka,consumer用户用于消费者连接kafka 。



./kafka-configs.sh --zookeeper localhost:2181 --alter --add-config ‘SCRAM-SHA-256=[iterations=8192,password=admin123],SCRAM-SHA-512=[password=admin123]’ --entity-type users --entity-name admin

./kafka-configs.sh --zookeeper localhost:2181 --alter --add-config ‘SCRAM-SHA-256=[iterations=8192,password=admin123],SCRAM-SHA-512=[password=admin123]’ --entity-type users --entity-name producer

./kafka-configs.sh --zookeeper localhost:2181 --alter --add-config ‘SCRAM-SHA-256=[iterations=8192,password=admin123],SCRAM-SHA-512=[password=admin123]’ --entity-type users --entity-name consumer


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka



#### 2. 查看创建的用户信息


kafka-configs 脚本是用来设置主题级别参数的。其实,它的功能还有很多。比如在这个例子中,我们使用它来创建 SASL/SCRAM 认证中的用户信息。可以使用下列命令来查看刚才创建的用户数据。



./kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users

#(可以单独指定某个用户 --entity-name producer,如下)
./kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users --entity-name producer


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka



ZK客户端命令行查看:

./zkCli.sh -server localhost:2181

ls /config/users


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


#### 3. **配置kafka jaas文件**


配置了用户之后,我们需要为 Broker 创建一个对应的 JAAS 文件。在实际场景中,需要为每台单独的物理 Broker 机器都创建一份 JAAS 文件。


Kafka 的 jaas认证配置文件,配置的是登录类,超管密码和管理的帐号密码列表


vim kafka\_server\_jaas.conf



KafkaServer {
org.apache.kafka.common.security.scram.ScramLoginModule required
username =“admin”
password=“admin123”
user_admin=“admin123”
user_producer=“producer123”
user_consumer=“consumer123”;
};
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username=“admin”
password=“admin123”
user_producer=“producer123”
user_consumer=“consumer123”;
};
Client {
org.apache.kafka.common.security.scram.ScramLoginModule required
username=“kafka”
password=“kafka123”;
};


KafkaServer中usename配置的是kafka服务端使用的账号和密码,后面的user\_xxx事预设的普通帐号认证信息。  
    
 中间部分配置的是PLAIN认证方式的账户和密码,其中producer1是账户名,producer123是密码。  
 Client配置了broker到Zookeeper的连接用户名密码,这里要和前面zookeeper配置中的zk\_jaas.conf.conf 中 user\_kafka 的账号和密码相同。  
    
 关于这个文件内容,需要注意以下两点:  
    
 1)不要忘记最后一行和倒数第二行结尾处的分号;  
    
 2)JAAS 文件中不需要任何空格键。


#### 4. **kafka 配置文件启用SASL认证**


Kafka 服务配置文件 server.propertis,配置认证协议及认证实现类  
 cat server.properties其它内容都注释掉,然后追加如下内容:



broker.id=0
listeners=SASL_PLAINTEXT://:9092
advertised.listeners=SASL_PLAINTEXT://localhost:9092
sasl.enabled.mechanisms=SCRAM-SHA-256,PLAIN
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
security.inter.broker.protocol=SASL_PLAINTEXT
allow.everyone.if.no.acl.found=false
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
super.users=User:admin
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka/logs
num.partitions=3
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.retention.bytes=1073741824
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
delete.topic.enable=true
auto.create.topics.enable=false
zookeeper.connect=localhost:2181
zookeeper.connection.timeout.ms=60000
group.initial.rebalance.delay.ms=0

Host.name=43.138.0.199



#### 5. **kafka 启动脚本添加认证文件路径的环境变量**


Kafka 安全认证可以直接通过环境变量 -Djava.security.auth.login.config 设置,修改 Kafka 启动脚本 kafka-start-server.sh 文件最后一行,增加一个参数指向 jaas 配置文件的绝对路径


vi kafka-server-start.sh



exec $base_dir/kafka-run-class.sh E X T R A A R G S − D j a v a . s e c u r i t y . a u t h . l o g i n . c o n f i g = / h o m e / l i g h t h o u s e / k a f k a 2 . 12 − 2.2.1 / c o n f i g / k a f k a s e r v e r j a a s . c o n f k a f k a . K a f k a " EXTRA_ARGS -Djava.security.auth.login.config=/home/lighthouse/kafka_2.12-2.2.1/config/kafka_server_jaas.conf kafka.Kafka " EXTRAARGSDjava.security.auth.login.config=/home/lighthouse/kafka2.122.2.1/config/kafkaserverjaas.confkafka.Kafka"@"


####  6. **kafka客户端配置**


1) 配置consumer.properties和producer.properties,都要加入以下配置



security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-512


2) 生产者配置


使用kafka-console-producer.sh脚本测试生产者,由于开启安全认证和授权,此时使用console-producer脚本来尝试发送消息,那么消息会发送失败,原因是没有指定合法的认证用户,因此客户端需要做相应的配置,需要创建一个名为producer.conf的配置文件给producer程序使用。


config目录下创建一个producer.conf的文件,cat producer.conf文件内容如下:



security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.Scra
mLoginModule required username=“producer” password=“producer123”;


注意:Topic设置写权限


3) 消费者配置


使用kafka-console-consumer.sh脚本测试生产者,由于开启安全认证和授权,因此客户端需要做相应的配置。需要为 consumer 用户创建consumer.conf给消费者程序,同时设置对topic的读权限。


config目录下创建一个consumer.conf的文件,cat consumer.conf文件内容如下:



security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.Scra
mLoginModule required username=“consumer” password=“consumer123”;


注意:Topic设置读权限。


4) 在生产者和消费者启动脚本中引入JAAS文件



vim bin/kafka-console-producer.sh

if [ “x$KAFKA_HEAP_OPTS” = “x” ]; then
export KAFKA_HEAP_OPTS=“-Xmx512M”
fi

添加这行

export KAFKA_OPTS=“-Djava.security.auth.login.config=…/config/kafka_server_jaas.conf”

exec $(dirname 0 ) / k a f k a − r u n − c l a s s . s h k a f k a . t o o l s . C o n s o l e P r o d u c e r " 0)/kafka-run-class.sh kafka.tools.ConsoleProducer " 0)/kafkarunclass.shkafka.tools.ConsoleProducer"@"

vim bin/kafka-console-consumer.sh

if [ “x$KAFKA_HEAP_OPTS” = “x” ]; then
export KAFKA_HEAP_OPTS=“-Xmx512M”
fi

添加这行

export KAFKA_OPTS=“-Djava.security.auth.login.config=…/config/kafka_server_jaas.conf”

exec $(dirname 0 ) / k a f k a − r u n − c l a s s . s h k a f k a . t o o l s . C o n s o l e C o n s u m e r " 0)/kafka-run-class.sh kafka.tools.ConsoleConsumer " 0)/kafkarunclass.shkafka.tools.ConsoleConsumer"@"


### 启动kafka



nohup kafka-server-start.sh /path-to-kafka/config/server.properties &文章来源地址https://www.toymoban.com/news/detail-855971.html




还有兄弟不知道网络安全面试可以提前刷题吗?费时一周整理的160+网络安全面试题,金九银十,做网络安全面试里的显眼包!


王岚嵚工程师面试题(附答案),只能帮兄弟们到这儿了!如果你能答对70%,找一个安全工作,问题不大。


对于有1-3年工作经验,想要跳槽的朋友来说,也是很好的温习资料!


【完整版领取方式在文末!!】


***93道网络安全面试题***


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka








Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka





Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka





内容实在太多,不一一截图了


### 黑客学习资源推荐


最后给大家分享一份全套的网络安全学习资料,给那些想学习 网络安全的小伙伴们一点帮助!


对于从来没有接触过网络安全的同学,我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。


😝朋友们如果有需要的话,可以联系领取~

#### 1️⃣零基础入门


##### ① 学习路线


对于从来没有接触过网络安全的同学,我们帮你准备了详细的**学习成长路线图**。可以说是**最科学最系统的学习路线**,大家跟着这个大的方向学习准没问题。


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


##### ② 路线对应学习视频


同时每个成长路线对应的板块都有配套的视频提供:


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


#### 2️⃣视频配套工具&国内外网安书籍、文档


##### ① 工具


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


##### ② 视频


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


##### ③ 书籍


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

资源较为敏感,未展示全面,需要的最下面获取

Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafkaApache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka


##### ② 简历模板


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

 **因篇幅有限,资料较为敏感仅展示部分资料,添加上方即可获取👆**

  





**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注网络安全)**
Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

.png#pic_center)


##### ② 简历模板


Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1),2024年程序员学习,apache,zookeeper,kafka

 **因篇幅有限,资料较为敏感仅展示部分资料,添加上方即可获取👆**

  





**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**需要这份系统化的资料的朋友,可以添加V获取:vip204888 (备注网络安全)**
[外链图片转存中...(img-8MQApmHb-1713299871460)]

**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

到了这里,关于Apache zookeeper kafka 开启SASL安全认证_kafka开启认证(1)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • kafka安全认证与授权(SASL/PLAIN)

    SASL 鉴权协议,主要用来保证客户端登录服务器的时候,传输的鉴权数据的安全性,SASL是对用户名和密码加解密用的 SSL 是一种间于传输层(比如TCP/IP)和应用层(比如HTTP)的协议。对传输内容进行加密,如HTTPS 如果使用了SASL但是没有使用SSL,那么服务端可以认证客户端的身

    2023年04月25日
    浏览(33)
  • Kafka安全认证机制详解之SASL_PLAIN

    官方文档: https://kafka.apache.org/documentation/#security 在官方文档中,kafka有五种加密认证方式,分别如下: SSL:用于测试环境 SASL/GSSAPI (Kerberos) :使用kerberos认证,密码是加密的,也是当前企业中使用最多的,最小支持版本0.9 SASL/PLAIN :使用简单用户名和密码形式,生产环境中一

    2024年01月21日
    浏览(34)
  • 第一章 Kafka 配置部署及SASL_PLAINTEXT安全认证

    第一章 Kafka 配置部署及SASL_PLAINTEXT安全认证 第二章  Spring Boot 整合 Kafka消息队列 生产者 第三章  Spring Boot 整合 Kafka消息队列 消息者 Kafka下载地址:Apache Kafka 2.1、修改 Zookeeper 配置文件 config/zookeeper.properties 2.2、Zookeeper 配置文件修改内容 2.2、Zookeeper 配置文件增加配置说明

    2024年01月16日
    浏览(33)
  • Kafka增加安全验证安全认证,SASL认证,并通过spring boot-Java客户端连接配置

    公司Kafka一直没做安全验证,由于是诱捕程序故需要面向外网连接,需要增加Kafka连接验证,保证Kafka不被非法连接,故开始研究Kafka安全验证 使用Kafka版本为2.4.0版本,主要参考官方文档 官网对2.4版本安全验证介绍以及使用方式地址: https://kafka.apache.org/24/documentation.html#secu

    2024年02月01日
    浏览(44)
  • storm统计服务开启zookeeper、kafka 、Storm(sasl认证)

    部署storm统计服务开启zookeeper、kafka 、Storm(sasl认证) 当前测试验证结果: 单独配置zookeeper 支持acl 设置用户和密码,在storm不修改代码情况下和kafka支持 当kafka 开启ACL时,storm 和ccod模块不清楚配置用户和密码。 使用python脚本连接kafka用户和密码是能成功发送消息。 当前部署

    2024年01月22日
    浏览(39)
  • 单机部署Kafka和开启SASL认证

    操作系统:linux apache-zookeeper-3.8.1-bin.tar.gz kafka_2.13-3.4.0.tgz 1.上传zookeeper 与kafka到 /opt 2、解压 tar -zxvf apache-zookeeper-3.8.1-bin.tar.gz tar -zxvf  kafka_2.13-3.4.0.tgz mv apache-zookeeper-3.8.1-bin zookeeper mv kafka_2.13-3.4.0 kafka 3、修改zookeeper配置文件并启动 修改zoo.cfg,增加以下命令 创建zk_server_j

    2024年01月22日
    浏览(34)
  • Kafka 开启 SASL/PLAINTEXT 认证及 ACL

    在之前的开发工作中,需要开发使用用户名密码的方式连接 Kafka 并对 Kafka 数据进行处理,但是客户并没有提供可以测试的环境,于是就自己着手搭建了一套单节点的 Kafka 并开启 SASL 认证。 1、组件版本 组件 版本 kafka 2.11-2.22 zookeeper 3.6.2 2、下载文件 KAFKA:下载地址 ZOOKEEPER:

    2023年04月08日
    浏览(36)
  • 实战:kafka、zookeeper SASL+ACL实现动态权限认证、授权

    1. 不接入外部存储,基于kafka原生ACL认证 环境: kafka-2.2.1、zookeeper-3.6.3 ​ kafka给我们提供了 SASL/SCRAM 模式,将SASL、ACL规则信息存储到zookeeper中,并且通过 KafkaClientAdmin Api,新增、编辑、删除规则,其特性如下 应用发送、消费实现动态身份认证和授权 基于kafka SASL/SCRAM 模式,

    2023年04月26日
    浏览(29)
  • 单机部署Kafka和开启SASL认证以及基础命令使用

    ​ 操作系统:linux kafka:kafka_2.13-3.3.2 zookeeper:apache-zookeeper-3.7.1-bin 1.下载zookeeper和kafka安装包 2.解压 3.修改zookeeper配置文件并启动 修改zoo.cfg文件,增加以下命令 创建zk_server_jaas.conf文件(开启kafka sasl认证使用),文件内容 此外,认证过程需要导入kafka的依赖类,在下载的kafka

    2024年01月18日
    浏览(45)
  • Zookeeper的安全认证与加密

    Zookeeper是一个开源的分布式协调服务,用于构建分布式应用程序的基础设施。它提供了一种可靠的、高性能的、分布式的协调服务,以实现分布式应用程序的一致性。Zookeeper的安全认证和加密是确保分布式应用程序的安全性和数据完整性的关键部分。 在本文中,我们将讨论

    2024年02月20日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包