初学者部署Ambari及通过Ambari安装hadoop相关组件

这篇具有很好参考价值的文章主要介绍了初学者部署Ambari及通过Ambari安装hadoop相关组件。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1.准备工作

1.2初始化配置

1.2.1设置主机名

1.2.2HOSTS文件

1.2.3关闭防火墙和selinux

1.2.4免密配置(单台机器也需要)

1.2.5修改yum源为阿里源

1.2.6配置JAVA环境变量(如果未安装java环境则需要先安装)

​​​​​​​1.2.7NTP时钟同步

​​​​​​​1.2.8安装httpd服务

​​​​​​​1.2.9安装MySQL并创建库

2.部署Ambari

2.1 下载包

2.2 配置本地源

2.3 安装启动ambari

 3.通过Ambari安装自带组件

4.通过Ambrai安装elk

4.1准备工作

4.1.1下载相关安装包

4.1.2上传解压拷贝

4.2 安装

5.安装部署遇到的问题

5.1 Error: Could not open client transport with JDBC Uri

5.2 hive服务启动报错

5.3 elasticesearch用户名组的问题

5.4 elasticsearch无法导入format_hdp_stack_version

5.5 kibana无法导入format_hdp_stack_version

5.6 kibana无法导入format_hdp_stack_version

5.7 hostname was not found in configuration dictionary

5.8 master和slave启动后又停止

5.9 parent directory /opt/elasticsearch/master/config doesnot exist


 

1.准备工作

1.1环境版本说明

Ambrai :2.7.1.0-169

Hdp:3.0.1.0-187

Centos: 3.10.0-123.el7.x86_64

IP:192.168.31.139

只有一台虚拟机所以全部采取单节点模式.

1.2初始化配置

1.2.1设置主机名

echo master >> /etc/hostname

1.2.2HOSTS文件

cat > /etc/hosts <<EOF

192.168.31.139 master

EOF

1.2.3关闭防火墙和selinux

#关闭防火墙

systemctl stop firewalld.service

systemctl disable firewalld.service

#查看状态

firewall-cmd --state

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

#关闭selinux

setenforce 0

sed -i ‘s/SELINUX=*/SELINUX=disabled/g’ /etc/sysconfig/selinux

sysctl -p /etc/sysconfig/selinux

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

1.2.4免密配置(单台机器也需要)

执行如下命令:

1)# ssh-keygen -t rsa

一直回车到结束 /root/.ssh/目录下生成了两个文件 id_rsa 和 id_rsa.pub其中前者为私钥,后者为公钥

2)#cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

1.2.5修改yum源为阿里源

  1. 先备份

mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo_bak

  1. 下载repo源

wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

​​​​​​​1.2.6配置JAVA环境变量(如果未安装java环境则需要先安装)

说明:默认只有jre环境,无jdk开发环境

查看linux7默认运行环境jre

# ls -lrt /etc/alternatives/java

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

在根目录下对.bash_profile新增如下配置(其中java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64为自带的java版本):

# jdk config

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64

export JRE_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.362.b08-1.el7_9.x86_64/jre

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin

然后加载环境变量

source .bash_profile

​​​​​​​1.2.7NTP时钟同步

#安装ntpdate命令

# yum install ntpdate -y

#跟网络时间做同步

# ntpdate cn.pool.ntp.org

#把时间同步做成计划任务

# crontab -e

* */1 * * * /usr/sbin/ntpdate   cn.pool.ntp.org

#重启crond服务

#service crond restart

​​​​​​​1.2.8安装httpd服务

httpd包及依赖包下载:

链接:https://pan.baidu.com/s/1roRtXBkmfM2WOoLcoDfXAQ

提取码:q4my

执行如下命令,依次按照rpm包

rpm -ivh XXX.rpm

启动:

#systemctl start httpd.service
开机启动:

#systemctl enable httpd.service

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

​​​​​​​1.2.9安装MySQL并创建库

1)安装

通过https://mariadb.org/mariadb/all-releases选择要下载的版本

按照提示信息创建yum源信息文件
#vi /etc/yum.repos.d/MariaDB.repo

[mariadb]

name = MariaDB

baseurl = https://mirrors.aliyun.com/mariadb/yum/10.3/centos7-amd64

gpgkey=https://mirrors.aliyun.com/mariadb/yum/RPM-GPG-KEY-MariaDB

gpgcheck=1

# yum install -y MariaDB-server MariaDB-client

启动mariadb
systemctl start mariadb
设置为开机自启动
systemctl enable mariadb

2)创建库ambari和hive库

create database ambari character set utf8 ;  

CREATE USER 'ambari'@'%'IDENTIFIED BY 'XXXXX';

GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%' IDENTIFIED BY 'XXXXX';

FLUSH PRIVILEGES;

create database hive character set utf8 ;  

CREATE USER 'hive'@'%'IDENTIFIED BY 'XXXXX';

GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' IDENTIFIED BY 'XXXXX';

3)下载jdbc驱动包

mysqld的相关jar可以从MySQL :: Download MySQL Connector/J (Archived Versions)中下载,并放在/usr/share/java下。

2.部署Ambari

2.1 下载包

下载 Ambari HDP、HDP-UTILS、 HDP-GPL源包

# mkdir -p /var/www/html/ambari
将ambari需要的包解压到var/www/html/ambari下
# tar -zxvf ambari-2.7.1.0-centos7.tar.gz -C /var/www/html/ambari/
# unzip HDP.zip -C /var/www/html/ambari/
# tar -zxvf HDP-GPL-3.0.1.0-centos7-gpl.tar.gz -C /var/www/html/ambari/
# tar -zxvf HDP-UTILS-1.1.0.22-centos7.tar.gz -C /var/www/html/ambari/

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

当httpd服务启动后,执行命令curl http://192.168.31.139:8000/ambari/返回如下表示httpd服务正常

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

2.2 配置本地源

cd /etc/yum.repos.d/ 配置相关repo文件

[root@master yum.repos.d]# cat hdp.gpl.repo

#VERSION_NUMBER=3.0.1.0-187

[HDP-GPL-3.0.1.0]

name=HDP-GPL Version - HDP-GPL-3.0.1.0

baseurl=http://192.168.31.139:8000/ambari/HDP-GPL/centos7/3.0.1.0-187/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP-GPL/centos7/3.0.1.0-187/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

enabled=1

priority=1

[root@master yum.repos.d]# cat ambari.repo

#VERSION_NUMBER=2.7.1.0-169

[ambari-2.7.1.0]

name=ambari Version - ambari-2.7.1.0

baseurl=http://192.168.31.139:8000/ambari/ambari/centos7/2.7.1.0-169/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/ambari/centos7/2.7.1.0-169/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

enabled=1

priority=1

[root@master yum.repos.d]# cat hdp.repo

#VERSION_NUMBER=3.0.1.0-187

[HDP-3.0.1.0]

name=HDP-3.0.1.0

baseurl=http://192.168.31.139:8000/ambari/HDP/centos7/3.0.1.0-187/

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP/centos7/3.0.1.0-187/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

enabled=1

priority=1

[HDP-UTILS-1.1.0.22]

name=HDP-UTILS Version - HDP-UTILS-1.1.0.22/

baseurl=http://192.168.31.139:8000/ambari/HDP-UTILS/centos7/1.1.0.22

gpgcheck=1

gpgkey=http://192.168.31.139:8000/ambari/HDP-UTILS/centos7/1.1.0.22/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins

enabled=1

priority=1

然后执行如下命令:

#yum clean all     //清除YUM缓存

#yum makecache //建立缓存

#yum repolist

2.3 安装启动ambari

# yum install ambari-server -y

# ambari-server setup

根据提示选择进行安装
1.y
2.回车
3.Enable Ambari Server to download and install GPL Licensed LZO packages [y/n] (n)
4.Enter advanced database configuration [y/n] (n)? y
5.Enter choice (1): 3
Hostname (localhost): 192.168.31.139
Port (7306):
Database name (ambari): ambaridb
MySql schema (ambari):
Username (ambari): ambari
Enter Database Password (ambari):Amvari-123
Re-enter password:
Configuring ambari database...
----------------------------------------------------------

启动服务
# ambari-server start

Server started listening on 8080
DB configs consistency check: no errors and warnings were found.
Ambari Server 'start' completed successfully.

访问Web初始化配置集群
URL:http:192.168.31.139:8080
账号/密码:admin/admin

 3.通过Ambari安装自带组件

1)Ambari服务成功启动,在浏览器输入Ambari地址:http://192.168.31.139:8080  默认用户名admin 密码admin登录后进入如下界面:

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 2)点击“LAUNCH INSTALL WIZARD”进行创建集群,在如下界面输入集群名称“HDPSKY”,名称自定义即可。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 3)点击“next”,弹出如下界面,选择“Use Local Repository”,然后在部分选择对应的os,并在每一项的Base URL处输入源地址,即1.2.8节配置的httpd服务地址。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

4)点击“next”,弹出如下界面,选择通过SSH Private Key进行认证方式,即1.2.4节配置互相免密。将master机器上的id_rsa私钥到本地,并点击“CHOOSE FILE”进行上传,点击“next”。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 注意:如果是单节点也需要配置免密,即ssh 本机地址不需要输入密码表示配置正确,否则会在点击“next”后,server日志会报如下错误。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 5)在点击“next”后,弹出如下告警信息,可忽略,原因为hosts文件解析配置的域名为master,点击“CONTINUE”。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

6)选择服务进行安装配置,默认选择即可,如此时未安装,则该过程完成后,也可以再行添加安装。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

7)服务Master配置

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

8)服务的Slaves 和 Clients节配置

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

在弹出如下框处,输入相关密码,默认和用户名一样。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

9)服务的客制化配置,如果存在报警,请按照提示进行修改地址或者密码

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

注意在配置HIVE数据库时候,选择“Existing MySQL”选项,因为master节点已经安装了MySQL。否则会报错如下:

 ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

上图注意红框处,需要下载jdbc的渠道包,见1.2.9第3)步准备,执行如下操作即可。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

配置修改完成后,可以点击“TEST CONNECTION”进行连接测试,出现如下表示成功。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

 ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

安装启动后,出现如下提示,可以点击红框处进行查看日志具体情况进行分析解决。

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

4.通过Ambrai安装elk

4.1准备工作

4.1.1下载相关安装包


elasticsearch-6.4.2.tar.gz
kibana-6.4.2-linux-x86_64.tar.gz
Ambari-Elastic-Service-master.zip
下载地址:
https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-4-2
下载地址:
https://www.elastic.co/cn/downloads/past-releases/kibana-6-4-2
下载地址:https://github.com/BalaBalaYi/Ambari-Elastic-Service

4.1.2上传解压拷贝


1)Ambari-Elastic-Service-master.zip
新建/opt/es目录,将Ambari-Elastic-Service-master.zip上传至此目录并解压。

进入解压后的目录,将ELASTICSEARCH-6.4.x文件夹和KIBANA-6.4.x文件夹拷贝到/var/lib/ambari-server/resources/stacks/HDP/3.0/services目录,

进入/var/lib/ambari-server/resources/stacks/HDP/3.0/services目录,将ELASTICSEARCH-6.4.x和KIBANA-6.4.x重命名为ELASTICSEARCH和KIBANA

2)elasticsearch-6.4.2.tar.gz 和 kibana-6.4.2-linux-x86_64.tar.gz
新建/var/www/html/es目录,将kibana-6.4.2-linux-x86_64.tar.gz和elasticsearch-6.4.2.tar.gz两个压缩包上传至此目录通过浏览器输入http://192.168.31.139:8080/es测试能否访问此目录(需要有httpd服务,1.2.8节)

3)重启ambari-server
#ambari-server restart

4.2 安装

在Ambari页面“Services”处点击“Add Service”

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

勾选Elasticsearch和Kibana

选择master和server服务安装的节点

选择slave服务安装的节点

服务配置界面有红点提示需要补充完整

elasticsearch的Discovery Zen Ping Unicast Hosts参数(之前所选安装的节点,master)

elasticsearch的Elasticsearch Download Url参数(安装包地址)

kibana的Elasticsearch Url参数(es的使用地址,按照提示进行配置)

kibana的Server Host参数(之前所选安装的节点)

kibana的Kibana Download Url(安装包地址,见4.1.2)

点下一步点部署。

5.安装部署遇到的问题

5.1 Error: Could not open client transport with JDBC Uri

ambari 安装,mysql,hbase,hadoop,hive,elasticsearch

在 hadoop 文件 core-site.xml 中配置信息如下,重启Hadoop,再次动 hiveserver2 和 beeline 即可

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

5.2 hive服务启动报错

错误信息:Sys DB and Information Schema not created yet

解决方案:
#cd /etc/hive/
#touch /etc/hive/sys.db.created
进入ambari-server 端重启
#ambari-server restart

5.3 elasticesearch用户名组的问题

错误信息:KeyError: u'elasticsearch'
Error: Error: Unable to run the custom hook script ['/usr/bin/python', '/var/lib/ambari-agent/cache/stack-hooks/before-ANY/scripts/hook.py', 'ANY', '/var/lib/ambari-agent/data/command-102.json', '/var/lib/ambari-agent/cache/stack-hooks/before-ANY', '/var/lib/ambari-agent/data/structured-out-102.json', 'INFO', '/var/lib/ambari-agent/tmp', 'PROTOCOL_TLSv1_2', '']

解决:

需要修改ambari-server资源中的一个配置参数,将gnore_groupsusers_create由false改为true之后手动创建用户和用户组
具体步骤:

#cd /var/lib/ambari-server/resources/scripts

#python configs.py -u admin -p admin -n cluster_es -l manager.node -t 8080 -a get -c cluster-env | grep -i ignore_groupsusers_create

#python configs.py -u admin -p admin -n cluster_es -l manager.node -t 8080 -a set -c cluster-env -k ignore_groupsusers_create -v true

5.4 elasticsearch无法导入format_hdp_stack_version

错误:ImportError: cannot import name format_hdp_stack_version

解决:

第一步、

#cd /var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/package/scripts

#vim params.py

params.py文件中的format_hdp_stack_version删除。

第二步、清除所有elasticsearch slave节点的ambari-agent缓存。

#rm -rf /var/lib/ambari-agent/cache/*

进入ambari-server 端重启
#ambari-server restart

5.5 kibana无法导入format_hdp_stack_version

解决办法同上。
#cd /var/lib/ambari-server/resources/stacks/HDP/3.0/services/KIBANA/package/scripts目录。
清除缓存,重启ambari server和agent服务之后重新安装或者重试,遇到下面错误。

5.6 kibana无法导入format_hdp_stack_version

错误:kibana的_new__() takes at least 2 arguments(1 given)

解决:在kibana server节点上创建kibana用户(组其实脚本已经创建了)。

useradd -g kibana kibana

5.7 hostname was not found in configuration dictionary

错误:"/var/lib/ambari-agent/cache/stacks/HDP/3.0/services/ELASTICSEARCH/package/templates/elasticsearch.master.yml.j2", line 93, in top-level template code
action.destructive_requires_name: {{action_destructive_requires_name}}
File "/usr/lib/ambari-agent/lib/resource_management/libraries/script/config_dictionary.py", line 73, in __getattr__
raise Fail("Configuration parameter '" + self.name + "' was not found in configurations dictionary!")
resource_management.core.exceptions.Fail: Configuration parameter 'hostname' was not found in configurations dictionary!

解决办法:

cd /var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/configuration

编辑elasticsearch-config.xml,发现其中的discovery.zen.ping.unicast.hosts属性的值是空的。

我们在安装的时候是填了这个参数的,将这个参数的值给补上。

<name>discovery.zen.ping.unicast.hosts</name>
<value>master</value>

cd

/var/lib/ambari-server/resources/stacks/HDP/3.0/services/ELASTICSEARCH/package/scripts
编辑params.py,发现其中有两处hostname=config[‘hostname’]的写法。

将两处都修改为:

hostname = config['configurations']['elasticsearch-config']['discovery.zen.ping.unicast.hosts'] 

清除所有elasticsearch slave节点的ambari-agent缓存。
server节点重启ambari-server restart
slave节点重启ambari-agent restart
重启elasticsearch服务,发现服务可以启动了

5.8 master和slave启动后又停止

查看日志会发现提示这两个错误。

错误提示:

max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
解决办法:
每个进程最大同时打开文件数太小,可通过下面2个命令查看当前数量

ulimit -Hn
ulimit -Sn

修改/etc/security/limits.conf文件,增加配置(所有master和slave节点)。

错误提示:

max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
解决办法:
修改/etc/sysctl.conf文件,增加配置(所有master和slave节点)。

vm.max_map_count=262144

然后执行命令sysctl -p生效

sysctl -p

5.9 parent directory /opt/elasticsearch/master/config doesnot exist

这个错误在另外两个slave节点上出现的。
解决办法很简单,直接创建一个空的目录就可以。

mkdir -p /opt/elasticsearch/master/config文章来源地址https://www.toymoban.com/news/detail-739433.html

到了这里,关于初学者部署Ambari及通过Ambari安装hadoop相关组件的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 通过 Midjourney 彻底改变您的平面设计:AI 图像生成初学者指南

    AI 生成的艺术作品正在兴起。随着机器学习和神经网络的进步,人工智能越来越有能力创建高质量、逼真的图像。目前最流行的 AI 图像生成工具之一是 Midjourney。 RTX 3070 Ti 与 RTX 2080 Ti:2023 年哪个更好? Midjourney 为您提供了强大的功能,可以根据您的描述性输入生成令人惊叹

    2024年02月09日
    浏览(62)
  • CentOS 7安装全解析:适合初学者的指导

    目录 前言 一.centos安装 1.下载镜像文件 2.安装   二.远程连接,换源 1.下载并且使用MobaXtermMobaXterm free Xserver and tabbed SSH client for Windows (mobatek.net)https://mobaxterm.mobatek.net/ 远程连接 2.换源 在当今的信息化时代,服务器操作系统扮演着至关重要的角色。无论是搭建个人网站、部署

    2024年01月23日
    浏览(60)
  • Mission Planner初学者安装调试教程指南(APM或PIX飞控)6——富斯i6通过mission planner设置飞行模式(结合二挡三挡开关设置六种飞行模式)及主要飞行模式简介

    目录   一、遥控器设置 第一步要对遥控器进行设置。不同的教程有不同的推荐数值,这是一种测试可用的方案。missionplanner可以在初始设置飞行模式设置六种模式。 警告⚠️ 1.飞行模式需要其他模块的支持,例如气压计,高度计,指南针🧭,不正确的设置飞行模式可能因为

    2024年02月16日
    浏览(40)
  • Ubuntu20.04安装CUDA&&cudnn(初学者详细图文教程)

    注:本机系统为 Ubuntu20.04 1. 安装显卡驱动 打开‘软件和更新,点击附加驱动安装显卡驱动。 2. gcc安装 若系统为Ubuntu22.04,则需要安装。 在终端输入一下指令,查看有没有gcc。 3. gcc安装 本机ubuntu20.04 gcc自带版本为9.4.0 安装gcc-7,command: 安装完gcc-7,系统中就存在两个版本的

    2023年04月12日
    浏览(47)
  • 免费的modelsim安装教程(Intel modelsim altera 的初学者)

    intel官方软件的地址(https://www.intel.com/content/www/us/en/software/programmable/quartus-prime/model-sim.html)需要注册。 进入下载页面,没有单独的modelsim的下载项,需要先进入quartus pro的下载页面中: 进入之后,选择individual Files,将关于modelsim有关的三个文件均下载下来,放在同一个文件

    2024年02月07日
    浏览(41)
  • Centos7下的DNS服务器部署(每一步图文结合超详细,适用于初学者)

    关于DNS服务,网上都有很多很详细很专业的讲解,但是对于大部分初学者可能看的比较懵懂,用白话来说就是起初人们因为对大量用于访问服务器的IP地址难以记住,所以就逐渐出现了域名的形式(诸如:www.baidu.com 之类的),但是计算机本身只能识别出像192.168.10.112之类的

    2024年02月07日
    浏览(66)
  • chatgpt赋能python:Python初学者必知:如何正确安装pandas模块

    如果你是一名初学者,或者只是想学习数据分析的人,你可能已经听说过 pandas 这个模块。Pandas 是一个 Python 的数据处理库,它提供了各种数据结构,可以使用户轻松地处理大量数据。但是,在安装 Pandas 的时候,可能会遇到一些问题。下面,我们将给大家介绍一些方法,来确

    2024年02月07日
    浏览(60)
  • 超详细的的PyTorch安装教程,成功率高,适合初学者,亲测可用。

    啰嗦几句: 网上的教程很多,安装的方法多种多样,操作复杂,成功率还不高。 小编在淘宝专门帮助不会安装的小伙伴远程配置环境,这方法都是测试过了,适用大部分人的 ,完全按照文章来操作,基本都是可以安装成功的。 如果你不想再折腾了 ,可能联系 技术客服344

    2024年02月02日
    浏览(46)
  • Mac安装配置Visual Studio Code(vscode)以及Java环境详细教程(初学者必看)

    原本博主今天想继续给大家出Java接下来的教程,但是就在昨天我在配置vscode的时候遇到了一些问题,Windows系统的小伙伴配置起来肯定很方便,但是在Mac的小伙伴却显得十分无奈,所以我想给大家出一篇Mac的Visual Studio Code配置以及Java环境搭建教程! 博客主页:Jovy.的博客_CSDN博客-领

    2024年02月01日
    浏览(84)
  • 爬虫,初学者指南

    1.想目标地址发起请求,携带heards和不携带heards的区别 request模块用于测速发送数据的连通性,通过回复可以看出418,Connection:close表示未获取到服务器的返回值,需要添加heards信息,此服务器拒绝非浏览器发送的请求。 上图可以看出添加了头信息headers之后成功获取了返回值

    2024年02月07日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包