自建AWS S3存储服务

这篇具有很好参考价值的文章主要介绍了自建AWS S3存储服务。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

unsetunset前言unsetunset

AWS S3(Amazon S3,全名为亚马逊简易存储服务),是亚马逊公司利用其亚马逊网络服务系统所提供的网络在线存储服务。我常用的很多SaaS服务中提供的文件存储功能,底层也都是AWS S3,比如:

  • Cloudflare中的R2基于AWS S3构建的

  • Supabase页可以兼容AWS S3(自建时,默认直接文件存储到服务器本地)

本文,简单自建一个与AWS S3完全对齐的存储服务,后面我们自建Supabase时,就可以将文件提交到这里了。

unsetunset基础环境unsetunset

我在腾讯云上购买了韩国首尔的ubuntu 22.04 LTS 2核2G,注意要购买海外的,不然要花比较多精力处理网络问题。

首先,安装一下docker。在 Ubuntu 22.04 LTS 上安装 Docker 非常简单,你可以按照以下步骤进行:

  1. 更新包索引:在终端中执行以下命令来确保本地的包索引是最新的:

sudo apt update
  1. 安装依赖包

sudo apt install apt-transport-https ca-certificates curl software-properties-common
  1. 添加 Docker 的官方 GPG 密钥

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
  1. 添加 Docker APT 仓库

sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
  1. 更新包索引(再次):为了确保新添加的 Docker APT 仓库生效,再次执行更新包索引的命令:

sudo apt update
  1. 安装 Docker CE:最后,执行以下命令安装 Docker 社区版(Docker CE):

sudo apt install docker-ce
  1. 启动 Docker 服务:安装完成后,Docker 服务会自动启动。你可以使用以下命令来检查 Docker 服务的状态:

sudo systemctl status docker

如果 Docker 正在运行,你会看到类似于 "Active: active (running)" 的信息。

现在,Docker 已经成功安装在你的 Ubuntu 22.04 LTS 上了。你可以尝试运行 docker --version 来验证 Docker 是否安装成功。

unsetunset基于minio构建S3unsetunset

minio官网:https://min.io/,它是一个完全兼容S3的开源存储方案,你可以基于他们的docker镜像自建minio,从而实现自己的存储服务,也可以使用他们提供的(Minio自己号称是世界上最快的对象存储服务),这里我们选择自建。

创建 docker-compose.yml 文件,写入如下内容:

version: '3.8'
services:

  minio:
    image: quay.io/minio/minio
    container_name: minio
    volumes:
      - ./minio-data:/data
    environment:
      MINIO_ROOT_USER: your_root_user
      MINIO_ROOT_PASSWORD: your_root_password
      MINIO_SERVER_URL: https://storage.yourdomain.com
    command: server /data --console-address ":9090"
   
  nginx:
    image: 'jc21/nginx-proxy-manager:latest'
    restart: unless-stopped
    ports:
      - '80:80'
      - '81:81'
      - '443:443'
    volumes:
      - ./nginx-data:/data
      - ./nginx-letsencrypt:/etc/letsencrypt

你需要修改MINIO_ROOT_USER、MINIO_ROOT_PASSWORD和MINIO_SERVER_URL,用户名和密码在你构建好minio时,用于登录minio服务,而MINIO_SERVER_URL是我们上传文件后,我们需要访问这个文件时,所需要使用的url,比如,我将MINIO_SERVER_URL设置成https://s3.xxxx.run,那么当我们访问minio中的文件,就会使用https://s3.xxxx.run,如下图:

自建AWS S3存储服务,aws,云计算

除了minio镜像外,我们还构建了nginx-proxy-manager服务,这个服务其实就是将nginx的各种功能通过一个webui提供出来,方便我们使用,然后还集成了一些其他服务,比如Let's Encrypt服务,这样我们就可以通过nginx-proxy-manager快速将域名从http转成https了。

docker-compose.yml内容解释完了,我们在docker-compose.yml同目录下,运行docker compose up -d,然后等待2个镜像安装并启动相应的容器,等容器启动完后,我们访问:http://your-server-ip:81就可以进入nginx-proxy-manager的页面,此时我们使用默认账号密码登录(username:admin@example.com,password:changeme),第一次登录需要修改邮箱和密码。

自建AWS S3存储服务,aws,云计算

unsetunsetnpm配置unsetunset

这里的npm是nginx-proxy-manager的简称,不是npmjs。

我们一开始使用ip:81去访问npm,但这是不太安全的,因为是http,容易被中间人攻击(虽然我感觉早期没人会攻击你,哈哈),所以我们还是用https+域名的方式访问npm比较好。

进入npm,点击Hosts -> Proxy Hosts -> Add New Proxy Host。

自建AWS S3存储服务,aws,云计算

我在name.com购买了域名,注意,在name.com购买域名时,会默认将域名的SSL证书、whois信息保护给购买,我们需要取消这个,因为我们会使用Let's Encrypt来创建证书,我一开始直接在name.com购买了域名+SSL证书服务,导致npm操作时报错,然后我又购买了一个新域名,此时没有去购买SSL证书,操作成功。

这里有一些细节,不同的CA(证书颁发机构)是否是冲突的,比如name.com自己的CA去颁发SSL证书后,是否会导致Let's Encrypt无法成功,我没有理清这里所有技术细节(就是没花时间去实验,单纯找GPT4聊了一下,感觉GPT4的回答不太符合我的技术直觉,就不贴出来了),如果你想一口气成功,就听我的,不要在name.com上购买SSL证书服务先。

假设,我购买了xxx.run的域名(没在name.com上购买SSL证书服务),此时按下图操作,将:

  • xxx.run

  • www.xxx.run

  • proxy.xxx.run

  • s3.xxx.run

  • s3-dash.xxx.run

都添加成A Type,然后映射到服务器公网IP上。

自建AWS S3存储服务,aws,云计算

回到npm,首先,我们先将proxy.xxx.run设成成npm的url,并开启https。

点击New Proxy Host时,先配置Domain Names。(图是Edit Proxy Host,是因为我创建成功了,为了截图,我打开了Edit,截图给大家看,跟New Proxy Host没有区别)

自建AWS S3存储服务,aws,云计算

我们将proxy.xxx.run添加到Domain Names里,然后在Scheme中使用http(是的,不是https),然后Forward Hostname/IP处,填入127.0.0.1,然后Forward Port为81,这样用户访问proxy.xxx.run时,就会命中这条proxy host规则,然后被nginx转发到127.0.0.1:81的服务上。

然后去到SSL配置,为域名设置https。

自建AWS S3存储服务,aws,云计算

此时点击Save,就成功了。自建AWS S3存储服务,aws,云计算

可以看见STATUS为Online。

当然我一开始也踩了坑,STATUS是Unknown,此时,就需要看一下日志。

通过 sudo docker logs -f npm容器id 的方式,实时查看npm的日志,然后重复去点击一次Save,看看是否有报错,然后再基于报错信息去查询,不要通过f12,通过chrome的Console中的报错去Google,因为这里的报错不准确,你难以定位具体的原因。

设置成功后,就可以通过proxy.xxx.run访问npm了,此时就是https的。

自建AWS S3存储服务,aws,云计算

接着,我们需要配置一下minio的路由。

我们先创建s3.xxx.run的Proxy Host配置,这里需要跟docker-compose.yml中minio配置的MINIO_SERVER_URL一致,如下图:

自建AWS S3存储服务,aws,云计算

注意,Forward Hostname/IP 处,我们写minio,Port使用的是9000,这是docker-compose.yml中minio的名称,即docker内部网络可以通过http://minio:9000去访问minio服务,这样用户访问s3.xxx.com,nginx会将流量转发到http://minio:9000服务上。

怎么判断Port是9000的?我们可以通过sudo docker ps查看到。

自建AWS S3存储服务,aws,云计算

然后,SSL设置,也是一样的,通过Let's Encrypt服务为s3.xxx.run生成SSL证书,开启https。

自建AWS S3存储服务,aws,云计算

因为s3.xxx.run是给上传文件使用的,比如我们上传了图片到minio构建的存储服务,此时想访问这个图片时,就需要使用s3.xxx.run,因为资源名称、资源大小、资源类型不可控,为了避免资源无法被访问,我们还需要配置一下nginx,实现如下效果:

  • 允许url中存在特殊字符

  • 允许访问任意大小的资源

  • 停用缓存

自建AWS S3存储服务,aws,云计算上图的内容如下:

# Allow special characters in headers
ignore_invalid_headers off;
# Allow any size file to be uploaded.
# Set to a value such as 1000m; to restrict file size to a specific value
client_max_body_size 0;
# Disable buffering
proxy_buffering off;
proxy_request_buffering off;

至此,s3.xxx.run就配置完了,我们还需配置一个url,才能访问minio的web ui服务,通过web ui服务,我们才能创建api key,有了api key,我们才能使用代码上传文件。

自建AWS S3存储服务,aws,云计算

Port使用了9090,这是因为docker-compose.yml中minio的配置,command使用了9090,所以我们需要转发到9090。

然后SSL是一样的设置。

自建AWS S3存储服务,aws,云计算

此时,访问s3-dash.xxx.com,就可以访问到minio服务了,使用docker-compose.yml中你设置的username和password。

自建AWS S3存储服务,aws,云计算

进来后,我们点击【Object Browser】 -> 【Create a Bucket】,创建好,用于存储资源的桶。自建AWS S3存储服务,aws,云计算

自建AWS S3存储服务,aws,云计算

然后,我们上传一张图片:

自建AWS S3存储服务,aws,云计算

查看图片信息:

自建AWS S3存储服务,aws,云计算

此时,点击share,就会获得图片的url,其他用户就可以通过这个url访问这张图片资源了。

为了让代码可以使用,我们可以创建Access Keys。

自建AWS S3存储服务,aws,云计算

创建好后,可以直接修改一下将文件上传到aws s3的代码,换一下access key等内容,代码如下:

import boto3
from botocore.client import Config

access_key = 'xxx'
secret_key = 'xxx'
# 桶名称
bucket_name = 'test'

# S3 兼容的终端节点
endpoint_url = 'https://s3.xxx.run'

# 创建 S3 客户端
s3_client = boto3.client('s3', 
                         endpoint_url=endpoint_url,
                         aws_access_key_id=access_key,
                         aws_secret_access_key=secret_key,
                         config=Config(signature_version='s3v4'))

# 要上传的文件路径
file_path = 'cover.jpg'
file_key = 'cover-1.jpg'  # 存储桶中的文件名

# 上传文件
try:
    s3_client.upload_file(file_path, bucket_name, file_key)
    print(f'文件成功上传到 {bucket_name}/{file_key}')
except Exception as e:
    print(f'上传失败: {e}')

运行上面的代码,会成功,然后刷新一下minio,就会看到conver-1.jpg,可以正常访问和下载。

自建AWS S3存储服务,aws,云计算minio还提供Monitoring等功能,可自行探索。

自建AWS S3存储服务,aws,云计算

unsetunset结尾unsetunset

至此,自建aws s3就完成了。

我是二两,下篇文章见,后面几篇文章,我会开始分析supabase源码。文章来源地址https://www.toymoban.com/news/detail-830311.html

到了这里,关于自建AWS S3存储服务的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [ 云计算 | AWS 实践 ] Java 应用中使用 Amazon S3 进行存储桶和对象操作完全指南

    本文收录于【#云计算入门与实践 - AWS】专栏中,收录 AWS 入门与实践相关博文。 本文同步于个人公众号:【 云计算洞察 】 更多关于云计算技术内容敬请关注:CSDN【#云计算入门与实践 - AWS】专栏。 本系列已更新博文: [ 云计算 | AWS 实践 ] Java 应用中使用 Amazon S3 进行存储桶

    2024年02月08日
    浏览(47)
  • [ 云计算 | AWS 实践 ] 使用 Java 检查指定的密钥是否存在于给定的 Amazon S3 存储桶中

    本文收录于【#云计算入门与实践 - AWS】专栏中,收录 AWS 入门与实践相关博文。 本文同步于个人公众号:【 云计算洞察 】 更多关于云计算技术内容敬请关注:CSDN【#云计算入门与实践 - AWS】专栏。 本系列已更新博文: [ 云计算 | AWS 实践 ] Java 应用中使用 Amazon S3 进行存储桶

    2024年02月05日
    浏览(65)
  • AWS——04篇(AWS之Amazon S3(云中可扩展存储)-02——EC2访问S3存储桶)

    关于AWS的前几篇入门文章,如下: AWS——01篇(AWS入门 以及 AWS之EC2实例及简单使用). AWS——02篇(AWS之服务存储EFS在Amazon EC2上的挂载——针对EC2进行托管文件存储). AWS——03篇(AWS之Amazon S3(云中可扩展存储)-01入门). 我这里使用的都是前面创建好的,关于怎么创建,请

    2024年02月13日
    浏览(46)
  • AWS——03篇(AWS之Amazon S3(云中可扩展存储)-01入门)

    关于AWS的其他入门,如下: AWS——01篇(AWS入门 以及 AWS之EC2实例及简单使用). AWS——02篇(AWS之服务存储EFS在Amazon EC2上的挂载——针对EC2进行托管文件存储). 2.1.1 简述 Amazon S3:从任意位置存储和检索任意数量的数据 Amazon S3 是一项对象存储服务,可提供业界领先的可扩展

    2024年02月14日
    浏览(47)
  • AWS s3存储桶限制IP访问

    官方参考连接: https://docs.amazonaws.cn/AmazonS3/latest/userguide/example-bucket-policies.html 1、从控制台进入对应的存储桶,进入权限,编辑策略 2、效果 命令可以查到存储桶,但是不能查看桶里面的内容 3、在命令行修改权限 如果修改权限是时候,我上面第二条IP没有加,控制台进入对应

    2024年02月12日
    浏览(52)
  • AWS S3 存储桶复制及权限同步

    1、存储桶复制 分为2种: SCR , CCR  SCR和CCR的操作文档可以参考AWS 官方文档,这里就不重复了: 复制对象 - Amazon Simple Storage Service 使用 S3 分批复制以复制现有对象 - Amazon Simple Storage Service 授予 Amazon S3 分批操作的权限 - Amazon Simple Storage Service SCR可以同步对象的权限,不需要额

    2024年02月13日
    浏览(63)
  • php对接AWS S3云存储,上传S3及访问权限问题

    首先先下载sdk包 https://docs.aws.amazon.com/zh_cn/sdk-for-php/v3/developer-guide/getting-started_installation.html S3创建存储桶 去安全凭证-》创建访问秘钥 创建的时候会提示,主账号创建不安全,这个时候我们需要创建一个IAM账号来创建秘钥 创建的步骤访问这个链接 https://www.codenong.com/a513c91ea

    2024年02月10日
    浏览(40)
  • aws对象存储s3基于lambda实现图片裁剪

    存储桶名称:wmmzz 1.存储桶策略设置 2. 创建lambda函数 点击跳转到IAM控制台,创建自定义角色,选择服务类型lambda,创建策略 输入策略下一步取名resize-policy,回到创建角色页面,搜索刚才创建的策略选中,再搜索AmazonS3FullAccess选中 点击下一步,输入角色名称resize-role,点击“创建角色

    2024年02月11日
    浏览(48)
  • 利用rclone同步google storage cloud和aws s3存储

    1、新建1台google云服务器,下载rclone  2、编辑配置rclone.conf文件 google云配置参考Google Cloud Storage aws云配置参考 Amazon S3 3、实际生成的配置文件 4、安装配置screen,放在后台运行 5、传输,rsync全量;copy可做增量;-P 显示传输速度 6、数据检验 7、注意事项 1、AWS S3不能建/文件夹

    2024年02月16日
    浏览(44)
  • 【Terraform学习】使用 Terraform创建 S3 存储桶事件(Terraform-AWS最佳实战学习)

      本站以分享各种运维经验和运维所需要的技能为主 《python》:python零基础入门学习 《shell》:shell学习 《terraform》持续更新中:terraform_Aws学习零基础入门到最佳实战 《k8》暂未更新 《docker学习》暂未更新 《ceph学习》ceph日常问题解决分享 《日志收集》ELK+各种中间件 《运

    2024年02月10日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包