文章目录
- 1.参考项目
- 2.技能点
- 3.GO的Dockerfile配置
- 后端的结构如图
- Dockerfile
- 先手动docker调试服务是否可以启动
- 报错
- 4.Vue的Dockerfile配置
- 前端的结构如图
- nginx_docker.conf
- Dockerfile
- 构建
- 5.docker-compose 整合前后端
- docker-compose.yml
- 错误记录
- (1)ip+端口改为https域名访问
- 第一种:通过挂载ssl证书文件,增加端口解决,当然可以解决,但是我得物理机现在有80,443端口造成了冲突,这种方式我直接进入到容器内,是可以访问https域名地址的;
- 第二种:直接在物理机的nginx,因为配置了多域名访问,多虚拟主机操作,直接代理转发同时配置ssl证书,也可以正常访问,只是这种是容器+物理机nginx转发操作。
- (2)镜像仓库解决方案
- 推送后端镜像
- 推送前端镜像
- 6.Docker清理缓存操作
1.参考项目
- 用 Docker 构建一个前后端分离的项目 (go+vue)
- github-gin-vue-blog
- github-compose
- goctl的Ddockerfile
- 一个基于 docker 的 go-zero 本地开发运行环境
- Gin-Vue-Admin文档
- Dockerfile 多阶段构建
- docker-compose 打包部署各种语言开发环境
- docker-compose编排部署多服务Web应用
- 手动在进入容器,在Apache中新建一个测试页面
- Compose 模板文件
- docker-compose nginx + ssl配置
- Docker nginx https二级域名无端口访问多个web项目
2.技能点
-
多段构建
- 作用是减少构建时间、减小镜像体积
-
配置、网络与存储关系
-
Dockerfile基础概念
-
nginx代理
- go 1.18.10
- vue 3.2.13
- redis 5.0
- mysql 5.7
- ecs 2c4g 10M
3.GO的Dockerfile配置
后端的结构如图
community_backend
--configs
--...
--cmd
----main.go
--go.mod
--Dockerfile
服务在 /cmd/main.go 下,build 的时候使用命令 go build /cmd/main.go
我们把 Dockerfile 建立在项目的根目录下,然后写入以下的文件
Dockerfile
# 使用 golang:alpine作为编译使用的容器, 并且将其命名为build
FROM golang:alpine as build
# FROM golang:1.18.10-alpine as build# 安装gcc等其他编译工具
# RUN apk add build-base# --no-cache 选项用于不将软件包的索引缓存到镜像中,以减小镜像大小。
# ca-certificates 包是一个包含各种根证书的集合,用于验证 HTTPS 连接的证书链的有效性。
# 通过安装该包,Docker 镜像将包含一组常见的根证书,以便应用程序可以验证和建立安全的 HTTPS 连接。
RUN apk --no-cache add ca-certificates# 如果在国内用goproxy
# ENV GOPROXY https://goproxy.cn,direct
# ENV GO111MODULE="on"# 设定一个工作目录
WORKDIR /go/src/community_backend# 复制当前文件夹下所有文件到工作目录中
COPY . .# 编译服务端
# RUN go generate && go env && go build -v -gcflags="all=-N -l" -o vc_community ./cmd/*.go # 配置 golang 环境
RUN go env -w GO111MODULE=on \&& go env -w GOPROXY=https://goproxy.cn,https://goproxy.io,direct \&& go mod tidy \&& go build -v -gcflags="all=-N -l" -o cmd/vc_community ./cmd/*.go # ===========================================================
# 多阶段构建运行服务端# 因为是在alpine里构建的, 所以同样使用alpine镜像作为运行的容器
FROM alpine:latest# 维护者
LABEL MAINTAINER = "ifanaticfire@gmail.com"# 设定一个工作目录
WORKDIR /go/src/community_backend# 从上一个容器build中复制所有的代码包含可执行文件到当前的工作目录
# COPY --from=build /go/src/community_backend ./COPY --from=build /go/src/community_backend/cmd ./cmd
COPY --from=build /go/src/community_backend/configs ./configs
COPY --from=build /go/src/community_backend/storage ./storage# 暴露端口
EXPOSE 8083# 启动服务端
#ENTRYPOINT ./cmd/vc_community --env=./cmd/env.toml
CMD cd cmd && ./vc_community
先手动docker调试服务是否可以启动
cd community_backend
// 构建镜像, community-backend 为镜像名字
docker build -t community-backend:v0.1 .
// 运行
docker run -it -p "8083:8083" --rm community-backend:v0.1
报错
- returned a non-zero code: 2
- 编译时缺少gcc组件
- 外网ip+端口无法访问后端容器服务
- 配置文件中监听方式由127.0.0.1:8083 改为 0.0.0.0:8083
4.Vue的Dockerfile配置
前端的结构如图
community-Frontend
--src
--vue.config.js
--nginx_docker.conf
--public
--package.json
--Dockerfile
nginx_docker.conf
server {listen 8084;server_name _;client_max_body_size 50M;#listen 443 ssl;#server_name community.humengxu.com;#ssl_certificate /etc/nginx/ssl/fullchain.cer;#ssl_certificate_key /etc/nginx/ssl/humengxu.com.key;#ssl_session_timeout 5m;# 指定SSL服务器端支持的协议版本# ssl_protocols TLSv1 TLSv1.1 TLSv1.2;#ssl_protocols TLSv1.1 TLSv1.2 TLSv1.3;# ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP; 指定加密算法#ssl_ciphers HIGH:!aNULL:!MD5;# 在使用SSLv3和TLS协议时指定服务器的加密算法要优先于客户端的加密算法#ssl_prefer_server_ciphers on;location /v1/ {proxy_set_header Host $proxy_host;proxy_set_header X-Real-IP $http_x_real_ip; #$remote_addr;proxy_set_header X-Forwarded_For $proxy_add_x_forwarded_for;proxy_set_header X-Forwarded-Proto $scheme;proxy_pass http://177.7.0.11:8083/v1/;#设置允许跨域add_header Access-Control-Allow-Origin *;add_header Access-Control-Allow-Methods "POST, GET, DELETE, OPTIONS";add_header Access-Control-Allow-Headers "Origin, Authorization, Accept";add_header Access-Control-Allow-Credentials true;}location / {root /usr/share/nginx/html;index index.html;try_files $uri $uri/ /index.html last;# proxy_pass http://localhost:8084;}
}#配置转发
#server {
# listen 80;
# server_name community.humengxu.com;
#
# return 301 https://$server_name$request_uri;
#}
Dockerfile
# 声明镜像来源为node:16.14.2,命名为build
FROM node:16.14.2 as build# 声明工作目录
WORKDIR /community_frontend/# 拷贝整个前端项目到当前工作目录
COPY . .# 通过npm下载cnpm
RUN npm install -g cnpm --registry=https://registry.npm.taobao.org# 使用cnpm进行安装依赖
RUN cnpm install || npm install# 安装所有的依赖
RUN npm install# 打包项目,生成的文件保存在./dist下
RUN npm run build# ===========================================================
# 多阶段构建#使用nginx
FROM nginx:alpineLABEL MAINTAINER = "ifanaticfire@gmail.com"# 暴露8084端口
EXPOSE 8084
EXPOSE 8085# 复制打包好的文件到nginx的www目录下
COPY --from=build /community_frontend/dist /usr/share/nginx/html# 把nginx的默认配置改成我们自己的
COPY --from=build /community_frontend/nginx_docker.conf /etc/nginx/conf.d/default.conf
构建
cd community_frontend
// 构建镜像, backend 为镜像名字
docker build -t community-frontend:v0.1 .
// 运行,--rm 在容器停止后自动删除容器
# docker run -it -p "8084:8084" --rm community-frontend:v0.1
5.docker-compose 整合前后端
项目结构
-- community_backend
-- community_frontend
-- docker-compose.yaml
关联的mysql和redis都采用云服务,如没有则需要单独构建mysql容器和redis容器提供服务,这里不做单独容器操作。
我们有两个 service,分别是 frontend,backend
在每个 services 里,我们通过 networks 选项给每个容器分配了一个网络,以及对应的 ip 地址。
比如 backend 就分配到了 177.7.0.11,这就是前端的nginx配置的地址。
同时,frontend 依赖 backend,这样可以让容器按顺序 (backend-frontend) 启动,以此来避免不必要的错误。
docker-compose代码片段创建了一个名为 clinicalapi 的自定义网络,并指定了 IP 地址管理的配置。其中,使用默认的 IPAM 驱动程序,并为网络分配了 177.7.0.0/16 的子网。这样,容器可以在该网络中分配 IP 地址,并可以通过该网络进行通信。
docker-compose.yml
version: "3"networks:clinicalapi:ipam:driver: defaultconfig:- subnet: '177.7.0.0/16'services:frontend:build:context: ./community_frontenddockerfile: ./Dockerfilecontainer_name: community-frontendrestart: alwaysports:- '8084:8084'# - '80:80'# - '443:443'#volumes:# - /usr/local/nginx/conf/ssl/humengxu.com:/etc/nginx/ssldepends_on:- backendcommand: [ 'nginx-debug', '-g', 'daemon off;' ]networks:clinicalapi:ipv4_address: 177.7.0.10backend:build:context: ./community_backenddockerfile: ./Dockerfilecontainer_name: community-backendrestart: alwaysports:- '8083:8083'networks:clinicalapi:ipv4_address: 177.7.0.11
完成 docker-compose.yaml 的编写后就可以尝试运行了
// 强制重写build
docker-compose up --build
// 直接运行
docker-compose up
// 后台运行
docker-compose up -d
错误记录
- 1.容器名称中不能含有除
[a-zA-Z0-9][a-zA-Z0-9_.-]
之外的内容,我上线容器采用了_,需要修改 - 2.当docker-compose.yml目录换了位置,就报错
[+] Running 0/0⠿ Network community_clinicalapi Error 0.0sfailed to create network community_clinicalapi: Error response from daemon: Pool overlaps with other one on this address space
解决:由于更换了目录,启动docker-compose.yml,存在网卡冲突的情况,需要删除网卡和对应网卡的容器即可;如下删除clinical_clinicalapi的网卡
```
docker network ls # 查看docker网卡
docker network inspect <网卡id> # 查看具体信息,找到与subnet冲突的是哪个
docker network rm <网卡id> # 删除冲突的网卡docker network ls
NETWORK ID NAME DRIVER SCOPE
3b95a7847c0f bridge bridge local
da49214cfad9 chatgpt_default bridge local
e084524662f9 clinical_clinicalapi bridge local
851e84525446 docker-compose_default bridge local
836d22ebeff8 gitlab_default bridge local
20e8d6149527 host host local
0c37e84ee02c ifanaticfire_default bridge local
74099f10338f none null local```
以上均是由步骤总结
从git clone 代码仓库 -> 通过Dockerfile打镜像,跑容器-> 再通过docker-compose整合前后端容器,并运行;
按照如上部署已经完整的将go+vue项目部署到容器中国,不过还有如下问题:
- (1)目前配置是走ip+端口形式,需要改为域名形式访问,并且要追加ssl证书;原来物理机就是这么访问的,所以目前容器化还需要改造
- (2)没有存储镜像仓库,而是由代码直接打镜像运行,不利于维护
(1)ip+端口改为https域名访问
第一种:通过挂载ssl证书文件,增加端口解决,当然可以解决,但是我得物理机现在有80,443端口造成了冲突,这种方式我直接进入到容器内,是可以访问https域名地址的;
通过 -v 挂载证书,通过-p 映射端口也是可以的,存在docker中有多个nginx的情况,就代理转发一下, 参考地址:Docker多nginx方案:https://juejin.cn/post/6847902222760558599#heading-11
docker run -it -p 443:443 -p 80:80 -v /usr/local/nginx/conf/ssl/humengxu.com:/etc/nginx/ssl --rm community-frontend:v0.1
第二种:直接在物理机的nginx,因为配置了多域名访问,多虚拟主机操作,直接代理转发同时配置ssl证书,也可以正常访问,只是这种是容器+物理机nginx转发操作。
虚拟主机的配置,用于在一台服务器上托管多个网站或应用程序。
虚拟主机允许通过同一个IP地址和端口来访问多个域名或应用程序,并根据请求的域名或其他条件来将请求路由到相应的网站或应用程序。
- 在Apache中,虚拟主机的配置通常是通过在配置文件(如httpd.conf或apache2.conf)中添加VirtualHost块来实现。每个VirtualHost块对应一个虚拟主机的配置,其中包含了该虚拟主机的域名、目录路径、日志文件路径等相关信息。可以根据需要添加多个VirtualHost块,每个块对应一个虚拟主机。
- 在Nginx中,虚拟主机的配置通过server块来实现。每个server块对应一个虚拟主机的配置,其中包含了该虚拟主机的域名、目录路径、日志文件路径等相关信息。可以根据需要添加多个server块,每个块对应一个虚拟主机。
communit_frontend.conf
server
{listen 443 ssl;server_name community.humengxu.com; ssl_certificate /usr/local/nginx/conf/ssl/humengxu.com/fullchain.cer;ssl_certificate_key /usr/local/nginx/conf/ssl/humengxu.com/humengxu.com.key;ssl_session_timeout 5m; # 指定SSL服务器端支持的协议版本# ssl_protocols TLSv1 TLSv1.1 TLSv1.2;ssl_protocols TLSv1.1 TLSv1.2 TLSv1.3;# ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP; 指定加密算法ssl_ciphers HIGH:!aNULL:!MD5;# 在使用SSLv3和TLS协议时指定服务器的加密算法要优先于客户端的加密算法ssl_prefer_server_ciphers on; location /v1/ {proxy_set_header Host $proxy_host;proxy_set_header X-Real-IP $http_x_real_ip; #$remote_addr;proxy_set_header X-Forwarded_For $proxy_add_x_forwarded_for;proxy_pass https://community-api.varclear.com/v1/;#设置允许跨域add_header Access-Control-Allow-Origin *;add_header Access-Control-Allow-Methods "POST, GET, DELETE, OPTIONS";add_header Access-Control-Allow-Headers "Origin, Authorization, Accept";add_header Access-Control-Allow-Credentials true;}location / {proxy_redirect off;proxy_set_header Host $host;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_pass http://1.14.34.33:8084/;}
}
# 配置转发
server {listen 80; server_name community.humengxu.com;# return 301 https://$server_name$request_uri;rewrite ^(.*)$ https://${server_name}$1 permanent;
}
(2)镜像仓库解决方案
制作前端和后端的镜像,然后把制作好的镜像发布
推送默认的dockerhub仓库中(当然可以自建仓库,用阿里云oss等都行)
将docker-compose打包的镜像改名字上传仓库
推送后端镜像
docker tag clinical-backend:latest firehmx/clinical-backend:v0.1
docker push firehmx/clinical-backend:v0.1
推送前端镜像
docker tag clinical-frontend:latest firehmx/clinical-frontend:v0.1
docker push firehmx/clinical-frontend:v0.1
接着修改 docker-compose.yml,把 build 参数改为 image,填上我们自己的镜像名字就行了。
services:frontend:build:context: ./community_backenddockerfile: ./Dockerfile... 改为frontend:image: firehmx/clinical-frontend:v0.1...backend:build:context: ./community_backenddockerfile: ./Dockerfile...改为backend:image: firehmx/clinical-backend:v0.1...
配置好docker-compose.yml,然后用 docker-compose up 就可以运行这整一个前后端分离项目
6.Docker清理缓存操作
- 参考地址:https://docs.docker.com/engine/reference/commandline/builder_prune/
- 在构建测试的过程中,由于是自家小服务器,资源紧张,发现磁盘一直爆满,删除一些大镜像还是会占满的情况,就想到是不是也是缓存问题。
经过查询确实是build过程中的缓存启发的占用问题。
Docker 18.09 引入了 BuildKit ,提升了构建过程的性能、安全、存储管理等能力。
docker system df 命令,类似于 Linux上的 df 命令,用于查看 Docker 的磁盘使用情况:
TYPE 列出了 Docker 使用磁盘的 4 种类型:
类型 | 说明 |
---|---|
Images | 所有镜像占用的空间,包括拉取下来的镜像,和本地构建的。 |
Containers | 运行的容器占用的空间,表示每个容器的读写层的空间。 |
Local Volumes | 容器挂载本地数据卷的空间。 |
Build Cache | 镜像构建过程中产生的缓存空间(只有在使用 BuildKit 时才有,Docker 18.09 以后可用)。 |
没清理前:
TYPE TOTAL ACTIVE SIZE RECLAIMABLE
Images 46 18 8.928GB 6.253GB (70%)
Containers 29 6 1.779GB 1.779GB (99%)
Local Volumes 5 5 759.8MB 0B (0%)
Build Cache 176 0 5.59GB 5.59GB
清理后:
TYPE TOTAL ACTIVE SIZE RECLAIMABLE
Images 46 18 8.928GB 6.253GB (70%)
Containers 29 6 1.779GB 1.779GB (99%)
Local Volumes 5 5 759.8MB 0B (0%)
Build Cache 111 0 0B 0B
一键清理 Build Cache 缓存命令:
docker builder prune
如果你希望保留最近一定时间的缓存,删除时长更久的缓存,可以通过添加 --filter 参数实现,例如保留最近10天的缓存示例命令如下:
docker builder prune --filter 'until=240h'
另外,命令 docker system prune 可以用于清理磁盘,删除关闭的容器、无用的数据卷和网络,以及dangling镜像(即无tag的镜像)。
添加参数 docker system prune -a 清理得更加彻底,可以将没有容器使用Docker镜像都删掉。
本文链接:https://my.lmcjl.com/post/7320.html
4 评论