云原生Jenkins实践
部署Jenkins 命名空间 service account service pvc deployment 初始化Jenkins 换源 通用设置 集成k8s 验证动态pod构建 实际应用 内网及代理配置 插件 构建项目配置 jenkinsfile编写 后端 pod template jenkinsfile 前端 多用户及权限管理 多任务批量执行 排坑 参考 本文总结了我在工
部署Jenkins 命名空间 service account service pvc deployment 初始化Jenkins 换源 通用设置 集成k8s 验证动态pod构建 实际应用 内网及代理配置 插件 构建项目配置 jenkinsfile编写 后端 pod template jenkinsfile 前端 多用户及权限管理 多任务批量执行 排坑 参考 本文总结了我在工
效果 硬件配置 树莓派初始化 写入操作系统 网络配置 有线 无线 static dhcp 系统配置 温度监测 安全关机 部署gammu 部署gammu-smsd 手机卡配置 RoadMap Troubleshooting 参考 效果 插在树莓派上的手机卡收到短信后,自动通过互联网转发到企业微信的app中。解决多卡用户没有足够手机的问题。 硬件配置 Raspberry Pi 4B 4GB
问题 解决 参考 问题 k8s集群通过ingress-nginx暴露前端门户。 在默认情况下ingress controller使用了80和443这一组惯用端口,因此当ingress中配置了nginx.ingress.kubernetes.io/ssl-redirect时,访问http://url时会自动重定向至https://url,无需关心端口问题。 当部署ingress controll
问题 排查 本地复现 溯源 临时解决 问题 k8s集群中使用linuxServer的linuxserver/docker-calibre-web镜像部署了janeczku/calibre-web,在211011升级了最新的镜像后,发现网页频繁出现无响应的状况:浏览器标签页持续保持转圈的状态,直到很久以后才会报超时,且从此之后所有请求都无法正常完成。 经过多次尝试,发现在前端复现该问题的操作方法
问题 排查 结论 问题 我司平台上支持用户创建k8s中job类型的负载,今天接到一个bug:设置了job的失败后重试次数,但是在集群里实际的重试次数并不是在平台上设置的次数。 关于k8s中job类型负载的重试次数,主要由yaml中的.spec.backoffLimit决定。如果由job控制器创建出来的pod没有正常退出,控制器会多次创建新的pod重试,直到重试次数达到了backoffLimit
项目背景 多阶段构建 使用外部缓存 准备外部缓存 最终产物的构建 效果展示 局限性 参考 项目背景 前端微服务,使用angular框架,代码开发后要经过依赖下载、node编译、docker镜像产出几个步骤,进而部署到各个环境。 多阶段构建 项目根目录的Dockerfile如下所示:重要的提示信息已经注释在Dockerfile中 ################# 第一阶段:依赖获取 ###