#!/bin/sh # 检查环境变量是否存在:WebDAV的URL、用户名和密码 if [ -z "$WEBDAV_URL" ] || [ -z "$WEBDAV_USERNAME" ] || [ -z "$WEBDAV_PASSWORD" ]; then echo "缺少WEBDAV_URL、WEBDAV_USERNAME或WEBDAV_PASSWORD,启动时不启用备份功能" exec node server/server.js # 直接启动主程序,不进行备份恢复 exit 0 fi # 设置备份路径变量,如果没设置则为空字符串 WEBDAV_BACKUP_PATH=${WEBDAV_BACKUP_PATH:-""} # 组合完整的WebDAV URL(基础URL + 备份路径) FULL_WEBDAV_URL="${WEBDAV_URL}" if [ -n "$WEBDAV_BACKUP_PATH" ]; then FULL_WEBDAV_URL="${WEBDAV_URL}/${WEBDAV_BACKUP_PATH}" fi # 定义一个函数:从WebDAV下载最新备份并恢复数据 restore_backup() { echo "开始从 WebDAV 下载最新备份..." # 使用python脚本实现WebDAV备份文件的列出、下载、解压和恢复 python3 -c " import sys import os import tarfile import requests import shutil from webdav3.client import Client # 配置WebDAV客户端参数 options = { 'webdav_hostname': '$FULL_WEBDAV_URL', 'webdav_login': '$WEBDAV_USERNAME', 'webdav_password': '$WEBDAV_PASSWORD' } client = Client(options) # 列出所有备份文件(.tar.gz格式,且文件名以uptime_kuma_backup_开头) backups = [file for file in client.list() if file.endswith('.tar.gz') and file.startswith('uptime_kuma_backup_')] # 如果没有找到备份文件,则退出 if not backups: print('没有找到备份文件') sys.exit() # 选择最新的备份文件(按文件名排序,默认文件名含时间戳) latest_backup = sorted(backups)[-1] print(f'最新备份文件:{latest_backup}') # 通过requests库带认证下载备份文件到本地临时目录 with requests.get(f'$FULL_WEBDAV_URL/{latest_backup}', auth=('$WEBDAV_USERNAME', '$WEBDAV_PASSWORD'), stream=True) as r: if r.status_code == 200: with open(f'/tmp/{latest_backup}', 'wb') as f: for chunk in r.iter_content(chunk_size=8192): f.write(chunk) print(f'成功下载备份文件到 /tmp/{latest_backup}') # 如果下载成功,且备份文件存在,则进行恢复 if os.path.exists(f'/tmp/{latest_backup}'): # 如果data目录已存在,先删除以避免冲突 if os.path.exists('/home/app/site-alert/data'): print('删除现有的data目录') shutil.rmtree('/home/app/site-alert/data') # 解压tar.gz备份文件到指定目录 with tarfile.open(f'/tmp/{latest_backup}', 'r:gz') as tar: tar.extractall('/home/app/site-alert/') print(f'成功从 {latest_backup} 恢复备份') else: print('下载的备份文件不存在') else: print(f'下载备份失败,HTTP状态码:{r.status_code}') " } # 脚本启动时先尝试下载并恢复最新备份 echo "Downloading latest backup from WebDAV..." restore_backup # 定义同步函数,循环定时备份并上传数据到WebDAV sync_data() { while true; do echo "开始同步数据,时间:$(date)" # 判断本地data目录是否存在,存在则打包上传 if [ -d "/home/app/site-alert/data" ]; then # 生成带时间戳的备份文件名 timestamp=$(date +%Y%m%d_%H%M%S) backup_file="uptime_kuma_backup_${timestamp}.tar.gz" # 进入site-alert目录,打包data目录到临时目录 cd /home/app/site-alert tar -czf "/tmp/${backup_file}" data # 使用curl上传备份文件到WebDAV curl -u "$WEBDAV_USERNAME:$WEBDAV_PASSWORD" -T "/tmp/${backup_file}" "$FULL_WEBDAV_URL/${backup_file}" if [ $? -eq 0 ]; then echo "成功上传备份文件 ${backup_file} 到 WebDAV" else echo "上传备份文件 ${backup_file} 失败" fi # 清理旧备份,保持最多5个备份文件,删除较旧的文件 python3 -c " import sys from webdav3.client import Client options = { 'webdav_hostname': '$FULL_WEBDAV_URL', 'webdav_login': '$WEBDAV_USERNAME', 'webdav_password': '$WEBDAV_PASSWORD' } client = Client(options) # 获取所有备份文件并排序 backups = [file for file in client.list() if file.endswith('.tar.gz') and file.startswith('uptime_kuma_backup_')] backups.sort() # 如果备份数量超过5,则删除最旧的多余文件 if len(backups) > 5: to_delete = len(backups) - 5 for file in backups[:to_delete]: client.clean(file) print(f'成功删除旧备份文件:{file}') else: print(f'当前备份文件数量 {len(backups)},无需清理') " 2>&1 # 删除本地临时备份文件,释放空间 rm -f "/tmp/${backup_file}" else echo "/home/app/site-alert/data 目录不存在,等待下一次同步" fi # 休眠一段时间,默认600秒(10分钟),可通过环境变量调整 SYNC_INTERVAL=${SYNC_INTERVAL:-600} echo "下次同步将在 ${SYNC_INTERVAL} 秒后开始..." sleep $SYNC_INTERVAL done } # 后台启动同步进程,持续上传备份 sync_data & # 等待30秒后启动主应用,保证备份线程已启动 sleep 30 exec node server/server.js