自动备份网站文件和数据库并上传到FTP

对于我们来说,无论是大网站还是小博客,其中的数据都是非常重要的。不过许多人都没有备份的习惯,一旦服务器出现状况,就是追悔莫及。

现在我用的是自写脚本定时备份文件到目录,可以随时打包下载。这里介绍一个自动备份网站文件和数据库并上传到FTP目录可以直接下载的脚本。

主要功能有:自动备份网站文件和数据库并上传到FTP,在本地保留3天备份,在远端FTP空间保留5天备份。(特别建议大家使用时要注意文件安全,不然很可能被整站爬走。)数据库备份采用发送到Email和FTP空间,双重备份,保证数据的安全。

首先安装Email发送组件

yum install sendmail mutt

脚本如下:

#!/bin/bash
cd /home/backup
#定义数据库的名字和旧数据库的名字
DataBakName=Data_$(date +”%Y%m%d”)..tar.gz
WebBakName=Web_$(date +%Y%m%d).tar.gz
OldData=Data_$(date -d -5day +”%Y%m%d”).tar.gz
OldWeb=Web_$(date -d -5day +”%Y%m%d”).tar.gz
#删除本地3天前的数据
rm -rf /home/backup/Data_$(date -d -3day +”%Y%m%d”).tar.gz /home/backup/Web_$(date -d -3day +”%Y%m%d”).tar.gz
#导出mysql数据库,路径自行修改
/usr/local/mysql/bin/mysqldump -uroot -p123456 –databases db1 db2 db3 > /home/backup/databackup.sql
#压缩数据库
tar zcf /home/backup/$DataBakName /home/backup/databackup.sql
rm -rf /home/backup/databackup.sql
#发送数据库到Email,如果数据库压缩后太大,请注释这行
echo “主题:数据库备份” | mutt -a /home/backup/$DataBakName -s “内容:数据库备份” www@gmail.com
#压缩网站数据
tar zcvf /home/backup/$WebBakName /home/www
#上传到FTP空间,删除FTP空间5天前的数据
ftp -v -n imcat.in << END
user imcat 123456
type binary
cd backup
delete $OldData
delete $OldWeb
put $DataBakName
put $WebBakName
bye
END

也可以直接下载。地址:http://catlnmp.googlecode.com/files/AutoBackupToFtp.sh

给脚本添加权限:

chmod +x AutoBackupToFtp.sh

利用crontab 实现自动备份,在ssh下:

crontab -e

输入以下内容:

00 00 * * * /home/AutoBackupToFtp.sh

这样就会每天00:00自动备份网站文件和数据库并上传到FTP了。

  1. 现在都是手动备份的 博客备份还好 文件和数据库不会多大
    论坛文件备份发送一次 估计要分很多次发送才能比较快的发完