trott 发表于 2013-11-2 20:43:27

自用备份脚本分享(备份到本机硬盘和百度网盘)

本帖最后由 trott 于 2013-11-2 20:45 编辑

我用的环境时ubunutu server 13.10, 其他的linux应该也可以用,当然你要有一个百度网盘的帐号
下载地址: http://pan.baidu.com/s/1svR4D

1. 下载后解压到一个目录。
2. 访问:https://openapi.baidu.com/oauth/ ... i=oob&scope=netdisk
选择允许,然后会转到另一个很长的地址,里面有access_token=?,把后面那串字符拷贝下来
2. 在目录下新建一个名为'access_token'的文件,文件内容就是刚刚拷贝的字符串
3. 在目录下新建一个backup_list的文件,文件格格式:
源目录;本机目的目录;百度盘的目录
例如下面的:
/files/share/music;/backup/music;/music
/files/share/script;;/script
第一行表示把/files/share/music备份到本机的/backup/music目录,并且备份到百度盘的/music

第二行表示把/files/share/script直接备份到百度盘的/script目录
**注意由于百度api的现在,百度盘的目录实际是/我的应用数据/pybackup/下的

然后到目录下运行 python pybackup.py&
**在目录下会生成pybackup.log, 你可以看运行的结果, 建议加cron里,让这个脚本每天自动运行
有什么问题可以在这里问,我会尽量回答



georgefan101 发表于 2013-11-2 22:23:01

有问题呀。。。。



trott 发表于 2013-11-2 23:02:40

georgefan101 发表于 2013-11-2 22:23
有问题呀。。。。

你在试试呢,我刚刚想试试另外的授权方式,现在改回去了

illustrate 发表于 2013-11-3 07:51:26

謝謝分享

georgefan101 发表于 2013-11-3 11:36:43

trott 发表于 2013-11-2 23:02
你在试试呢,我刚刚想试试另外的授权方式,现在改回去了

谢谢,正在出差中,不方便做进一步的测试。

顺便再问一个问题:

使用百度云的PC客户端,在上传文件夹,备份文件夹时,有不得超过5000个文件的限制。

通过API接口来备份,不知是否有同样的限制?

georgefan101 发表于 2013-11-3 11:46:53

能否通过脚本实现fastcopy中的diff(newer)的功能?
这样才好增量备份,效率高。

现在百度云PC端是要在本地重新计算文件的MD5值,然后和云盘中的文件的MD5值比较,相同的就不上传或覆盖,不同的才上传,感觉效率低。

trott 发表于 2013-11-3 16:01:43

georgefan101 发表于 2013-11-3 11:46
能否通过脚本实现fastcopy中的diff(newer)的功能?
这样才好增量备份,效率高。



如果你有设本地备份目录的话,脚本实际上首先运行的是rsync备份到本地,然后从rsync的log里得到rsync传的文件,由于rsync是增量备份,所以也只有新的文件才传,所以从log里得到的也只是新的文件,你可以看生成的log文件,基本上可以看到整个流程

trott 发表于 2013-11-3 16:03:48

georgefan101 发表于 2013-11-3 11:36
谢谢,正在出差中,不方便做进一步的测试。

顺便再问一个问题:


这个不知道,脚本是没限制,只是不知道往百度盘中的一个目录里传超过5000个文件会不会出错,这个我没法测试

caihker 发表于 2013-11-3 16:56:49

不错不错,学习了
页: [1]
查看完整版本: 自用备份脚本分享(备份到本机硬盘和百度网盘)