mongodb数据备份和还原主要分为二种,一种是针对于库的mongodump和mongorestore,一种是针对库中表的mongoexport和mongoimport。
一,mongodump备份数据库
1,常用命令格
1
|
mongodump -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 -o 文件存在路径 --authenticationDatabase database |
如果没有用户谁,可以去掉-u和-p。
如果导出本机的数据库,可以去掉-h。
如果是默认端口,可以去掉--port。
如果想导出所有数据库,可以去掉-d。
注意 --authenticationDatabase 参数制定认证数据库 否则会提示错误:
Failed: error connecting to db server: server returned error on SASL authentication step: Authentication failed. //提示认证失败
也可以指定导出的集合 -collection
2,导出所有数据库
1
2
3
4
5
6
7
8
9
10
|
[root@localhost mongodb] # mongodump -h 127.0.0.1 -o /home/zhangy/mongodb/ --authenticationDatabase admin
connected to: 127.0.0.1 Tue Dec 3 06:15:55.448 all dbs Tue Dec 3 06:15:55.449 DATABASE: test to /home/zhangy/mongodb/test Tue Dec 3 06:15:55.449 test .system.indexes to /home/zhangy/mongodb/test/system .indexes.bson Tue Dec 3 06:15:55.450 1 objects Tue Dec 3 06:15:55.450 test .posts to /home/zhangy/mongodb/test/posts .bson Tue Dec 3 06:15:55.480 0 objects 。。。。。。。。。。。。。。。。。。。。省略。。。。。。。。。。。。。。。。。。。。。。。。。。 |
3,导出指定数据库
1
2
3
4
5
6
7
8
9
10
11
|
[root@localhost mongodb] # mongodump -h 192.168.1.108 -d tank -o /home/zhangy/mongodb/ connected to: 192.168.1.108 Tue Dec 3 06:11:41.618 DATABASE: tank to /home/zhangy/mongodb/tank Tue Dec 3 06:11:41.623 tank.system.indexes to /home/zhangy/mongodb/tank/system .indexes.bson Tue Dec 3 06:11:41.623 2 objects Tue Dec 3 06:11:41.623 tank.contact to /home/zhangy/mongodb/tank/contact .bson Tue Dec 3 06:11:41.669 2 objects Tue Dec 3 06:11:41.670 tank. users to /home/zhangy/mongodb/tank/users .bson Tue Dec 3 06:11:41.685 2 objects Tue Dec 3 06:11:41.685 Metadata for tank. users to /home/zhangy/mongodb/tank/users .metadata.json |
三,mongorestore还原数据库
1,常用命令格式
1
|
mongorestore -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 --drop 文件存在路径 |
--drop的意思是,先删除所有的记录,然后恢复。
2,恢复所有数据库到mongodb中
1
|
[root@localhost mongodb] # mongorestore /home/zhangy/mongodb/ #这里的路径是所有库的备份路径 |
3,还原指定的数据库
1
2
3
|
[root@localhost mongodb] # mongorestore -d tank /home/zhangy/mongodb/tank/ #tank这个数据库的备份路径 [root@localhost mongodb] # mongorestore -d tank_new /home/zhangy/mongodb/tank/ #将tank还有tank_new数据库中 |
这二个命令,可以实现数据库的备份与还原,文件格式是json和bson的。无法指写到表备份或者还原。
四,mongoexport导出表,或者表中部分字段
1,常用命令格式
1
|
mongoexport -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 -c 表名 -f 字段 -q 条件导出 --csv -o 文件名 |
上面的参数好理解,重点说一下:
-f 导出指字段,以字号分割,-f name,email,age导出name,email,age这三个字段
-q 可以根查询条件导出,-q '{ "uid" : "100" }' 导出uid为100的数据
--csv 表示导出的文件格式为csv的,这个比较有用,因为大部分的关系型数据库都是支持csv,在这里有共同点
2,导出整张表
1
2
3
|
[root@localhost mongodb] # mongoexport -d tank -c users -o /home/zhangy/mongodb/tank/users.dat connected to: 127.0.0.1 exported 4 records |
3,导出表中部分字段
1
2
3
|
[root@localhost mongodb] # mongoexport -d tank -c users --csv -f uid,name,sex -o tank/users.csv connected to: 127.0.0.1 exported 4 records |
4,根据条件敢出数据
1
2
3
|
[root@localhost mongodb] # mongoexport -d tank -c users -q '{uid:{$gt:1}}' -o tank/users.json connected to: 127.0.0.1 exported 3 records |
五,mongoimport导入表,或者表中部分字段
1,常用命令格式
1.1,还原整表导出的非csv文件
mongoimport -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 -c 表名 --upsert --drop 文件名
重点说一下--upsert,其他参数上面的命令已有提到,--upsert 插入或者更新现有数据
1.2,还原部分字段的导出文件
mongoimport -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 -c 表名 --upsertFields 字段 --drop 文件名
--upsertFields根--upsert一样
1.3,还原导出的csv文件
mongoimport -h IP --port 端口 -u 用户名 -p 密码 -d 数据库 -c 表名 --type 类型 --headerline --upsert --drop 文件名
上面三种情况,还可以有其他排列组合的。
2,还原导出的表数据
1
2
3
|
[root@localhost mongodb] # mongoimport -d tank -c users --upsert tank/users.dat connected to: 127.0.0.1 Tue Dec 3 08:26:52.852 imported 4 objects |
3,部分字段的表数据导入
[root@localhost mongodb]# mongoimport -d tank -c users --upsertFields uid,name,sex tank/users.dat
connected to: 127.0.0.1
Tue Dec 3 08:31:15.179 imported 4 objects
4,还原csv文件
1
2
3
|
[root@localhost mongodb]# mongoimport -d tank -c users --type csv --headerline --file tank/users.csv connected to: 127.0.0.1 Tue Dec 3 08:37:21.961 imported 4 objects |
总体感觉,mongodb的备份与还原,还是挺强大的,虽然有点麻烦。
该也可以指定要恢复的集合 -collection
注意的地方
- mongoimport 执行导入前,新数据库中没有 XX 表一样可以导入成功;
- mongoexport 和 mongoimport 所需的各个参数输入的先后顺序不严格;
- 对于副本集,mongoexport 的数据导出可以是副本集中的 primary 节点,也可以是 secondary 节点;
- 对于副本集,mongoimport 的数据导入必须是 primary 节点;
- 对于大数据量的导出,用 mongoexport 操作完全不会有生产问题;
- 对于大数据量的导入(超过 500 MB),用 mongoimport 操作的话会很容易将 primary 节点拖垮,因为这会导致全量同步导致主节点崩溃,所以要避免生产环境中大数据量的导入。正确的做法是先建立单点,导入,之后再建立副本集。
最后更新于 2018年6月12日