fengdos 2019-12-20
NoSQL,指的是非关系型的数据库。
NoSQL有时也称作Not Only SQL的缩写
是对不同于传统的关系型数据库的数据库管理系统的统称。
对NoSQL最普遍的解释是”非关联型的”,强调Key-Value Stores和文档数据库的优点,而不是单纯的RDBMS。
NoSQL用于超大规模数据的存储。
这些类型的数据存储不需要固定的模式,无需多余操作就可以横向扩展。
今天我们可以通过第三方平台可以很容易的访问和抓取数据。
用户的个人信息,社交网络,地理位置,用户生成的数据和用户操作日志已经成倍的增加。
我们如果要对这些用户数据进行挖掘,那SQL数据库已经不适合这些应用了
NoSQL数据库的发展也却能很好的处理这些大的数据。
mysql mongo 库 库 表 集合 字段 key:value 行 文档 name age job oldzhang 28 it xiaozhang 28 it xiaofei 18 student SZ {name:'oldzhang',age:'28',job:'it'}, {name:'xiaozhang',age:'28',job:'it'}, {name:'xiaozhang',age:'28',job:'it',host:'SZ'}
高性能:
Mongodb提供高性能的数据持久性
尤其是支持嵌入式数据模型减少数据库系统上的I/O操作
索引支持能快的查询,并且可以包括来嵌入式文档和数组中的键
丰富的语言查询:
Mongodb支持丰富的查询语言来支持读写操作(CRUD)以及数据汇总,文本搜索和地理空间索引
高可用性:
Mongodb的复制工具,成为副本集,提供自动故障转移和数据冗余,
水平可扩展性:
Mongodb提供了可扩展性,作为其核心功能的一部分,分片是将数据分,在一组计算机上。
支持多种存储引擎:
WiredTiger存储引擎和、MMAPv1存储引擎和InMemory存储引擎
游戏场景,使用 MongoDB 存储游戏用户信息,用户的装备、积分等直接以内嵌文档的形式存储,方便查询、更新
物流场景,使用 MongoDB 存储订单信息,订单状态在运送过程中会不断更新,以 MongoDB 内嵌数组的形式来存储,一次查询就能将订单所有的变更读取出来。
社交场景,使用 MongoDB 存储存储用户信息,以及用户发表的朋友圈信息,通过地理位置索引实现附近的人、地点等功能
物联网场景,使用 MongoDB 存储所有接入的智能设备信息,以及设备汇报的日志信息,并对这些信息进行多维度的分析
视频直播,使用 MongoDB 存储用户信息、礼物信息等
电商场景,使用 MongoDB
商城上衣和裤子两种商品,除了有共同属性,如产地、价格、材质、颜色等外,还有各自有不同的属性集,如上衣的独有属性是肩宽、胸围、袖长等,裤子的独有属性是臀围、脚口和裤长等
1.规划目录 #软件所在目录 /opt/mongodb #单节点目录 /opt/mongo_27017/{conf,log,pid} #数据目录 /data/mongo_27017 2.下载依赖并解压(上传安装包) yum install libcurl openssl -y cd /opt/ wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-3.6.13.tgz tar zxvf mongodb-linux-x86_64-3.6.13.tgz ln -s mongodb-linux-x86_64-3.6.13 mongodb 3.创建文件目录以及数据目录 mkdir /opt/mongo_27017/{conf,logs,pid} -p mkdir /data/mongo_27017 -p
1.创建配置文件 cat > /opt/mongo_27017/conf/mongodb.conf << EOF systemLog: destination: file logAppend: true path: /opt/mongo_27017/logs/mongodb.log storage: journal: enabled: true dbPath: /data/mongo_27017 directoryPerDB: true wiredTiger: engineConfig: cacheSizeGB: 1 directoryForIndexes: true collectionConfig: blockCompressor: zlib indexConfig: prefixCompression: true processManagement: fork: true pidFilePath: /opt/mongo_27017/pid/mongod.pid net: port: 27017 bindIp: 127.0.0.1,10.0.0.51 EOF 2.启动mongo /opt/mongodb/bin/mongod -f /opt/mongo_27017/conf/mongodb.conf 3.检查是否启动 ps -ef|grep mongo netstat -lntup|grep 27017
1.写入环境变量 echo 'PATH=$PATH:/opt/mongodb/bin' >> /etc/profile source /etc/profile 2.登录 mongo db01:27017 3.关闭 方法1: 使用localhost登录 mongo localhost:27017 use admin db.shutdownServer() 方法2: mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown
1.访问控制 WARNING: Access control is not enabled for the database. Read and write access to data and configuration is unrestricted. 解决方法: 开启安全认证功能 #创建管理用户 mongo db01:27017 use admin db.createUser( { user: "admin", pwd: "123456", roles:[ { role: "root", db:"admin" } ] } ) #查看创建的用户 db.getUsers() #配置文件添加权限认证参数/opt/mongo_27017/conf/mongodb.conf security: authorization: enabled #重启mongo mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown mongod -f /opt/mongo_27017/conf/mongodb.conf #使用admin用户登录 mongo db01:27017 -uadmin -p --authenticationDatabase admin 2.以root用户运行 WARNING: You are running this process as the root user, which is not recommended. 解决步骤: mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown useradd mongo echo '123456'|passwd --stdin mongo chown -R mongo:mongo /opt/ chown -R mongo:mongo /data/ su - mongo mongod -f /opt/mongo_27017/conf/mongodb.conf mongo logout #切换用户 3.关闭大内存页技术 WARNING: /sys/kernel/mm/transparent_hugepage/enabled is 'always'. We suggest setting it to 'never' WARNING: /sys/kernel/mm/transparent_hugepage/defrag is 'always'. We suggest setting it to 'never' 解决方法: 临时解决: echo "never" >/sys/kernel/mm/transparent_hugepage/enabled echo "never" >/sys/kernel/mm/transparent_hugepage/defrag 写入开机自启动: chmod +x /etc/rc.d/rc.local vim /etc/rc.d/rc.local echo "never" >/sys/kernel/mm/transparent_hugepage/enabled echo "never" >/sys/kernel/mm/transparent_hugepage/defrag 验证: mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown mongod -f /opt/mongo_27017/conf/mongodb.conf mongo 4.解决rlimits太低 WARNING: soft rlimits too low. rlimits set to 31771 processes, 65535 files. Number of processes should be at least 32767.5 : 0.5 times number of files. 解决方法: vim /etc/profile ulimit -f unlimited ulimit -t unlimited ulimit -v unlimited ulimit -n 64000 ulimit -m unlimited ulimit -u 64000 生效配置: source /etc/profile 验证: mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown mongod -f /opt/mongo_27017/conf/mongodb.conf mongo
[ ~]# cat /etc/init.d/disable-transparent-hugepages #!/bin/bash ### BEGIN INIT INFO # Provides: disable-transparent-hugepages # Required-Start: $local_fs # Required-Stop: # X-Start-Before: mongod mongodb-mms-automation-agent # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description: Disable Linux transparent huge pages # Description: Disable Linux transparent huge pages, to improve # database performance. ### END INIT INFO case $1 in start) if [ -d /sys/kernel/mm/transparent_hugepage ]; then thp_path=/sys/kernel/mm/transparent_hugepage elif [ -d /sys/kernel/mm/redhat_transparent_hugepage ]; then thp_path=/sys/kernel/mm/redhat_transparent_hugepage else return 0 fi echo 'never' > ${thp_path}/enabled echo 'never' > ${thp_path}/defrag re='^[0-1]+$' if [[ $(cat ${thp_path}/khugepaged/defrag) =~ $re ]] then # RHEL 7 echo 0 > ${thp_path}/khugepaged/defrag else # RHEL 6 echo 'no' > ${thp_path}/khugepaged/defrag fi unset re unset thp_path ;; esac [ ~]# chkconfig --add disable-transparent-hugepages [ ~]# chkconfig --list|grep disable
1.查询一条,注意大小写字母 db.user_info.findOne() 2.查询所有 db.user_info.find() 3.查询符合条件 db.user_info.find({"age":28}) select * from user_info where age = 28; 4.查询嵌套的条件 db.inventory.find( { "size.uom": "in" } ) db.inventory.find( { "size.uom": "in" } ) 5.逻辑查询:and db.inventory.find( { "size.uom": "cm" ,"status" : "A"} ) db.inventory.find( { "size.uom": "cm" , "status" : "A" } ) 6.逻辑查询 或 db.inventory.find( { $or:[ {status:"D"}, {qty:{$lt:30}} ] } ) 7.逻辑查询+或+and+正则表达式 db.inventory.find({status:"A",$or:[{qty:{$lt:30}},{item:/^p/}]}) db.inventory.find( { status: "A", $or: [ { qty: { $lt: 30 } }, { item: /^p/ } ] } ) db.inventory.find( { status: "A", $or: [ { qty: { $gt: 30 } }, { item: /^p/ } ] } )
查看指令 test:登录时默认存在的库 admin库:系统预留库,MongoDB系统管理库 local库:本地预留库,存储关键日志 config库:MongoDB配置信息库 查看数据库命令 show databases/show dbs show tables/show collections use admin db/select database() 插入命令 1.插入单条 db.user_info.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.user_info.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.user_info.insert({"name":"yazhang","age":28,"ad":"北京市朝阳区"}) db.user_info.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区"}) db.user_info.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区","sex":"boy"}) 2.插入多条 db.inventory.insertMany( [ { "item": "journal", "qty": 25, "size": { "h": 14, "w": 21, "uom": "cm" }, "status": "A" }, { "item": "notebook", "qty": 50, "size": { "h": 8.5, "w": 11, "uom": "in" }, "status": "A" }, { "item": "paper", "qty": 100, "size": { "h": 8.5, "w": 11, "uom": "in" }, "status": "D" }, { "item": "planner", "qty": 75, "size": { "h": 22.85, "w": 30, "uom": "cm" }, "status": "D" }, { "item": "postcard", "qty": 45, "size": { "h": 10, "w": 15.25, "uom": "cm" }, "status": "A" } ]);
更新数据 1.更改匹配条件的单条数据 db.inventory.find({ "item" : "paper" }) db.inventory.updateOne{ "item" : "paper" },{$set: { "size.uom" : "cm", "status" : "P" }}) db.inventory.updateOne( { "item" : "paper" }, { $set: { "size.uom" : "cm", "status" : "P" } } ) 2.更改匹配条件的多条数据 db.inventory.find({ "qty" : { $lt: 50 } }) db.inventory.updateMany( { "qty" : { $lt: 50 } }, { $set: { "size.uom" : "mm", "status": "P" } } ) 3.添加字段 db.user_info.find({ "age" : 27}) db.user_info.updateMany( { "age" : 27}, { $set: { "pet" : "cat" } } )
索引 1.查看执行计划 db.user_info.find({"age":{ $lt: 30 }}) db.user_info.find({"age":{ $lt: 30 }}).explain() #查看详细的信息 2.创建索引 db.user_info.createIndex({ age: 1 },{background: true}) 注:建索引过程会阻塞其它数据库操作,background可指定以后台方式创建索引,即增加 "background" 可选参数。 "background" 默认值为false。 3.查看索引 db.user_info.getIndexes() 4.再次查看执行计划 db.user_info.find({"age":{ $lt: 30 }}).explain() 关键词 "stage" : "IXSCAN" "indexName" : "age_1" 5.删除索引 db.user_info.dropIndex("age_1") db.user_info.dropIndex("age_1") 其他索引类型 COLLSCAN – Collection scan #全表扫描 IXSCAN – Scan of data in index keys #索引扫描 FETCH – Retrieving documents 检出扫描 SHARD_MERGE – Merging results from shards #合并分片中结果 SORT – Explicit sort rather than using index orde COLLSCAN 集合扫描 IXSCAN 索引扫描 FETCH 检出文档 SHARD_MERGE 合并分片中结果 SHARDING_FILTER 分片中过滤掉孤立文档 LIMIT 使用limit 限制返回数 PROJECTION 使用 skip 进行跳过 IDHACK 针对_id进行查询 COUNT 利用db.coll.explain().count()之类进行count运算 COUNTSCAN count不使用Index进行count时的stage返回 COUNT_SCAN count使用了Index进行count时的stage返回 SUBPLA 未使用到索引的$or查询的stage返回 TEXT 使用全文索引进行查询时候的stage返回 PROJECTION 限定返回字段时候stage的返回 参照文档: https://xuexiyuan.cn/article/detail/179.html?from=csdn
1.先查找需要删除的数据 db.inventory.find({"status":"P"}) 2.删除单条 db.inventory.deleteOne({"status":"P"}) 3.删除多个 db.inventory.deleteMany({"status":"P"}) 4.删除索引 db.user_info.dropIndex("age_1") 4.删除集合 show dbs db show tables db.inventory.drop() 5.删除库 show dbs db db.dropDatabase()
mongo工具 0.命令介绍 mongod #启动命令 mongo #登录命令 mongodump #备份导出,全备压缩 mongorestore #恢复 mongoexport #备份,数据可读json mongoimport #恢复 mongostat #查看mongo运行状态 mongotop #查看mongo运行状态 mongos #集群分片命令 1.mongostat 各字段解释说明: insert/s : 官方解释是每秒插入数据库的对象数量,如果是slave,则数值前有*,则表示复制集操作 query/s : 每秒的查询操作次数 update/s : 每秒的更新操作次数 delete/s : 每秒的删除操作次数 getmore/s: 每秒查询cursor(游标)时的getmore操作数 command: 每秒执行的命令数,在主从系统中会显示两个值(例如 3|0),分表代表 本地|复制 命令 注: 一秒内执行的命令数比如批量插入,只认为是一条命令(所以意义应该不大) dirty: 仅仅针对WiredTiger引擎,官网解释是脏数据字节的缓存百分比 used:仅仅针对WiredTiger引擎,官网解释是正在使用中的缓存百分比 flushes: 一般0或者偶尔出现1,一直出现有问题 For WiredTiger引擎:指checkpoint的触发次数在一个轮询间隔期间 For MMAPv1 引擎:每秒执行fsync将数据写入硬盘的次数 注:一般都是0,间断性会是1, 通过计算两个1之间的间隔时间,可以大致了解多长时间flush一次。flush开销是很大的,如果频繁的flush,可能就要找找原因了 vsize: 虚拟内存使用量,单位MB (这是 在mongostat 最后一次调用的总数据) res: 物理内存使用量,单位MB (这是 在mongostat 最后一次调用的总数据) 注:这个和你用top看到的一样, vsize一般不会有大的变动, res会慢慢的上升,如果res经常突然下降,去查查是否有别的程序狂吃内存。 qr: 客户端等待从MongoDB实例读数据的队列长度 qw:客户端等待从MongoDB实例写入数据的队列长度 ar: 执行读操作的活跃客户端数量 aw: 执行写操作的活客户端数量 注:如果这两个数值很大,那么就是DB被堵住了,DB的处理速度不及请求速度。看看是否有开销很大的慢查询。如果查询一切正常,确实是负载很大,就需要加机器了 netIn:MongoDB实例的网络进流量 netOut:MongoDB实例的网络出流量 注:此两项字段表名网络带宽压力,一般情况下,不会成为瓶颈 conn: 打开连接的总数,是qr,qw,ar,aw的总和 注:MongoDB为每一个连接创建一个线程,线程的创建与释放也会有开销,所以尽量要适当配置连接数的启动参数,maxIncomingConnections,阿里工程师建议在5000以下,基本满足多数场景
创建用户和角色 0.与用户相关的命令 db.auth() 将用户验证到数据库。 db.changeUserPassword() 更改现有用户的密码。 db.createUser() 创建一个新用户。 db.dropUser() 删除单个用户。 db.dropAllUsers() 删除与数据库关联的所有用户。 db.getUser() 返回有关指定用户的信息。 db.getUsers() 返回有关与数据库关联的所有用户的信息。 db.grantRolesToUser() 授予用户角色及其特权。 db.removeUser() 已过时。从数据库中删除用户。 db.revokeRolesFromUser() 从用户中删除角色。 db.updateUser() 更新用户数据。 1.创建管理用户 mongo db01:27017 use admin db.createUser( { user: "admin", pwd: "123456", roles:[ { role: "root", db:"admin" } ] } ) 2.查看创建的用户 db.getUsers() 3.配置文件添加权限认证参数/opt/mongo_27017/conf/mongodb.conf 配置问权限认证后需要重启节点,再次登陆如果不使用账号密码就查看不了数据 security: authorization: enabled 4.重启mongo mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown mongod -f /opt/mongo_27017/conf/mongodb.conf 5.使用admin用户登录 mongo db01:27017 -uadmin -p --authenticationDatabase admin 6.创建其他用户 use test db.createUser( { user: "mysun", pwd: "123456", roles: [ { role: "readWrite", db: "write" }, { role: "read", db: "read" } ] } ) 7.创建测试数据 use write db.write.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.write.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.write.insert({"name":"yazhang","age":28,"ad":"北京市朝阳区"}) db.write.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区"}) db.write.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区","sex":"boy"}) use read db.read.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.read.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) db.read.insert({"name":"yazhang","age":28,"ad":"北京市朝阳区"}) db.read.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区"}) db.read.insert({"name":"xiaozhang","age":28,"ad":"北京市朝阳区","sex":"boy"}) 8.退出admin,使用mysun用户登录 mongo db01:27017 -umysun -p --authenticationDatabase test use write db.write.find() db.write.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) use read db.read.find() db.read.insert({"name":"zhangya","age":27,"ad":"北京市朝阳区"}) 9.修改用户权限 use test db.updateUser( 'mysun', { pwd: "123456", roles: [ { role: "readWrite", db: "write" }, { role: "readWrite", db: "read" } , { role: "readWrite", db: "test" } ] } ) 10.删除用户 db.getUsers() db.dropUser('mysun')
mongo副本集配置 1.创建节点目录和数据目录 su - mongo mongod -f /opt/mongo_27017/conf/mongodb.conf --shutdown mkdir -p /opt/mongo_2801{7,8,9}/{conf,log,pid} mkdir -p /data/mongo_2801{7,8,9} 2.创建配置文件 cat >/opt/mongo_28017/conf/mongo_28017.conf <<EOF systemLog: destination: file logAppend: true path: /opt/mongo_28017/log/mongodb.log storage: journal: enabled: true dbPath: /data/mongo_28017 directoryPerDB: true wiredTiger: engineConfig: cacheSizeGB: 0.5 directoryForIndexes: true collectionConfig: blockCompressor: zlib indexConfig: prefixCompression: true processManagement: fork: true pidFilePath: /opt/mongo_28017/pid/mongod.pid net: port: 28017 bindIp: 127.0.0.1,10.0.0.51 replication: oplogSizeMB: 1024 replSetName: dba EOF 3.复制配置文件到其他节点 cp /opt/mongo_28017/conf/mongo_28017.conf /opt/mongo_28018/conf/mongo_28018.conf cp /opt/mongo_28017/conf/mongo_28017.conf /opt/mongo_28019/conf/mongo_28019.conf 4.替换端口号 sed -i 's#28017#28018#g' /opt/mongo_28018/conf/mongo_28018.conf sed -i 's#28017#28019#g' /opt/mongo_28019/conf/mongo_28019.conf 5.启动所有节点 mongod -f /opt/mongo_28017/conf/mongo_28017.conf mongod -f /opt/mongo_28018/conf/mongo_28018.conf mongod -f /opt/mongo_28019/conf/mongo_28019.conf 6.初始化集群 config = { _id : "dba", members : [ {_id : 0, host : "db01:28017"}, {_id : 1, host : "db01:28018"}, {_id : 2, host : "db01:28019"}, ]} rs.initiate(config) #登录 mongo db01:28017 7.插入数据 db.inventory.insertMany( [ { "item": "journal", "qty": 25, "size": { "h": 14, "w": 21, "uom": "cm" }, "status": "A" }, { "item": "notebook", "qty": 50, "size": { "h": 8.5, "w": 11, "uom": "in" }, "status": "A" }, { "item": "paper", "qty": 100, "size": { "h": 8.5, "w": 11, "uom": "in" }, "status": "D" }, { "item": "planner", "qty": 75, "size": { "h": 22.85, "w": 30, "uom": "cm" }, "status": "D" }, { "item": "postcard", "qty": 45, "size": { "h": 10, "w": 15.25, "uom": "cm" }, "status": "A" } ]); 8.副本节点登录查看数据 rs.slaveOk() use test db.inventory.find() 9.设置副本可读 方法1:临时生效 rs.slaveOk() 方法2:写入启动文件 echo "rs.slaveOk()" > ~/.mongorc.js 查看副本集状态 rs.slaveOk() #让副本可以读 rs.status() #查看副本集详细状态 rs.isMaster() #查看当前的主节点是谁 rs.printReplicationInfo() #oplog记录信息 rs.printSlaveReplicationInfo() #查看复制延迟信息 rs.config() #打印当前副本集的配置信息 停节点 使用这条命令的前提是必须使用localhost登陆,否则会提示报错 use admin db.shutdownserver()
副本集权重调整 0.模拟故障转移 mongod -f /opt/mongo_28017/conf/mongo_28017.conf --shutdown mongod -f /opt/mongo_28017/conf/mongo_28017.conf 1.查看当前副本集配置 rs.conf() 2.设置权重(主节点) config=rs.conf() config.members[0].priority=100 rs.reconfig(config) 3.主节点主动降级 rs.stepDown() 4.恢复成默认的权重 config=rs.conf() config.members[0].priority=1 rs.reconfig(config)
创建新节点目录及启动 [ ~]$ mkdir /opt/mongo_28010/{conf,logs,pid} -p [ ~]$ mkdir /data/mongo_28010 [ ~]$ cp /opt/mongo_28017/conf/mongo_28017.conf /opt/mongo_28010/conf/mongo_28010.conf [ ~]$ sed -i 's#28017#28010#g' /opt/mongo_28010/conf/mongo_28010.conf [ ~]$ mongod -f /opt/mongo_28010/conf/mongo_28010.conf [ ~]$ mongo db01:28010 \> 增加新节点命令,主库操作 [ ~]$ mongo db01:28017 dba:PRIMARY> use admin switched to db admin dba:PRIMARY> rs.add("db01:28010") { ? "ok" : 1, ? "operationTime" : Timestamp(1572787956, 1), ? "$clusterTime" : { ? "clusterTime" : Timestamp(1572787956, 1), ? "signature" : { ? "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="), ? "keyId" : NumberLong(0) ? } ? } } 查看新增加节点 [ ~]$ mongo db01:28010 dba:SECONDARY>
主节点操作 [ ~]$ mongo db01:28017 dba:PRIMARY> rs.remove("db01:28010") { ? "ok" : 1, ? "operationTime" : Timestamp(1572787994, 1), ? "$clusterTime" : { ? "clusterTime" : Timestamp(1572787994, 1), ? "signature" : { ? "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="), ? "keyId" : NumberLong(0) ? } ? } } 再次查看下线节点 [ ~]$ mongo db01:28010 dba:OTHER> 现在可以关闭节点了 [ ~]$ mongod -f /opt/mongo_28010/conf/mongo_28010.conf --shutdown
仲裁节点 1.创建新节点并启动 mkdir -p /opt/mongo_28011/{conf,log,pid} mkdir -p /data/mongo_28011 cp /opt/mongo_28017/conf/mongo_28017.conf /opt/mongo_28011/conf/mongo_28011.conf sed -i 's#28017#28011#g' /opt/mongo_28011/conf/mongo_28011.conf mongod -f /opt/mongo_28011/conf/mongo_28011.conf mongo db01:28011 2.将仲裁节点加入集群 rs.addArb("db01:28010") #移除 rs.remove("db01:28010")
常用选项
导出: $ mongoexport --help 参数说明: -h:指明数据库宿主机的IP -u:指明数据库的用户名 -p:指明数据库的密码 -d:指明数据库的名字 -c:指明collection的名字 -f:指明要导出那些列 -o:指明到要导出的文件名 -q:指明导出数据的过滤条件 --authenticationDatabase admin 恢复 $ mongoimport --help 参数说明: -h:指明数据库宿主机的IP -u:指明数据库的用户名 -p:指明数据库的密码 -d:指明数据库的名字 -c:指明collection的名字 -f:指明要导入那些列 -j, --numInsertionWorkers=<number> number of insert operations to run concurrently (defaults to 1) //并行
mongo备份与恢复 1.工具介绍 (1)mongoexport/mongoimport (2)mongodump/mongorestore 2.应用场景 1.异构平台迁移 mysql <---> mongodb 2.同平台,跨大版本:mongodb 2 ----> mongodb 3 mongoexport/mongoimport:json csv 日常备份恢复时使用. mongodump/mongorestore 3.导出工具mongoexport,json格式 单表备份 mongoexport --port 27017 -d test -c inventory -o /data/inventory.json 单表备份至csv格式,可以导出成excl表格 mongoexport --port 27017 -d test -c user_info --type=csv -f name,age,ad -o /data/user_info.csv 4.恢复 mongoimport --port 27017 -d test -c inventory /data/inventory.json mongoimport --port 27017 -d test -c user_info --type=csv --headerline --file /data/user_info.csv 5.mysql数据迁移到mongo [ ~]# yum install mariadb mariadb-server -y 配置mysql配置文件,增加安全导出目录路径 cat > /etc/my.cnf << EOF secure-file-priv=/var/lib/mysql/ #重启 systemctl restart mariadb.service 4.导入城市数据 [ ~]# mysql MariaDB [(none)]> source /root/world.sql #将样本数据导出成csv格式 select * from world.city into outfile '/var/lib/mysql/city.csv' fields terminated by ','; 编辑csv文件,添加列名, ID,Name,CountryCode,District,Population mongoimport --port 27017 -d world -c city --type=csv --headerline --file /data/city.csv mongoexport --port 27017 -d world -c city -o /data/city.json 6.导出与恢复 mongodump --port 27017 -o /data/backup mongorestore --port 27017 -d world /data/backup/world/ --drop mongorestore --port 27017 /data/backup/ --drop
1.介绍:
mongodump能够在Mongodb运行时进行备份,它的工作原理是对运行的Mongodb做查询,然后将所有查到的文档写入磁盘。
但是存在的问题时使用mongodump产生的备份不一定是数据库的实时快照,如果我们在备份时对数据库进行了写入操作,则备份出来的文件可能不完全和Mongodb实时数据相等。另外在备份时可能会对其它客户端性能产生不利的影响。
2.使用方法:
$ mongodump --help 参数说明: -h:指明数据库宿主机的IP -u:指明数据库的用户名 -p:指明数据库的密码 -d:指明数据库的名字 -c:指明collection的名字 -o:指明到要导出的文件名 -q:指明导出数据的过滤条件 -j, --numParallelCollections= number of collections to dump in parallel (4 by default) --oplog 备份的同时备份oplog
注意:==这是replica set或者master/slave模式专用==
1.oplog介绍(可以实现热备)
在replica set中oplog是一个定容集合(capped collection),它的默认大小是磁盘空间的5%(可以通过--oplogSizeMB参数修改).
位于local库的db.oplog.rs,有兴趣可以看看里面到底有些什么内容。
其中记录的是整个mongodb实例一段时间内数据库的所有变更(插入/更新/删除)操作。
当空间用完时新记录自动覆盖最老的记录。
其覆盖范围被称作oplog时间窗口。需要注意的是,因为oplog是一个定容集合,
所以时间窗口能覆盖的范围会因为你单位时间内的更新次数不同而变化
想要查看当前的oplog时间窗口预计值,可以使用以下命令:
dba58:PRIMARY> use local dba58:PRIMARY> db.oplog.rs.find().pretty() .................................. "ts" : Timestamp(1562403898, 1), "op" : "n" "o" : "i": insert "u": update "d": delete "c": db cmd .................................. dba58:PRIMARY> rs.printReplicationInfo() configured oplog size: 1024MB #集合大小 log length start to end: 104539secs (29.04hrs) #预计窗口覆盖时间 oplog first event time: Sat Jul 06 2019 17:02:15 GMT+0800 (CST) oplog last event time: Sun Jul 07 2019 22:04:34 GMT+0800 (CST) now: Sun Jul 07 2019 22:04:38 GMT+0800 (CST)
准备测试数据 全库备份 [ ~]# mkdir /data/backup [ ~]# chown -R mongo:mongo /data/backup/ [ ~]# su - mongo #登录mongodb use backup db.backup.insertMany( [ { "id": 1}, { "id": 2}, { "id": 3}, ]); 全备环境 rm -rf /data/backup/* 备份 mongodump --port 28017 --oplog -o /data/backup 压缩备份 [ ~]$ mongodump --port 28017 -o /data/backup --gzip [ ~]$ mongodump --port 28017 -d world -o /data/backup --gzip 增加新数据 mongo db01:28017 use backup db.backup.insertMany( [ { "id": 4}, { "id": 5}, { "id": 6}, ]); 模拟删除集合 mongo db01:28017 use backup db.backup.drop() 备份oplog mongodump --port 28017 -d local -c oplog.rs -o /data/backup 查找误操作时间点 use local db.oplog.rs.find({ns:"backup.$cmd"}).pretty(); 找到时间点信息 "ts" : Timestamp(1575023546, 1), 恢复数据 cd /data/backup/local/ cp oplog.rs.bson ../oplog.bson rm -rf /data/backup/local/ mongorestore --port 28017 --oplogReplay --oplogLimit "1575023546:1" --drop /data/backup/
1.首先确保是副本集状态
2.先关闭1个副本节点
3.检测数据是否可以升级
4.升级副本节点的可执行文件
5.更新配置文件
6.启动升级后的副本节点
7.确保集群工作正常
8.滚动升级其他副本节点
9.最后主节点降级
10.确保集群 可用
11.关闭降级的老的主节点
12.升级老的主节点
13.重新加入集群