MongoDB代码实例

增加用户余额

var client = new MongoClient("mongodb://192.168.11.137:27019");

            var session = client.StartSession();
            session.StartTransaction();


            var database = client.GetDatabase("MyTestDB2");
            var collection = database.GetCollection<UserInfo>("UserInfo");


            var update = new UpdateDefinitionBuilder<UserInfo>()
                .Inc(m => m.Balance, 100);//余额增加100

            var option = new FindOneAndUpdateOptions<UserInfo, UserInfo>();
            option.ReturnDocument = ReturnDocument.After;//返回更新后对象try
                {
                    var dataitem = collection.FindOneAndUpdate<UserInfo>(session, m => m.Name == "JackTan", update, option);
                    
                }
                catch (MongoCommandException ex)
                {
                    //if (ex.Code == 112)  其他事务正在修改这个文档
                    
                    throw;
                }
            
           

            session.CommitTransaction();

创建索引

var database = client.GetDatabase("MyTestDB2");
            var collection = database.GetCollection<UserInfo>("UserInfo");

 
           
            var indexModel = new CreateIndexModel<UserInfo>(
               Builders<UserInfo>.IndexKeys.Ascending(_ => _.Name), new CreateIndexOptions
               {
                   Name = "UerInfo_index_name",                   Unique = true,  //唯一值索引
               });
            var indexname = collection.Indexes.CreateOne(indexModel);
collection.Indexes.CreateOne( Builders<UserInfo>.IndexKeys.Hashed(m=>m.Id)); //设置Id为哈希类型,并建立索引,哈希类型是否以后分片集群做准备的

注意:索引的创建不受事务控制

查询现有索引:

collection.Indexes.List().ToList();

如何判断插入重复的数据(违法唯一值索引)

var database = client.GetDatabase("MyTestDB2");
            var collection = database.GetCollection<UserInfo>("UserInfo");
            try
            {
                collection.InsertOne(new UserInfo
                {
                    Name = "JackTan"
                });
            }
            catch (MongoWriteException ex)
            {
                if(ex.WriteError.Category == ServerErrorCategory.DuplicateKey)
                {
                    //插入重复数据
                }
                throw;
            }

MongoDB监控查询命令、linq联合查询

            // 创建 MongoClientSettings 对象
            var settings = MongoClientSettings.FromConnectionString("mongodb://192.168.11.137:27017");


            // 将 CommandLogger 设置为 MongoClientSettings 的 CommandLogger 属性
            settings.ClusterConfigurator = cb => {
                cb.Subscribe<CommandStartedEvent>(e =>
                {
                   var cmd = e.Command.ToString();
                });
            };

            var client = new MongoClient(settings);

            var database = client.GetDatabase("MyTestDB");
            var userinfos = database.GetCollection<UserInfo>("UserInfo").AsQueryable();
 
            var ages = database.GetCollection<UserAge>("UserAges").AsQueryable();
            var ageinfos = database.GetCollection<AgeInfo>("AgeInfos").AsQueryable();

            var user = (from m in userinfos
                         join a in ages on m.Id equals a.UserId into aGroup
                        from a2 in aGroup.DefaultIfEmpty()
                        join b in ageinfos on a2.Id equals b.AgeId into  bGroup
                        from b2 in bGroup.DefaultIfEmpty()
                        select new
                        {
                            Name = m.Name,
                            Time = b2.CreateTime,
                            Age = a2.Age
                        }).FirstOrDefault();

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
爬虫是一种自动化程序,用于从互联网中获取数据。而MongoDB是一个非关系型数据库,具有高性能、可伸缩性和灵活的数据模型。在实践中,将两者结合使用可以高效地存储和检索爬虫获取的数据。 首先,我们需要在Python环境中安装pymongo库,它可以用于与MongoDB进行交互。然后,我们可以使用requests库发送HTTP请求并解析响应的HTML内容。通过解析HTML,我们可以提取有价值的数据,并将其存储到MongoDB中。 在代码中,我们需要先创建一个MongoDB连接。我们可以指定主机名、端口号和认证信息。接着,我们可以选择要使用的数据库和集合。在这些设置完成后,我们可以使用pymongo的方法添加新文档或更新已存在的文档。 例如,假设我们想要爬取某个电商网站的商品信息。我们可以发送HTTP请求以获取网页内容,并使用lxml或BeautifulSoup等库解析HTML。然后,我们可以遍历解析后的内容,提取出商品的名称、价格、评分等信息,并将它们存储到MongoDB的集合中。 使用MongoDB的好处之一是数据的结构可以非常灵活。我们可以根据需要随时添加或修改字段。此外,MongoDB的查询功能也很强大,可以轻松地根据条件检索和过滤数据。 综上所述,爬虫与MongoDB的结合可以帮助我们高效地存储、管理和检索爬取的数据。这种组合在很多实际应用中都被广泛使用,如舆情分析、数据挖掘和机器学习。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值