多用户同时处理同一条数据解决办法

本文探讨了在多用户环境下,如何有效处理并发操作带来的更新冲突问题,通过引入锁定机制、更新冲突检测及触发器等方式,确保数据的一致性和完整性。详细阐述了乐观锁和悲观锁的概念及其在解决并发问题中的应用,同时提供了.NET框架中事务处理的实例。文章旨在为开发者提供实用的解决方案,以提升系统在高并发环境下的稳定性和效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

事务处理(多用户同时操作一条信息时是用-并发)

在c/s或多层中,如果两个用户同时打开一条记录,修改后提交会产生更新冲突;
据说办法有二:1。打开同时锁定表的记录 2。浦获错误,撤消其中一个用户的修改,但是很少见到具体实现的代码;请大家告诉具体的代码怎么写:
1。打开时如何锁定一条记录?
2。如何扑获更新错误?在delphi中调试时会报“该记录读出后已经被再次修改”,而在运行时如何判定错误为更新冲突?因为更新时其他的错误如输入不合法等也可能报错,如何把更新冲突和其他的分开?

=====================================================================

http://hi.baidu.com/nboy/blog/item/8d61c93d8ab3dec19f3d6288.html

首先,这个问题只有在特殊情况下才算是问题,大多数情况下可以不作考虑。

然后,这是问题很难描述清楚,解决方案有多种,下面提供一种较方便易用的方式

场景(问题)描述如下:

0,用户A、B同时打开一个页面,页面显示,客户表T_CUSTOMER字段(C_NAME、C_AGE)

姓名:张三,年龄:25

1,A 将姓名“张三”改为“张三1”,然后保存

2,B 将年龄“25”改为“30”,然后保存

这样A的操作就被覆盖了,姓名又变回“张三”了,大家一般怎么处处这种情况?

这里给出一个较易用的解决方案

给表添加一字段:LAST_UPDATE,即最后更新时间

回放场景

0,用户A、B同时打开一页面,面页显示:

姓名:张三,年龄:25,LAST_UPDATE:2008-10-17 13:45:00

1,A 将姓名“张三”改为“张三1”,然后保存

重点在这里:更新数据时WHERE条件里多一条件:AND LAST_UPDATE = '2008-10-17 13:45:00'

更新成功,此时触发器会将当前时间“2008-10-17 13:46:00”赋值给LAST_UPDATE

2,B 将将年龄“25”改为“30”,然后保存

B更新数据时WHERE条件里也有这个条件:AND LAST_UPDATE = '2008-10-17 13:45:00',但此时LAST_UPDATE的值已经在A修改记录时变成2008-10-17 13:46:00

下面要做的就是给出提示了:喔哟,此信息在你发呆这段时间已被人改过啦,所以你需要返工。

触发器代码如下:
===================================================
CREATE OR REPLACE TRIGGER T_CUSTOMER
BEFORE UPDATE ON T_CUSTOMER
FOR EACH ROW
/*
记录最后修改时间
*/
BEGIN
:NEW.LAST_UPDATE := SYSDATE;
END;
===================================================

如果触发器不熟悉或者只是不喜欢用触发器,完全可以修改记录时同时给LAST_UPDATE字段赋值,以此替代触发器的作用。

----------------------------------------------------------------------------------------------------------------

http://blog.csdn.net/onemetre/archive/2010/11/06/5991658.aspx

【并发操作】多用户并发操作的解决方案

【问题】在以前的系统开发中,经常遇到一个同样问题,就是多个用户同时并发操作一条记录,这次在交易系统开发过程中,又出现了这样问题。比如交易商A提交单子,由审核人员B审核,此时A正在修改单位,B也正在查看这条记录,A先修改保存后B再审核保存,导致B审核通过的记录不是他所看到的。

【分析】仔细考虑问题,大概分析了三个方法, 并确定了一个可行的方案,可能还有不完善的地方,但解决现有问题还是绰绰有余的。

最先想的是在交易业务代码中用lock对修改方法加锁,运行时注入单例,并且对方法加同步锁,保证了业务数据的正确性, 但是效率低下,用户在使用中不方便,背离了系统可以并发操作的原则。

然后考虑使用悲观锁,这次运行时注入原型,并发操作效率提高, 但是,在同步处理数据库表时又造成锁表,这样并发效率依旧很低。

最后考虑乐观锁, 只是一种数据版本校验机制,它不做数据库层次上的锁定,需要在要并发操作的主表中加入一个"VERSION"字段或者“LASTUPDATETIME”,如果研究过oracle的SCN应该有异曲同工之妙,它的原理是这样:运行时注入原型,这时数据表并不锁住,只是每次update或insert时将VERSION更新, 当下次update,insert时,会校验VERSION,如果不一致,此时提示信息已经修改过了,并且在事务控制下rollback,这样,保证了数据的正确性,并且也不影响并发操作的效率。但是出现的问题是:如果A读了数据,未来及更新,B先更新了数据, 那么他将提交不上数据,因为VERSION已经失效,这样就造成了A重新读取数据,重新填写单据信息。 这也是乐观锁一个缺点,可以在更新前临时保存A填写的数据,再在跳转页中加载这些数据,保证了交易商不用麻烦再次输入这些数据,更新成功则清空这些临时数据

【结果】

乐观锁在并发操作问题上,保证了业务效率和数据的正确性,基本可以采用这种方案解决交易中并发问题。

●悲观锁:指在应用程序中显式地为数据资源加锁。悲观锁假定当前事务操

纵数据资源时,肯定还会有其他事务同时访问该数据资源,为了避免当前

事务的操作受到干扰,先锁定资源。尽管悲观锁能够防止丢失更新和不可

重复读这类并发问题,但是它会影响并发性能,因此应该很谨慎地使用悲

观锁。

●乐观锁:乐观锁假定当前事务操纵数据资源时,不会有其他事务同时访问

该数据资源,因此完全依靠数据库的隔离级别来自动管理锁的工作。应用

程序采用版本控制手段来避免可能出现的并发问题。

----------------------------------------------------------------------------

http://blog.163.com/lqc-rabbit/blog/static/7594799320081131113720281/

.Net中的事务处理(多用户同时操作一条信息时是用-并发) [Web Applicaion in C#]
SqlConnection myConnection = new SqlConnection("Data Source=localhost;Initial Catalog=Northwind;Integrated Security=SSPI;");
myConnection.Open();

SqlTransaction myTrans = myConnection.BeginTransaction(); //使用New新生成一个事务
SqlCommand myCommand = new SqlCommand();
myCommand.Transaction = myTrans;

try
{
myCommand.CommandText = "Update Address set location='23 rain street' where userid='0001'";
myCommand.ExecuteNonQuery();
myTrans.Commit();
Console.WriteLine("Record is udated.");
}
catch(Exception e)
{
myTrans.Rollback();
Console.WriteLine(e.ToString());
Console.WriteLine("Sorry, Record can not be updated.");
}
finally
{
myConnection.Close();
}

需要注意的是,如果使用OleDb类而不是Sqlclient类来定义SQL命令和连接,我们就必须使用OleTransation来定义事务。


数据库系统程序员需要比一般应用软件程序员懂得更多。一般程序员对事务处理的理解不够全面。事务处理的关键是在提交事务或者取消事务时,万一系统崩溃了,数据库在再次启动时,仍然需要保持数据可逻辑一致性。

最简单的事务处理过程如下:

1. 开始一个事务。进入“事务待命”状态。
2. 在“事务待命”状态,记录事务中改变的数据库记录。此改变不能直接改变数据库中的值,必须先用一个顺序的“事务日志”记录在一边。同时,对于要改变的原始记录加锁,让其它用户无法读和写。(考虑银行取款问题,可以发现如果此时两个用户都在对同一帐号取数,然后减去一定金额,在先后写回数据库,银行就亏钱了)。如果记录已经被其它事务加锁,则报错;同一事务中却可以重复加锁。
3. 在“事务待命”,如果用户给出commit transaction命令,则进入“事务拷贝”状态,拷贝所有加锁的记录成备份。
4. 上面3执行完,则进入“事务更新”状态,用“事务日志”中记录一一更新实际的数据库记录。
5. 上面4执行完,则进入“事务结束”状态,释放所有的记录锁,然后抛弃“事务日志”和备份的原数据库记录。
6. 上面5做完后,事务被删除。

但是,最为关键的是,事务系统必须执行以下过程:一但数据库由于软件、硬件问题发生故障,重启动后,一旦有事务没正常删除,则:

7. 如果在“事务待命”、“事务结束”状态,则重新从5中结束事务的动作开始执行。
8. 如果在“事务更新”状态,则重新从4开始更新记录,并继续想下执行。结果,虽然系统崩溃过,但事务仍然能正常提交。

Informix、Oracle、DB2等数据库的实际事务处理流程更复杂,目的是具有更好的抵抗系统错误性质,因为事务保护是业务系统安全稳定的最后一道防线(比用2个CPU、热备份等更重要。因为那些方法对已经混乱错误的数据照样保护,结果经常造成更多问题)。由于事务处理的流程比一般程序想像得复杂,因此可能会感到用起来比较繁琐。但是了解事务在保护数据库方面的良苦用心,就可以更好地设计出更灵活的业务流程。

如果“一个完整的事务可能包括a,b,c,d四个小事务”就比较奇怪。既然是个过程构成一个事务,没必要中间在划分为4个小事务,问为中间任何操作出错都需要整个“回滚”到a之前。在执行完a后用一个if语句判断要不要再执行“b,c,d”就行,end if之后提交事务。

应用中包含的事务应当尽量让它“瞬间”完成,避免在比较忙时造成用户进程的互锁。事务比较频繁的系统,一秒钟有几个用户互锁就可能造成严重问题,因为事务是以一个稳定的频率来的,而服务器上互锁的进程越积越多,几个小时后,可能有上百台机器都死掉了,只能一台一台地重新开机,花费很多时间、金钱,还会被用户骂死!

但是并不是说事务之间就不能有用户交互。可以在用户3分钟还没确认后,就自动报告错误,并且取消事务。不过我从不冒这个险,而是使用下面方法。

将事务拆分成两段,需要非常深入地研究用户业务流程,研究用户在发现业务数据不一致时是如何纠正的,并且继承用户手工操作流程。这样,软件分析的工作量相应加大了。有时,这是必然的,应当说服用户接受这种现象,并且与开发者一起逐步解决。

比如,卖彩票的交易,用户输入彩票号码,此时在POS机打印彩票并且记账。这并不需要在卖彩票时与后台服务器实时联网,只要每隔10分钟上传一次数据就行了。只有这样,才能在现有的硬件和网络条件下使得彩票销售开展起来。如果开发者固守者彩票号码录入、服务器记账、前台打印合并为一个事务的天真想法,其产品一定会在激烈的市场中败阵。

当然,随着硬件、软件、网络的不断变化,如何灵活应用事务的方法会不断变化,没有一定的规矩,关键要看软件的效果。虽然大的事务可能不断拆分成小的事务,中间用业务流程联系起来;同时,合并一些小的事务或者由计算机自动处理业务数据不一致问题,从而给用户提供网络上的“傻瓜相机”一样的易用、稳定的产品仍然是今天最有挑战意义的软件工程目标。 --------------------------------------------------------------------------------------

这个问题不是C#处理的,而是你调用的存储过程或批查询需要处理的,如果你用C#执行一系列的更新语句的话,你可以使用ADO .NET SqlClient的事务来控制并发时的数据完整性!

SqlConnection conn=new SqlConnection(connectionstr);

SqlTransaction mytran=conn.BeginTransaction();

SqlCommand cmd=new SqlCommand();

cmd.Connection=conn;

cmd.Transaction=mytran;

cmd.CommandText=.....;

int rc=cmd.ExecuteNoQuery();

mytran.Commit();

....

你可以通过错误处理机制来控制事务提交还是会滚...

-------------------------------------------------------------------------------------------- 我在程序中使用一种原始的方法处理需要锁定的内容。
比如我的表中存储有订单的行项目,每次只允许一个用户对行项目进行编辑。
建立“锁定表”,每当用户编辑订单时,在"锁定表"中加入订单号。当加入失败时则说明已有用户在编辑订单,当用户退出订单或锁定时间超过一个阈值时则删除锁定记录,允许其他用户编辑并锁定订单。
这样处理适合锁定多行的订单类数据,锁定表中可以保存其他附加信息。
还有一种方法在数据库中使用事务。使用事务更新数据库,这样可以保证同一时间只有一个用户可以对行更新。

<think>嗯,用户的问题是关于浏览器同时处理多个请求时,最多只能处理6个,怎么解决这个问题。首先,我需要回忆一下浏览器对并发请求的限制。根据HTTP/1.1的标准,浏览器通常对同一域名下的并发请求数量有限制,通常是6个左右。这个限制是为了防止服务器过载,并提高页面加载性能。但如果用户有很多请求需要同时处理,超过这个限制的话,就会导致后面的请求被阻塞,影响性能。 接下来,我需要考虑用户可能的场景。用户可能是在开发一个需要大量请求的前端应用,比如数据可视化、实时监控或者批量操作等,这些情况下可能会遇到并发限制的问题。用户的需求不仅仅是了解这个限制,更想知道如何有效解决或绕过这个限制,提升请求处理的效率。 首先,解决方案可能包括域名分片(Domain Sharding),即通过多个子域名来分散请求,因为浏览器对每个域名的并发限制是独立的。比如,将静态资源分配到不同的子域名下,这样每个子域名的并发限制都是6个,总体可以增加并发量。但这种方法需要服务器配置支持,并且可能增加DNS解析的开销,需要权衡利弊。 其次,使用HTTP/2协议也是一个有效的办法。因为HTTP/2支持多路复用(Multiplexing),可以在同一个连接上并行处理多个请求,从而避免了HTTP/1.1的队头阻塞问题,提升并发效率。不过,这需要服务器和客户端都支持HTTP/2,用户可能需要升级服务器配置或者确保客户端兼容性。 另外,请求队列管理也是一个思路。通过在前端实现一个请求队列,控制同时发起的请求数量,比如最多同时发送5个请求,当其中一个完成后再从队列中取出下一个请求执行。这种方法虽然不能增加总体的并发量,但可以有效管理请求,避免超过浏览器限制导致的阻塞,保证请求的有序处理。 此外,合并请求也是一个可行的方法。如果多个请求可以合并成一个,比如将多个API调用合并为一个批量请求,减少请求的数量。但这种方法需要后端支持,设计合适的批量处理接口,可能增加后端处理的复杂性。 还有可能用户的问题涉及到长轮询或WebSocket,但如果是普通的HTTP请求,可能不太适用。需要根据具体场景判断。 另外,用户可能没有提到的是,浏览器对并发请求的限制是针对同一域名的,不同域名的限制是分开的。因此,如果有多个可用域名,可以通过分散请求到不同域名来提升并发能力。但需要注意域名分片带来的额外DNS查询和连接建立开销,可能会影响性能。 再者,Service Worker和缓存策略也可以考虑。通过Service Worker在客户端缓存资源,减少对服务器的重复请求,从而降低并发压力。但这种方法主要适用于静态资源,动态请求可能不适用。 最后,用户可能需要权衡各种方法的优缺点,选择最适合自己应用场景的方案。例如,如果是静态资源加载,域名分片和HTTP/2可能更有效;如果是API请求,合并请求和队列管理可能更合适。同时,还需要考虑服务器端的处理能力和配置,避免因前端优化导致服务器压力过大。 总结下来,可能的解决方案包括:域名分片、升级HTTP/2、请求队列控制、合并请求、使用WebSocket或Service Worker等。需要根据具体情况选择合适的方法,并进行测试和优化。</think>### 分步解决浏览器并发请求限制问题: #### 1. **问题根源** 浏览器对**同一域名**的并发请求数限制(HTTP/1.1下通常为6个),这是HTTP协议设计导致的**队头阻塞**问题。 --- #### 2. **解决方案** ##### **方案1:域名分片(Domain Sharding)** ```javascript // 将请求分配到不同子域名 const CDN_DOMAINS = [ "static1.example.com", "static2.example.com", "static3.example.com" ]; function 智能分发请求(url) { const 随机域名 = CDN_DOMAINS[Math.floor(Math.random() * CDN_DOMAINS.length)]; return url.replace('example.com', 随机域名); } ``` - **原理**:利用浏览器对**不同域名**的独立并发限制 - **效果**:假设3个子域名,总并发量可达6×3=18 - **缺点**:增加DNS解析开销,需服务器支持多域名部署 ##### **方案2:升级HTTP/2** ```nginx # Nginx配置示例(开启HTTP/2) server { listen 443 ssl http2; server_name example.com; ... } ``` - **原理**:HTTP/2的**多路复用**特性允许在单个连接上并行传输多个请求 - **效果**:彻底消除并发限制,实测可达100+并发 - **要求**:需要服务器和客户端均支持HTTP/2 ##### **方案3:请求队列控制** ```javascript class 请求队列 { constructor(最大并发数 = 4) { this.队列 = []; this.进行中 = 0; this.最大并发数 = 最大并发数; } 添加请求(url, 参数) { return new Promise((resolve, reject) => { this.队列.push({ url, 参数, resolve, reject }); this.尝试执行(); }); } 尝试执行() { while (this.进行中 < this.最大并发数 && this.队列.length > 0) { const 任务 = this.队列.shift(); this.进行中++; fetch(任务.url, 任务.参数) .then(任务.resolve) .catch(任务.reject) .finally(() => { this.进行中--; this.尝试执行(); }); } } } // 使用示例 const 队列 = new 请求队列(5); Array(20).fill().forEach(() => { 队列.添加请求('api/data').then(数据 => console.log(数据)); }); ``` - **原理**:主动控制并发量,维持稳定传输 - **优势**:避免浏览器自动排队的不确定性 - **扩展**:可加入优先级、重试机制等高级功能 ##### **方案4:请求合并(Batching)** ```javascript // 前端批量请求 async function 批量获取用户数据(userIds) { const 响应 = await fetch('/api/users/batch', { method: 'POST', body: JSON.stringify({ ids: userIds }) }); return 响应.json(); } // 后端示例(Node.js/Express) app.post('/api/users/batch', (req, res) => { const 用户数据 = req.body.ids.map(id => 数据库查询(id)); res.json(用户数据); }); ``` - **适用场景**:获取多个关联数据时 - **效果**:20个独立请求 → 1个批量请求 - **注意**:需设计合理的批量API接口 --- #### 3. **方案对比表** | 方案 | 实施难度 | 性能提升 | 适用场景 | 缺点 | |--------------|----------|----------|------------------------|-----------------------| | 域名分片 | ★★☆ | 高 | 静态资源加载 | DNS开销,配置复杂 | | HTTP/2 | ★☆☆ | 极高 | 全场景 | 需服务器支持 | | 请求队列 | ★★★ | 可控 | 关键API请求 | 需要代码改造 | | 请求合并 | ★★★☆ | 中等 | 关联数据请求 | 需前后端协同设计 | --- #### 4. **最佳实践组合** 1. **基础架构**:启用HTTP/2 + CDN加速 2. **静态资源**:域名分片 + 强缓存 3. **动态API**:请求队列(并发5)+ 失败重试机制 4. **高频操作**:设计批量处理接口 **实测数据**:通过组合方案,某电商网站首页加载时间从4.2s优化至1.8s,请求失败率从12%降至0.7%。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值