c# getresponsestream返回byte[]_C#规范整理多线程异步并行任务

有一个领域的工作处理起来几乎总是最棘手的,这就是多线程编码。多线程编码是所有开发人员前进途中的一个坎,现在,该是尝试克服它的时候了。

5ad522c0a0ce06b76fbc165d7dd79588.png

1.区分异步和多线程应用场景

先看一个例子

private void buttonGetPage_Click(object sender,EventArgs e){    Thread t=new Thread(()=>    {      var request=HttpWebRequest.Create("http://www.cnblogs.com/luminji");      var response=request.GetResponse();      var stream=response.GetResponseStream();      using(StreamReader reader=new StreamReader(stream))      {         var content=reader.ReadLine();         textBoxPage.Text=content;      }});    t.Start();}

可以预见,如果该网页的内容很多,或者当前的网络状况不太好,获取网页的过程会持续较长时间。于是,我们可能会想到用新起工作线程的方法来完成这项工作,这样在等待网页内容返回的过程中Winform界面就不会被阻滞了。

是的,上面的程序解决了界面阻滞的问题,但是,它高效吗?答案是:不。

要理解这一点,需要从“IO操作的DMA(DirectMemory Access)模式”开始讲起。DMA即直接内存访问,是一种不经过CPU而直接进行内存数据存储的数据交换模式。通过DMA的数据交换几乎可以不损耗CPU的资源。在硬件中,硬盘、网卡、声卡、显卡等都有DMA功能。CLR所提供的异步编程模型就是让我们充分利用硬件的DMA功能来释放CPU的压力。
使用异步模式去实现,代码如下所示:

private void buttonGetPage_Click(object sender,EventArgs e){    var request=HttpWebRequest.Create("http://www.sina.com.cn");    request.BeginGetResponse(this.AsyncCallbackImpl,request);}public void AsyncCallbackImpl(IAsyncResult ar){    WebRequest request=ar.AsyncState as WebRequest;    var response=request.EndGetResponse(ar);    var stream=response.GetResponseStream();using(StreamReader reader=new StreamReader(stream)) {    var content=reader.ReadLine();    textBoxPage.Text=content;  }}

经过修改的示例采用了异步模式,它使用线程池进行管理。新起异步操作后,CLR会将工作丢给线程池中的某个工作线程来完成。当开始I/O操作的时候,异步会将工作线程还给线程池,这时候就相当于获取网页的这个工作不会再占用任何CPU资源了。直到异步完成,即获取网页完毕,异步才会通过回调的方式通知线程池,让CLR响应异步完毕。可见,异步模式借助于线程池,极大地节约了CPU的资源。

明白了异步和多线程的区别后,我们来确定两者的应用场景:

  • 计算密集型工作,采用多线程。

  • IO密集型工作,采用异步机制。

2.在线程同步中使用信号量

所谓线程同步,就是多个线程在某个对象上执行等待(也可理解为锁定该对象),直到该对象被解除锁定。C#中对象的类型分为引用类型和值类型。CLR在这两种类型上的等待是不一样的。我们可以简单地理解为在CLR中,值类型是不能被锁定的,即不能在一个值类型对象上执行等待。而在引用类型上的等待机制,又分为两类:锁定和信号同步

锁定使用关键字lock和类型Monitor。两者没有实质区别,前者其实是后者的语法糖。这是最常用的同步技术。6034328c30d8011305ab1597ad45d6aa.png

信号同步机制中涉及的类型都继承自抽象类WaitHandle,所以它们底层的原理是一致的,维护的都是一个系统内核句柄。

  • EventWaitHandle :EventWaitHandle维护一个由内核产生的布尔类型对象(称为“阻滞状态”),如果其值为false,那么在它上面等待的线程就阻塞。可以调用类型的Set方法将其值设置为true,解除阻塞。

    • AutoResetEvent :AutoResetEvent autoResetEvent=new AutoResetEvent(false); 开启的线程开始在autoResetEvent上等待任何其他地方给它的信号。信号来了,则线程开始继续工作,否则就一直等着(即阻滞)。

    • ManualResetEvent :AutoResetEvent和ManualResetEvent的区别是:前者在发送信号完毕后(即调用Set方法),会自动将自己的阻滞状态设置为false,而后者则需要进行手动设定。

  • Semaphore :Semaphore维护一个由内核产生的整型变量,如果其值为0,则在它上面等待的线程就会阻塞;如果其值大于0,则解除阻塞,同时,每解除一个线程阻塞,其值就减1。

  • Mutex :EventWaitHandle和Semaphore提供的都是单应用程序域内的线程同步功能,Mutex则不同,它为我们提供了跨应用程序域阻塞和解除阻塞线程的能力。

3.避免锁定不恰当的同步对象

C#中,让线程同步的另一种编码方式就是使用线程锁。线程锁的原理,就是锁住一个资源,使得应用程序在此刻只有一个线程访问该资源。通俗地讲,就是让多线程变成单线程。在C#中,可以将被锁定的资源理解成new出来的普通CLR对象。
什么样的对象能够成为一个锁对象(也叫同步对象)。

1)同步对象在需要同步的多个线程中是可见的同一个对象。即如果不是锁定的同一个对象,则线程锁失效。同样,lock(this),我们同样不建议在代码中编写这样的代码。如果两个对象的实例分别执行了锁定的代码,实际锁定的也就会是两个对象,完全不能达到同步的目的。

2)在非静态方法中,静态变量不应作为同步对象。。在编写多线程代码时,要遵循这样的一个原则:类型的静态方法应当保证线程安全,非静态方法不需实现线程安全。 ,FCL中的绝大部分类都遵循了这个原则,像上一个示例中,如果将syncObject变成static,就相当于让非静态方法具备了线程安全性,这带来的一个问题是,如果应用程序中该类型存在多个实例,在遇到这个锁的时候,它们都会产生同步

3)值类型对象不能作为同步对象。值类型对象不能作为同步对象。值类型在传递到另一个线程的时候,会创建一个副本,这相当于每个线程锁定的也是两个对象。因此,值类型对象不能作为同步对象。

4)避免将字符串作为同步对象。:锁定字符串是完全没有必要的,而且相当危险。这整个过程看上去和值类型正好相反。字符串在CLR中会被暂存到内存里,如果有两个变量被分配了相同内容的字符串,那么这两个引用会被指向同一块内存。所以,如果有两个地方同时使用了lock(“abc”),那么它们实际锁定的是同一个对象,这会导致整个应用程序被阻滞。

5)降低同步对象的可见性。可见范围最广的一种同步对象是typeof(SampleClass)。typeof方法所返回的结果(也就是类型的type)是SampleClass的所有实例所共有的,即:所有实例的type都指向typeof方法的结果。这样一来,如果我们lock(typeof(SampleClass)),当前应用程序中所有SampleClass的实例线程将会全部被同步。这样编码完全没有必要,而且这样的同步对象太开放了。
例外:一些常用的集合类型(如ArrayList)提供了公共属性SyncRoot ,ArrayList操作的大部分应用场景不涉及多线程同步,所以它的方法更多的是单线程应用场景。若ArrayList的所有非静态方法都要考虑线程安全,那么ArrayList完全可以将这个SyncRoot变成静态私有的。现在它将SyncRoot变为公开的,是让调用者自己去决定操作是否需要线程安全,我们在编写代码时,除非有这样的要求,否则就应该始终考虑降低同步对象的可见性,将同步对象藏起来,只开放给自己或自己的子类就够了(实际情况并不多)。

4.警惕线程的IsBackground

在CLR中,线程分为前台线程和后台线程,即每个线程都有一个IsBackground属性。两者在表现形式上的唯一区别是:如果前台线程不退出,应用程序的进程就会一直存在,必须所有的前台线程全部退出,应用程序才算退出。而后台进程则没有这方面的限制,如果应用程序退出,后台线程也会一并退出。

Thread创建的线程默认是前台线程,也就是IsBackground属性默认是false。以上代码需等到工作结束(敲入一个按键)应用程序才会结束,而如果设置IsBackground为true,应用程序则会立刻结束。但我们要注意线程池中的线程默认都是后台线程

基于前后台线程的区别,在实际编码中应该更多地使用后台线程。只有在非常关键的工作中,如线程正在执行事务或占有的某些非托管资源需要释放时,才使用前台线程。

5.警惕线程不会立即启动

线程的调度是一个复杂的过程,对于C#开发者来说,需要理解的就是:线程之间的调度占有一定的时间和空间开销,并且,它不实时。下面是一个测试的例子,本意是将0到9分别传给10个不同的线程,结果却事与愿违:

static int_id=0;static void Main(){    for(int i=0;i<10;i++,_id++)   {      Thread t=new Thread(()=>      {                Console.WriteLine(string.Format("{0}:{1}",Thread.CurrentThread.Name,_id));       });     t.Name=string.Format("Thread{0}",i);     t.IsBackground=true;     t.Start();}   Console.ReadLine();}

这段代码的输出从两个方面印证了线程不是立即启动的。

要让需求得到正确的编码,需要把上面的for循环修改成为一段同步代码

static int_id=0;static void Main(){   for(int i=0;i<10;i++,_id++){   NewMethod1(i,_id);}   Console.ReadLine();} private static void NewMethod1(int i,int realTimeID){  Thread t=new Thread(()=>{   Console.WriteLine(string.Format("{0}:{1}",   Thread.CurrentThread.Name,realTimeID)); });  t.Name=string.Format("Thread{0}",i);  t.IsBackground=true;  t.Start(); }}

可以看到,线程虽然保持了不会立即启动的特点,但是传入线程的ID值,由于在for循环内部变成了同步代码,所以能够正确传入。

6.警惕线程的优先级

线程在C#中有5个优先级:Highest、AboveNormal、Normal、BelowNormal和Lowest。讲到线程的优先级,就会涉及线程的调度。Windows系统是一个基于优先级的抢占式调度系统。在系统中,如果有一个线程的优先级较高,并且它正好处在就绪状态,系统总是会优先运行该线程。换句话说,高优先级的线程总是在系统调度算法中获取更多的CPU执行时间

在C#中,使用Thread和ThreadPool新起的线程,默认优先级都是Normal。虽然可以修改线程的优先级,但是一般不建议这样做。当然,如果是一些非常关键的线程,我们还是可以提升线程的优先级的。这些关键线程应当具有运行时间短、能即刻进入等待状态等特征。

7.正确停止线程

开发者总尝试对自己的代码有更多的控制。例如,“让那个还在工作的线程马上停止下来”。然而,并非我们想怎样就可以怎样的,这至少涉及两个问题。

第一个问题 正如线程不能立即启动一样,线程也并不是说停就停的。无论采用何种方式通知工作线程需要停止,工作线程都会忙完手头最紧要的活,然后在它觉得合适的时候退出。以最传统的Thread.Abort方法为例,如果线程当前正在执行的是一段非托管代码,那么CLR就不会抛出ThreadAbortException,只有当代码继续回到CLR中时,才会引发ThreadAbortException。当然,即便是在CLR环境中,ThreadAbortException也不会立即引发。

第二个问题 要正确停止线程,不在于调用者采取了什么行为(如最开始的Thread.Abort()方法),而更多依赖于工作线程是否能主动响应调用者的停止请求。大体机制是,如果线程需要被停止,那么线程自身就应该负责给调用者开放这样的接口:Cancled。线程在工作的同时,还要以某种频率检测Cancled标识,若检测到Cancled,线程自己才会负责退出。

FCL现在为我们提供了标准的取消模式:协作式取消(Cooperative Cancellation)。协作式取消的机制就是上文第二个问题中所提到的机制。下面是一个最基础的协作式取消的示例:

CancellationTokenSource cts=new CancellationTokenSource();Thread t=new Thread(()=>{while(true)   {   if(cts.Token.IsCancellationRequested)   {      Console.WriteLine("线程被终止!");      break;   }      Console.WriteLine(DateTime.Now.ToString());      Thread.Sleep(1000);   }});t.Start();Console.ReadLine();cts.Cancel();

调用者使用CancellationTokenSource的Cancel方法通知工作线程退出。工作线程则以大约1000ms的频率一边工作,一边检查是否有外界传入的Cancel信号,若有这样的信号,则退出。可以看到,在正确停止线程的机制中,真正起到主要作用的是线程本身。示例中的工作代码比较简单,但足以说明问题。更复杂的计算式工作,也应该以这样的一种方式,妥善而正确地处理退出。

协作式取消中的关键类型是CancellationTokenSource。它有一个关键属性Token, Token是一个名为CancellationToken的值类型。CancellationToken继而进一步提供了布尔值的属性IsCancellationRequested作为需要取消工作的标识。CancellationToken还有一个方法尤其值得注意,那就是Register方法。它负责传递一个Action委托,在线程停止的时候被回调,使用方法如下:

cts.Token.Register(()=>{Console.WriteLine("工作线程被终止了。");});

本例使用Thread进行了演示,如果使用ThreadPool也是一样的模式。还有任务Task,它依赖于CancellationTokenSource和CancellationToken完成了所有的取消控制。

8.应避免线程数量过多

在多数情况下,创建过多的线程意味着应用程序的架构设计可能存在着缺陷。经常有人会问,一个应用程序中到底含有多少线程才是合理的。现在我们找一台PC机,打开Windows的任务管理器,看看操作系统中正在运行的程序有多少个线程。915c3759c11ed75f6b29f217a8a96ed4.png
如图所示,大多数应用程序的线程数不会太多。

错误地创建过多线程的一个典型的例子是:为每一个Socket连接建立一个线程去管理。每个连接一个线程,意味着在32位系统的服务器不能同时管理超过1000台的客户机。CLR为每个进程分配的内存会超过1MB。约1000个进程,加上.NET进程启动本身所占用的一些内存,即刻就耗尽了系统能分配给进程的最大可用地址空间2GB。即便应用程序在设计之初的需求设计书中说明,生产环境中客户端数目不会超过500台,在管理这500台客户端时进行线程上下文切换,也会损耗相当多的CPU时间。这类I/O密集型场合应该使用异步去完成

过多的线程还会带来另外的问题:新起的线程可能需要等待相当长的时间才会真正运行。这是一个相当无奈的结果,在多数情况下,我们都不能忍受等待这么长时间。以下的这段测试代码,在双核系统中,经过了大概5分钟的时间,才运行到了线程T201:

static void Main(string[]args){ for(int i=0;i<200;i++){Thread t=new Thread(()=>{int j=1;while(true){     j++;}});t.IsBackground=true;t.Start();}Thread.Sleep(5000);Thread t201=new Thread(()=>{   while(true){ Console.WriteLine("T201正在执行");}});t201.Start();Console.ReadKey();}

除了启动问题外,线程之间的切换也存在同样的问题,T201的下一次执行,还会等待相当长的时间。

所以,不要滥用线程,尤其不要滥用过多的线程。当新起线程的时候,需要仔细思考这项工作是否真的需要新起线程去完成。即使真的需要线程也应该考虑使用线程池技术。例如所提到的Socket连接这样的I/O密集型场合,应当始终考虑使用异步来完成。异步会在后台使用线程池进行管理。1000台客户端在使用了异步技术后,实际只要几个线程就能完成所有的管理工作(具体取决于“心跳频率”)。

9.使用ThreadPool或BackgroundWorker代替Thread

使用线程能极大地提升用户体验度,但是作为开发者应该注意到,线程的开销是很大的。

线程的空间开销来自:

  1. 线程内核对象(Thread Kernel Object)。每个线程都会创建一个这样的对象,它主要包含线程上下文信息,在32位系统中,它所占用的内存在700字节左右。

  2. 线程环境块(Thread Environment Block)。TEB包括线程的异常处理链,32位系统中占用4KB内存。

  3. 用户模式栈(User Mode Stack),即线程栈。线程栈用于保存方法的参数、局部变量和返回值。每个线程栈占用1024KB的内存。要用完这些内存很简单,写一个不能结束的递归方法,让方法参数和返回值不停地消耗内存,很快就会发生OutOfMemoryException。

  4. 内核模式栈(Kernel Mode Stack)。当调用操作系统的内核模式函数时,系统会将函数参数从用户模式栈复制到内核模式栈。在32位系统中,内核模式栈会占用12KB内存。

线程的时间开销来自:

  1. 线程创建的时候,系统相继初始化以上这些内存空间。

  2. 接着CLR会调用所有加载DLL的DLLMain方法,并传递连接标志(线程终止的时候,也会调用DLL的DLLMain方法,并传递分离标志)。

  3. 线程上下文切换。一个系统中会加载很多的进程,而一个进程又包含若干个线程。但是一个CPU在任何时候都只能有一个线程在执行。为了让每个线程看上去都在运行,系统会不断地切换“线程上下文”:每个线程大概得到几十毫秒的执行时间片,然后就会切换到下一个线程了。这个过程大概又分为以下5个步骤:

  • 步骤1 进入内核模式。

  • 步骤2 将上下文信息(主要是一些CPU寄存器信息)保存到正在执行的线程内核对象上。

  • 步骤3 系统获取一个Spinlock,并确定下一个要执行的线程,然后释放Spinlock。如果下一个线程不在同一个进程内,则需要进行虚拟地址交换。

  • 步骤4 从将被执行的线程内核对象上载入上下文信息。

  • 步骤5 离开内核模式。

由于要进行如此多的工作,所以创建和销毁一个线程就意味着代价“昂贵”。为了避免程序员无节制地使用线程,微软开发了“线程池”技术。简单来说,线程池就是替开发人员管理工作线程。当一项工作完毕时,CLR不会销毁这个线程,而是会保留这个线程一段时间,看是否有别的工作需要这个线程。至于何时销毁或新起线程,由CLR根据自身的算法来做这个决定。所以,如果我们要多线程编码,不应想到:

Thread t=new Thread(()=>{ //工作代码});t.Start();

应该首先想到依赖线程池:

ThreadPool.QueueUserWorkItem((objState)=>{ //工作代码},null);

线程池技术能让我们重点关注业务的实现,而不是线程的性能测试。
还提到了一个类型BackgroundWorker。BackgroundWorker是在内部使用了线程池的技术;同时,在Winform或WPF编码中,它还给工作线程和UI线程提供了交互的能力。如果我们稍加注意,就会发现:Thread和ThreadPool默认都没有提供这种交互能力,而BackgroundWorker却通过事件提供了这种能力。这种能力包括:报告进度、支持完成回调、取消任务、暂停任务等。

10.用Task代替ThreadPool

ThreadPool相对于Thread来说具有很多优势,但是ThreadPool在使用上却存在一定的不方便。比如:

  • ThreadPool不支持线程的取消、完成、失败通知等交互性操作。

  • ThreadPool不支持线程执行的先后次序。

以往,如果开发者要实现上述功能,需要完成很多额外的工作。现在,FCL中提供了一个功能更强大的概念:Task。Task在线程池的基础上进行了优化,并提供了更多的API。在FCL 4.0中,如果我们要编写多线程程序,Task显然已经优于传统的方式了。

任务Task具备以下属性,可以让我们查询任务完成时的状态:

  • IsCanceled因为被取消而完成

  • IsCompleted成功完成

  • IsFaulted因为发生异常而完*

需要注意的是,任务并没有提供回调事件来通知完成(像BackgroundWorker一样),它是通过启用一个新任务的方式来完成类似的功能。ContinueWith方法可以在一个任务完成的时候发起一个新任务,这种方式天然就支持了任务的完成通知:我们可以在新任务中获取原任务的结果值。

Task还支持任务工厂的概念。任务工厂支持多个任务之间共享相同的状态,如取消类型CancellationTokenSource就是可以被共享的。通过使用任务工厂,可以同时取消一组任务。

所以在FCL 4.0和以后的时代,如果要使用多线程,我们理应更多地使用Task。

11.使用Parallel简化同步状态下Task的使用

在命名空间System.Threading.Tasks中,有一个静态类Parallel简化了在同步状态下的Task的操作。Parallel主要提供3个有用的方法:For、ForEach、Invoke。

  • For方法主要用于处理针对数组元素的并行操作,如下所示:

static void Main(string[]args){int[]nums=new int[]{1,2,3,4};Parallel.For(0,nums.Length,(i)=>{ Console.WriteLine("针对数组索引{0}对应的那个元素{1}的一些工作代码……",i, nums[i]);}); Console.ReadKey();}

实际情况,工作代码并未按照数组的索引次序进行遍历。这是因为我们的遍历是并行的,不是顺序的。所以,这里也可以引出一个小建议:如果我们的输出必须是同步的或者说必须是顺序输出的,则不应使用Parallel的方式。

  • ForEach方法主要用于处理泛型集合元素的并行操作,如下所示:

static void Main(string[]args){ List<int>nums=new List<int>{1,2,3,4}; Parallel.ForEach(nums,(item)=>{   Console.WriteLine("针对集合元素{0}的一些工作代码……",item);});   Console.ReadKey();}
  • 使用For和ForEach方法,Parallel类型会自动为我们分配Task来完成针对元素的一些工作。当然我们也可以直接使用Task,但是上面的这种形式在语法上更为简洁。

Parallel的Invoke方法为我们简化了启动一组并行操作,它隐式启动的就是Task。该方法接受Params Action[]参数,如下所示:

static void Main(string[]args){Parallel.Invoke(()=>  {  Console.WriteLine("任务1……"); }, ()=> {  Console.WriteLine("任务2……"); }, ()=> { Console.WriteLine("任务3……");  }); Console.ReadKey();}

同样,由于所有的任务都是并行的,所以它不保证先后次序。

12.Parallel简化但不等同于Task默认行为

Parallel的使用方法,不知道大家是否注意到文中使用的字眼:在同步状态下简化了Task的使用。也就是说,在运行Parallel中的For、ForEach方法时,调用者线程(在示例中就是主线程)是被阻滞的。Parallel虽然将任务交给Task去处理,即交给CLR线程池去处理,不过调用者会一直等到线程池中的相关工作全部完成。表示并行的静态类Parallel甚至只提供了Invoke方法,而没有同时提供一个BeginInvoke方法,这也从一定程度上说明了这个问题。

在使用Task时,我们最常使用的是Start方法(Task也提供了RunSynchronously),它不会阻滞调用者线程。如下所示:

static void Main(){Task t=new Task(()=>  {    while(true)    {     }  });  t.Start();  Console.WriteLine("主线程即将结束");  Console.ReadKey();}

输出为:主线程即将结束

使用Parallel执行相近的功能,主线程被阻滞:

static void Main(){//在这里也可以使用Invoke方法Parallel.For(0,1,(i)=> {        while(true){}});Console.WriteLine("主线程即将结束");Console.ReadKey();}

如果执行这段代码,永远不会有输出。

并行编程,意味着运行时在后台将任务分配到尽量多的CPU上,虽然它在后台使用Task进行管理,但这并不意味着它等同于异步。

13.小心Parallel中的陷阱

每次返回结果不一致的情况

Parallel的For和ForEach方法还支持一些相对复杂的应用。在这些应用中,它允许我们在每个任务启动时执行一些初始化操作,在每个任务结束后,又执行一些后续工作,同时,还允许我们监视任务的状态。但是,請记住上面这句话“允许我们监视任务的状态”是错误的:应该把其中的“任务”改成“线程”。这,就是陷阱所在。

我们需要深刻理解这些具体的操作和应用,不然,极有可能陷入这个陷阱中去。下面体会这段代码的输出是什么,如下所示:

static void Main(string[]args){ int[]nums=new int[]{1,2,3,4}; int total=0; Parallel.For(0,nums.Length,()=> { return 1; }, (i,loopState,subtotal)=> { subtotal+=nums[i]; return subtotal; }, (x)=>Interlocked.Add(ref total,x));Console.WriteLine("total={0}",total);Console.ReadKey();

这段代码有可能输出11,较少的情况下输出12,虽然理论上有可能输出13和14,但是我们应该很少有机会观察到。要明白为什么会有这样的输出,首先必须详细了解For方法的各个参数。上面这个For方法的声明如下:

public static ParallelLoopResult For(int fromInclusive,int toExclusive,FunclocalInit,Funcbody,ActionlocalFinally);
前面两个参数相对容易理解,分别是起始索引和结束索引。
localInit和localFinally就比较难理解了,并且陷阱也在这里。要理解这两个参数,必须先理解Parallel.For方法的运作模式。For方法采用并发的方式来启动循环体中的每个任务,这意味着,任务是交给线程池去管理的。在上面的代码中,循环次数共计4次,实际运行时调度启动的后台线程也就只有一个或两个。这就是并发的优势,也是线程池的优势,Parallel通过内部的调度算法,最大化地节约了线程的消耗。localInit的作用是如果
Parallel为我们新起了一个线程,它就会执行一些初始化的任务在上面的例子中:

()=>{    return 1;}

它会将任务体中的subtotal这个值初始化为1。
localFinally的作用是,在每个线程结束的时候,它执行一些收尾工作:

(x)=>Interlocked.Add(ref total,x)

这行代码所代表的收尾工作实际就是:

total=total+subtotal;

其中的x,其实代表的就是任务体中的返回值,具体在这个例子中就是subtotal在返回时的值。使用Interlocked是对total使用原子操作,以避免并发所带来的问题。现在,我们应该很好理解为什么上面这段代码的输出会不确定了。Parallel一共启动了4个任务,但是我们不能确定Parallel到底为我们启动了多少个线程,那是运行时根据自己的调度算法决定的。如果所有的并发任务只用了一个线程,则输出为11;如果用了两个线程,那么根据程序的逻辑来看,输出就是12了。

在这段代码中,如果让localInit返回的值为0,也许你就永远不会注意到这个陷阱:

()=>{    return 0;}

现在,为了更清晰地体会这个陷阱,我们使用下面这段更好理解的代码:

static void Main(string[]args){string[]stringArr=new string[]{"aa","bb","cc","dd","ee","ff", "gg","hh"}; string result=string.Empty;Parallel.For<string>(0,stringArr.Length,()=>"-",(i,loopState, subResult)=> { return subResult+=stringArr[i]; },(threadEndString)=> {result+=threadEndString;Console.WriteLine("Inner:"+threadEndString); });Console.WriteLine(result); Console.ReadKey();}

这段代码的一个可能的输出为:
Inner: -aabbccddffgghh
Inner: -ee

-aabbccddffgghh-ee

14.使用PLINQ

LINQ最基本的功能就是对集合进行遍历查询,并在此基础上对元素进行操作。仔细推敲会发现,并行编程简直就是专门为这一类应用准备的。因此,微软专门为LINQ拓展了一个类ParallelEnumerable(该类型也在命名空间System.Linq中),它所提供的扩展方法会让LINQ支持并行计算,这就是所谓的PLINQ。
传统的LINQ计算是单线程的,PLINQ则是并发的、多线程的,我们通过下面这个示例就可以看出这个区别:

static void Main(string[]args){  List<int>intList=new List<int>(){0,1,2,3,4,5,6,7,8,9};  var query=from p in intList select p;  Console.WriteLine("以下是LINQ顺序输出:");   foreach(int item in query)  {     Console.WriteLine(item.ToString());  }  Console.WriteLine("以下是PLINQ并行输出:");  var queryParallel=from p in intList.AsParallel()select p;  foreach(int item in queryParallel)  {     Console.WriteLine(item.ToString());  }}

LINQ的输出会按照intList中的索引顺序打印出来。而PLINQ的输出是杂乱无章的。
并行输出还有另外一种方式可以处理,那就是对queryParallel求ForAll:

queryParallel.ForAll((item)=>{ Console.WriteLine(item.ToString());});

但是这种方法会带来一个问题,如果要将并行输出后的结果进行排序,ForAll会忽略掉查询的AsOrdered请求。如下所示:

var queryParallel=from p in intList.AsParallel().AsOrdered()                             select p;    queryParallel.ForAll((item)=>     {        Console.WriteLine(item.ToString());     });

AsOrdered方法可以对并行计算后的队列进行重新组合,以便保持顺序。可是在ForAll方法中,它所完成的输出仍是无序的。如果要保持AsOrdered方法的需求,我们应当始终使用第一种并行方式,即:

var queryParallel=from p in intList.AsParallel().AsOrdered()                           select p;   foreach(int item in queryParallel)   {     Console.WriteLine(item.ToString());   }

在并行查询后再进行排序,会牺牲掉一定的性能。一些扩展方法默认会对元素进行排序,这些方法包括:OrderBy、OrderByDescending、ThenBy和ThenByDescending。在实际的使用中,一定要注意到各种方式之间的差别,以便程序按照我们的设想运行。还有一些其他的查询方法,比如Take。如果我们这样编码:

foreach(int item in queryParallel.Take(5)){   Console.WriteLine(item.ToString());}

建议在对集合中的元素项进行操作的时候使用PLINQ代替LINQ。但是要记住,不是所有并行查询的速度都会比顺序查询快,在对集合执行某些方法时,顺序查询的速度会更快一点,如方法ElementAt等。在开发中,我们应该仔细辨别这方面的需求,以便找到最佳的解决方案。

15.Task中的异常处理

在任何时候,异常处理都是非常重要的一个环节。多线程与并行编程中尤其是这样。如果不处理这些后台任务中的异常,应用程序将会莫名其妙的退出。处理那些不是主线程(如果是窗体程序,那就是UI主线程)产生的异常,最终的办法都是将其包装到主线程上。

在任务并行库中,如果对任务运行Wait、WaitAny、WaitAll等方法,或者求Result属性,都能捕获到AggregateException异常。可以将AggregateException异常看做是任务并行库编程中最上层的异常。在任务中捕获的异常,最终都应该包装到AggregateException中。一个任务并行库异常的简单处理示例如下:

static void Main(string[]args){Task t=new Task(()=> {      throw new Exception("任务并行编码中产生的未知异常"); });t.Start();try{  //若有Result,可求Resultt.Wait();}catch(AggregateException e) {    foreach(var item in e.InnerExceptions)    {       Console.WriteLine("异常类型:{0}{1}来自: {2}{3}异常内容:{4}",item.GetType(),       Environment.NewLine,       item.Source,Environment.NewLine,item.Message  );   } } Console.WriteLine("主线程马上结束"); Console.ReadKey();}

上面的代码输出:
异常类型:System.Exception 来自:ConsoleApplication3 异常内容:任务并行编码中产生的未知异常 主线程马上结束

大家也许已经注意到,虽然运行Wait、WaitAny、WaitAll方法,或者求Result属性能得到任务的异常信息,但是这会阻滞当前线程。这往往不是我们所希望看到的,岂能为了得到一个异常就故意等待?这时可以考虑任务并行库中Task类型的一个功能:新起一个后续任务,就可以解决等待的问题:

static void Main(){Task t=new Task(()=> { throw new Exception("任务并行编码中产生的未知异常");});t.Start();Task tEnd=t.ContinueWith((task)=>  {     foreach(Exception item in task.Exception.InnerExceptions)    {      Console.WriteLine("异常类型:{0}{1}来自: {2}{3}异常内容:{4}",item.GetType(),Environment.NewLine, item.Source,Environment.NewLine,item.Message);    }},TaskContinuationOptions.OnlyOnFaulted );Console.WriteLine("主线程马上结束");Console.ReadKey();}

以上输出:
主线程马上结束异常类型:System.Exception 来自:ConsoleApplication3 异常内容:任务并行编码中产生的未知异常

以上方法解决了主线程等待的问题,但是仔细研究我们会发现,异常处理没有回到主线程中,它还是在线程池中。在某些场合,比如对于业务逻辑上特定异常的处理,需要采取这种方式,而且我们也鼓励这种用法。但很明显,更多时候我们还需要更进一步将异常处理封装到主线程。

Task没有提供将任务中的异常包装到主线程的接口。一个可行的办法是,仍旧使用类似Wait的方法来达到此目的。在本建议一开始的代码中,我们对于主工作任务采用Wait的方法,这是不可取的。因为主工作任务也许会持续一段较长的时间,那样会阻塞调用者,并让调用者觉得不能忍受。而本建议的第二段代码中,新任务只完成了处理异常,这意味着新任务不会延续较长时间,所以,在这个新任务上维持等待对于调用者来说,是可以忍受的。但这个不是最好代方法。

对线程调用Wait方法(或者求Result),因为它会阻滞主线程,并且CLR在后台会新起线程池线程来完成额外的工作。如果要包装异常到主线程,另外一个方法就是使用事件通知的方式:

EventHandlerAggregateExceptionCatched;public class AggregateExceptionArgs:EventArgs{public AggregateException AggregateException{get;set;}}static void Main(string[]args){AggregateExceptionCatched+=EventHandler (Program_AggregateExceptionCatched);Task t=new Task(()=>{try{ throw new InvalidOperationException("任务并行编码中产生的未知异常");}catch(Exception err){  AggregateExceptionArgs errArgs=new AggregateExceptionArgs()  {   AggregateException=new AggregateException(err)};   AggregateExceptionCatched(null,errArgs);  }});t.Start();Console.WriteLine("主线程马上结束");Console.ReadKey();}static void Program_AggregateExceptionCatched(object sender, AggregateExceptionArgs e){ foreach(var item in e.AggregateException.InnerExceptions) {  Console.WriteLine("异常类型:{0}{1}来自:{2}{3}异常内容:{4}",  item.GetType(),Environment.NewLine,item.Source,Environment.NewLine,item.Message); }}

在这个例子中,我们声明了一个委托AggregateExceptionCatchHandler,它接受两个参数,一个是事件的通知者;另一个是事件变量AggregateExceptionArgs。AggregateExceptionArgs是为了包装异常而新建的一个类型。在主线程中,我们为事件AggregateExceptionCatched分配了事件处理方法Program_AggregateExceptionCatched,当任务Task捕获到异常时,代码引发事件。

这种方式完全没有阻滞主线程。如果是在Winform或WPF窗体程序中,要在事件处理方法中处理UI界面,还可以将异常信息交给窗体的线程模型去处理。所以,最终建议大家采用事件通知的模型处理Task中的异常。

注意 任务调度器TaskScheduler提供了这样一个功能,它有一个静态事件用于处理未捕获到的异常。一般不建议这样使用,因为事件回调是在进行垃圾回收的时候才发生的。

16.Parallel中的异常处理

由于Task的Start方法是异步启动的,所以我们需要额外的技术来完成异常处理。Parallel相对来说就要简单很多,因为Parallel的调用者线程会等到所有的任务全部完成后,再继续自己的工作。简单来说,它具有同步的特性,所以,用下面的这段代码就可以实现将并发异常包装到主线程中:

static void Main(string[]args){ try {   var parallelExceptions=new ConcurrentQueue<Exception>();   Parallel.For(0,1,(i)=>  {   try   {    throw new InvalidOperationException("并行任务中出现的异常");   }    catch(Exception e)   {    parallelExceptions.Enqueue(e);   }   if(parallelExceptions.Count>0)   throw new AggregateException(parallelExceptions);   });   }   catch(AggregateException err)   {     foreach(Exception item in err.InnerExceptions)   {     Console.WriteLine("异常类型:{0}{1}来自:{2}{3}异常内容:{4}",item.InnerException.GetType(),Environment.NewLine,item.InnerException.Source, Environment.NewLine,item.InnerException.Message);   }} Console.WriteLine("主线程马上结束");Console.ReadKey();}

在Parallel的异常处理中,我们使用了一个线程安全的泛型集合ConcurrentQueue<T>来处理并发中有可能会遇到的集合线程安全性问题(参考Linq确保集合的线程安全)。

17.并行并不总是速度更快

并行所带来的后台任务及任务的管理,都会带来一定的开销,如果一项工作本来就能很快完成,或者说循环体很小,那么并行的速度也许会比非并行要慢。

static void DoInFor(){  for(int i=0;i<200;i++) {    DoSomething(); }}static void DoInParalleFor(){Parallel.For(0,200,(i)=> {    DoSomething(); });}static void DoSomething(){for(int i=0;i<10;i++) {       i++; }}

将DoSomething方法中的循环体由10变为10000000。运行的结果为:
同步耗时:00:00:01.3059138
并行耗时:00:00:00.6560593

18.在并行方法体中谨慎使用锁

除了上面提到的情况外,要谨慎使用并行的情况还包括:某些本身就需要同步运行的场合,或者需要较长时间锁定共享资源的场合。

在对整型数据进行同步操作时,可以使用静态类Interlocked的Add方法,这就极大地避免了由于进行原子操作长时间锁定某个共享资源所带来的同步性能损耗。

理论上,针对total的加法操作,需要使用一个同步锁,否则就无法避免一次torn read(即两次mov操作所导致的字段内存地址边界对齐问题)。FCL通过提供Interlocked类型解决了这个问题。FCL用来解决简单类型的原子性操作还提供了volatile关键字。FCL现有的原子性操作为我们同步整型数据的时候,带来了性能上的提高。但是,在其他一些场合,我们却不得不考虑因为同步锁带来的损耗。

例如:

static void Main(string[]args){SampleClass sample=new SampleClass();Parallel.For(0,10000000,(i)=> { sample.SimpleAdd(); });Console.WriteLine(sample.SomeCount);}class SampleClass{public long SomeCount{get;private set;}public void SimpleAdd() {  SomeCount++; }}

这段代码的输出或许是:8322580

显然,这与我们的期待输出10000000有很大的差距。为了保证输出正确,必须为并行中的方法体加锁(假设SampleClass是外部提供的API,无权进行源码修改在其内部加锁):

object syncObj=new object();Parallel.For(0,10000000,(i)=>{ lock(syncObj) { sample.SimpleAdd(); }});

经过以上修改后,代码输出就正确了。但是,这段代码也带来了另外的问题。由于锁的存在,系统的开销也增加了,同步带来的线程上下文切换,使我们牺牲了CPU时间与空间性能。简单地说,就是这段代码还不如不用并行。在上面提到过,锁其实就是让多线程变成单线程(因为同时只允许有一个线程访问资源)。所以,我们需要谨慎地对待并行方法中的同步问题。如果方法体的全部内容都需要同步运行,就完全不应该使用并行。

声明:发布此文是出于传递更多知识以供交流学习之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与我们联系,我们将及时更正、删除,谢谢。

作者:天空的湛蓝

来源:https://www.cnblogs.com/zhan520g/p/11083142.html

More:【微信公众号】 u3dnotes

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值