在CALayer中有一个很重要的概念,就是锚点,锚点是针对CALayer来说的,锚点到底是什么呢?让我们看看锚点到底是什么?一下都是针对CALayer来说的。
首先我们先说一下什么CALayer,CALayer就是一个图层,可以让我们看见的东西,但是他不具有事件,为了让我们既能看得见又能操作,所以就在继承UIResponder来扩展了一个CALayer,这就是UIView,所以UIView有一个CALayer的原因,我们用的button和UIIimageView,UILabel等等很多控件都是继承UIView的,这样我们看得见又有事件,说白了就是在事件上加了一层图层,当我们多动一个控件的时候,仅仅改变控件的center是不行的,同时我们需要改变这个控件的layer的锚点。
有了一上的了解,我们来说说锚点。
我们在xib中拖一个UIImageView,而UIImageView的位置时从父视图的左上角0,0点开始计算的,但是UIImageView的center的计算是从父视图左上角0,0点开始的,
UIImageView的锚点是针对layer来说的,锚点是相对于UIImageView自身的,也是position所指的位置,默认就是(0.5,0.5),就是UIImageView自己的中心,以锚点为参考点,相对父视图的位置就是center,因为是(0.5,0.5)嘛,当我们点击图片时,我们点击的在UIImageView上的位置和UIImageView自身大小相比的值,让这个值作为锚点的位置,改变这个位置可以在拖动、缩放等操作时,不会出现闪跳的现象,原因就是锚点变了,锚点变了,原来的UIImageView的Center也要改变,记住center是相对父视图的,要从父视图中拿。让相对父视图的center和相对自身的锚点重合,就完成了。简单的说锚点就是UIImageView在父视图中位置计算的参考点,以这个点来计算UIImageView在父视图中的位置。
下边的代码是:当拖动或者是缩放一个图片时,对锚点的重新设定。之后再去改变位置
- (void)adjustAnchorPointForGestureRecognizer:(UIGestureRecognizer *)gestureRecognizer
{
//UIGestureRecognizerStateBegan意味着手势已经被识别
if (gestureRecognizer.state ==UIGestureRecognizerStateBegan)
{
//手势发生在哪个view上
UIView *piece = gestureRecognizer.view;
//获得当前手势在view上的位置。
CGPoint locationInView = [gestureRecognizerlocationInView:piece];
piece.layer.anchorPoint =CGPointMake(locationInView.x / piece.bounds.size.width, locationInView.y / piece.bounds.size.height);
//根据在view上的位置设置锚点。
//防止设置完锚点过后,view的位置发生变化,相当于把view的位置重新定位到原来的位置上。
CGPoint locationInSuperview = [gestureRecognizerlocationInView:piece.superview];
piece.center = locationInSuperview;
}
}
//缩放事件
- (void)scalePiece:(UIPinchGestureRecognizer *)gestureRecognizer
{
[selfadjustAnchorPointForGestureRecognizer:gestureRecognizer];
if ([gestureRecognizerstate] ==UIGestureRecognizerStateBegan || [gestureRecognizerstate] ==UIGestureRecognizerStateChanged)
{
[gestureRecognizer view].transform =CGAffineTransformScale([[gestureRecognizerview]transform], [gestureRecognizerscale], [gestureRecognizerscale]);
[gestureRecognizer setScale:1];
}
}