android 图片放大缩小

@Override
 public void onCreate(Bundle savedInstanceState) {
  super.onCreate(savedInstanceState);
  setContentView(R.layout.main);
  imageView = (ImageView) this.findViewById(R.id.imageView);
  imageView.setOnTouchListener(new TouchListener());
 }

 private final class TouchListener implements OnTouchListener {
  /** 记录是拖拉照片模式还是放大缩小照片模式 */
  private int mode = 0;// 初始状态
  /** 拖拉照片模式 */
  private static final int MODE_DRAG = 1;
  /** 放大缩小照片模式 */
  private static final int MODE_ZOOM = 2;
  /** 用于记录开始时候的坐标位置 */
  private PointF startPoint = new PointF();
  /** 用于记录拖拉图片移动的坐标位置 */
  private Matrix matrix = new Matrix();
  /** 用于记录图片要进行拖拉时候的坐标位置 */
  private Matrix currentMatrix = new Matrix();
  /** 两个手指的开始距离 */
  private float startDis;
  /** 两个手指的中间点 */
  private PointF midPoint;

  @Override
  public boolean onTouch(View v, MotionEvent event) {
   /** 通过与运算保留最后八位 MotionEvent.ACTION_MASK = 255 */
   switch (event.getAction() & MotionEvent.ACTION_MASK) {
   // 手指压下屏幕
   case MotionEvent.ACTION_DOWN:
    mode = MODE_DRAG;
    // 记录ImageView当前的移动位置
    currentMatrix.set(imageView.getImageMatrix());
    startPoint.set(event.getX(), event.getY());
    break;
   // 手指在屏幕上移动,改事件会被不断触发
   case MotionEvent.ACTION_MOVE:
    // 拖拉图片
    if (mode == MODE_DRAG) {
     float dx = event.getX() - startPoint.x;
     // 得到x轴的移动距离
     float dy = event.getY() - startPoint.y;
     // 得到x轴的移动距离
     // 在没有移动之前的位置上进行移动
     matrix.set(currentMatrix);
     matrix.postTranslate(dx, dy);
    }
    // 放大缩小图片
    else if (mode == MODE_ZOOM) {
     float endDis = distance(event);
     // 结束距离
     if (endDis > 10f) {
      // 两个手指并拢在一起的时候像素大于10
      float scale = endDis / startDis;// 得到缩放倍数
      matrix.set(currentMatrix);
      matrix.postScale(scale, scale, midPoint.x, midPoint.y);
     }
    }
    break;
   // 手指离开屏幕
   case MotionEvent.ACTION_UP:
    // 当触点离开屏幕,但是屏幕上还有触点(手指)
   case MotionEvent.ACTION_POINTER_UP:
    mode = 0;
    break;
   // 当屏幕上已经有触点(手指),再有一个触点压下屏幕
   case MotionEvent.ACTION_POINTER_DOWN:
    mode = MODE_ZOOM;
    /** 计算两个手指间的距离 */
    startDis = distance(event);
    /** 计算两个手指间的中间点 */
    if (startDis > 10f) {
     // 两个手指并拢在一起的时候像素大于10
     midPoint = mid(event);
     // 记录当前ImageView的缩放倍数
     currentMatrix.set(imageView.getImageMatrix());
    }
    break;
   }
   imageView.setImageMatrix(matrix);
   return true;
  }

  /** 计算两个手指间的距离 */
  private float distance(MotionEvent event) {
   float dx = event.getX(1) - event.getX(0);
   float dy = event.getY(1) - event.getY(0);
   /** 使用勾股定理返回两点之间的距离 */
   return FloatMath.sqrt(dx * dx + dy * dy);
  }

  /** 计算两个手指间的中间点 */
  private PointF mid(MotionEvent event) {
   float midX = (event.getX(1) + event.getX(0)) / 2;
   float midY = (event.getY(1) + event.getY(0)) / 2;
   return new PointF(midX, midY);
  }
 }

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
目标检测(Object Detection)是计算机视觉领域的一个核心问题,其主要任务是找出图像中所有感兴趣的目标(物体),并确定它们的类别和位置。以下是对目标检测的详细阐述: 一、基本概念 目标检测的任务是解决“在哪里?是什么?”的问题,即定位出图像中目标的位置并识别出目标的类别。由于各类物体具有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具挑战性的任务之一。 二、核心问题 目标检测涉及以下几个核心问题: 分类问题:判断图像中的目标属于哪个类别。 定位问题:确定目标在图像中的具体位置。 大小问题:目标可能具有不同的大小。 形状问题:目标可能具有不同的形状。 三、算法分类 基于深度学习的目标检测算法主要分为两大类: Two-stage算法:先进行区域生成(Region Proposal),生成有可能包含待检物体的预选框(Region Proposal),再通过卷积神经网络进行样本分类。常见的Two-stage算法包括R-CNN、Fast R-CNN、Faster R-CNN等。 One-stage算法:不用生成区域提议,直接在网络中提取特征来预测物体分类和位置。常见的One-stage算法包括YOLO系列(YOLOv1、YOLOv2、YOLOv3、YOLOv4、YOLOv5等)、SSD和RetinaNet等。 四、算法原理 以YOLO系列为例,YOLO将目标检测视为回归问题,将输入图像一次性划分为多个区域,直接在输出层预测边界框和类别概率。YOLO采用卷积网络来提取特征,使用全连接层来得到预测值。其网络结构通常包含多个卷积层和全连接层,通过卷积层提取图像特征,通过全连接层输出预测结果。 五、应用领域 目标检测技术已经广泛应用于各个领域,为人们的生活带来了极大的便利。以下是一些主要的应用领域: 安全监控:在商场、银行
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值