(python)cf火线瞄准红名自动开枪

一. 前言

以下代码只可用于私服,不可商用,代码完全开源,这个应该cf系列第四篇了,目前已经写了ai瞄准,罗技鼠标宏,这篇功能相比前俩个更简单一些,因为代码不多所以就不写类与功能函数了,直接直捣黄龙,我还写了一些辅助脚本,可以用来获取鼠标当前坐标和颜色的,改新的分辨率可以用得上

所需准备:罗技驱动的.dll文件与之对应的罗技驱动版本,链接我放下面了

链接:https://pan.baidu.com/s/1IzudyR8E_uvcmi7zuXSOAg?pwd=6666 
提取码:6666

注意事项:这里游戏内分辨率必须是1280*720,我的位置坐标参数就是根据这个分辨率调整的

二. 代码

2.1 驱动代码

这部分代码主要就是调用.dll文件,用里面封装好的方法,比如移动鼠标,点击鼠标,键盘等等,主要实现的功能就是进行射击操作,也就是自动鼠标点击左键

import ctypes
import os


try:
    # 获取当前绝对路径
    root = os.path.abspath(os.path.dirname(__file__))
    driver = ctypes.CDLL(f'{root}/logitech.driver.dll')
    ok = driver.device_open() == 1  # 该驱动每个进程可打开一个实例
    if not ok:
        print('错误, GHUB驱动没有找到')
except FileNotFoundError:
    print(f'错误, DLL 文件没有找到')



class Logitech:

    class mouse:

        """
        code: 1:左键, 2:中键, 3:右键
        """

        @staticmethod
        def press(code):
            if not ok:
                return
            driver.mouse_down(code)

        @staticmethod
        def release(code):
            if not ok:
                return
            driver.mouse_up(code)

        @staticmethod
        def click(code):
            if not ok:
                return
            driver.mouse_down(code)
            driver.mouse_up(code)

        @staticmethod
        def scroll(a):
            """
            鼠标滚轮
            """
            if not ok:
                return
            driver.scroll(a)

        @staticmethod
        def move(x, y):
            """
            相对移动, 绝对移动需配合 pywin32 的 win32gui 中的 GetCursorPos 计算位置
            pip install pywin32 -i https://pypi.tuna.tsinghua.edu.cn/simple
            x: 水平移动的方向和距离, 正数向右, 负数向左
            y: 垂直移动的方向和距离
            """
            if not ok:
                return
            if x == 0 and y == 0:
                return
            driver.moveR(x, y, True)

    class keyboard:

        """
        键盘按键函数中,传入的参数采用的是键盘按键对应的键码
        code: 'a'-'z':A键-Z键, '0'-'9':0-9
        """

        @staticmethod
        def press(code):

            if not ok:
                return
            driver.key_down(code)

        @staticmethod
        def release(code):
            if not ok:
                return
            driver.key_up(code)

        @staticmethod
        def click(code):
            if not ok:
                return
            driver.key_down(code)
            driver.key_up(code)



class RunLogitechTwo:
    def __init__(self):
        self.log_mouse = Logitech.mouse
        pass

    def quick_move(self):
        # time.sleep(random.randint(1, 3))
        self.log_mouse.click(1)
        # print('hahaha')


2.2 红名识别代码

代码思路:利用mss库的mss()功能函数,进行时对当前屏幕进行截图,设置了字典monitor参数,里面包含左上角坐标,宽高,用来控制截屏的范围,我这里对敌人红名出现的地方中央截取了16个像素,这16个像素中一定会有红色像素格出现,一旦其中一个符合rgb范围要求就跳出循环不执行剩下像素的判断,节省资源也防止一直开枪

for循环部分讲解:俩层for循环就是为了遍历截取的16个像素的RGB值进行判断,第二个for循环的bgr属性(分解的每个像素)是有含4个值的,分别是R,B,G,通透度,我们只取前三个就够了通透度不用管,np.array()会将16个像素值分成二维数组(4*4)类似于矩阵的形状,所以俩层for循环就够了

开枪延迟:这个开枪延迟一定要加上,要不然肯定会过快,进行检测,速度大家自行修改尝试就行了,我这个是喷子的延迟,大炮可以调的更长一些,火线还有个问题就是你可能在瞄准那个人附近的时候就开始出现红名了,所以也要通过设置这个开枪延迟来平衡自动开枪时机

吐槽:你在瞄准敌人的时候,他的名字是渐变的,从暗红色-红色-亮红色-橘色,这个RGB范围让我一顿好找

import logitech_test
from mss import mss
import numpy as np
import time
import random




if __name__ == "__main__":
    # 设置检测区域,这里截取整个屏幕
    monitor = {"top": 405, "left": 635, "width": 4, "height": 4}
    # monitor = {"top": 490, "left": 910, "width": 200, "height": 200}  # 反人类的设计,正常左上,他上左
    obj = logitech_test.RunLogitechTwo()
    # 设置目标颜色(示例:红色)
    target_color = np.array([163, 57, 49])  # RGB颜色值
    # 创建截屏对象
    sct = mss()
    while True:
        flag=False
        # 获取屏幕截图
        screen_shot = sct.grab(monitor)
        # 展示
        scr_img = np.array(screen_shot)

        for each_pic in scr_img:
            for bgr in each_pic:
                b, g, r = bgr[:3]
                # rgb参数145,245,47,80,20,57
                if r >= 140 and r <= 245 and g >= 45 and g <= 80 and b >= 20 and b <= 60:
                    time.sleep(random.randint(2, 5) * 0.01)
                    obj.quick_move()
                    flag = True
                    break
            if flag:
                break

三. 辅助工具

下面的脚本是用来时时获取鼠标当前位置的坐标x,y和rgb值的,用于改分辨率时候算参数用的

import pyautogui
from PIL import Image


def test_b():
    # obj = RunLogitechTwo()
    # 默认屏幕为1280 * 720,屏幕中心位置如下
    # x = 640   # 1.18
    # y = 360   # 32.66666
    # 屏幕检测区域
    # region_to_check = (590, 310, 690, 430)
    # x = 636
    # y = 410
    while True:
        x, y = pyautogui.position()  # 获取鼠标当前位置

        # region = (600, 400, 80, 20)
        im = pyautogui.screenshot()  # 返回屏幕的截图,是一个Pillow的image对象

        r,g,b = im.getpixel((x,y))
        print("x:", x, "y:", y, "r:", r,"-g:", g,"-b:", b)


        # img = Image.new('RGB', (300, 300), im.getpixel((x, y)))  # 用获取的颜色创建一张图片
        # img.show()  # 展示当前图片


if __name__ == '__main__':
    test_b()

四. 成品展示

因为有人建议我将这个集成为一个app更好一些,代码不算很多,就抽时间集成了一下,图片如下

这里我给了几个参数可修改

游戏分辨率:因为有的人可能改了分辨率就不会找位置了,所以我加了这个参数,会自适应找到位置,也可以点击计算面积获得比较适合当前分辨率的红名面积 

红名面积:也就是扫描的范围,这个如果你电脑配置不错,你可以开大点,但是一般计算面积自适应的就够用了

开火反应速率:这个用来控制你秒到红名之后,开枪之前的间隔,过快可能会进小黑屋1小时冷静一下,玩JU的话我建议7-10就行,因为火线的机制是秒到人身体附近就会出现红名了,所以你在玩JU架点的时候可能会有人慢慢蹭出来,这样你先瞄到的就是空气了,所以适当加一些延迟,其他步枪和喷子就默认就行了,不需要考虑这个

最后,对此有兴趣或疑问的可以发我邮箱信息,看到会回复的

五. 总结

重要的事情多说一遍,如果你想用我这个代码,游戏内分辨率一定要调整为1280*720,因为我取像素位置就是根据这个分辨率来的,如果你想用别的分辨率自己重新计算一下就行了,也不难,重新找一下新分辨率下的红名出现坐标位置,如果你找不到新的分辨率红名坐标位置,我建议你可以把电脑分辨率调整为和游戏一样的分辨率,然后在游戏中截屏,将截屏的照片设为全屏,再开启辅助工具取坐标和rgb,这样就能准确得知了(我就是这样做的)

最后,如果还有什么不懂的或者困难或者改进也可以邮箱联系我一起进步,874302104@qq.com

  • 39
    点赞
  • 111
    收藏
    觉得还不错? 一键收藏
  • 52
    评论
要使用YOLOv5实现实时自动瞄准功能,您可以按照以下步骤进行操作: 1. 安装必要的依赖库: ```shell pip install opencv-python pip install torch torchvision pip install yolov5 ``` 2. 下载YOLOv5权重文件: 您可以从YOLOv5的GitHub仓库(https://github.com/ultralytics/yolov5)下载预训练的权重文件,并将其保存在与您的Python脚本相同的目录下。 3. 编写Python脚本: ```python import cv2 import torch import numpy as np from yolov5.models.experimental import attempt_load from yolov5.utils.general import non_max_suppression, scale_coords def auto_aim(image): # 加载YOLOv5模型 weights = 'yolov5s.pt' # 根据您下载的权重文件进行更改 model = attempt_load(weights, map_location=torch.device('cpu')) model.eval() # 图像预处理 img = letterbox(image, new_shape=640)[0] img = img[:, :, ::-1].transpose(2, 0, 1) # BGR to RGB img = np.ascontiguousarray(img) img = torch.from_numpy(img).unsqueeze(0) img /= 255.0 # 目标检测 with torch.no_grad(): outputs = model(img) outputs = non_max_suppression(outputs, conf_thres=0.3, iou_thres=0.5) # 解析检测结果 if outputs[0] is not None: detections = outputs[0] detections[:, :4] = scale_coords(img.shape[2:], detections[:, :4], image.shape).round() # 取第一个检测结果的中心坐标 x_center = (detections[0][0] + detections[0][2]) / 2 y_center = (detections[0][1] + detections[0][3]) / 2 # 返回中心坐标 return int(x_center), int(y_center) return None def main(): # 打开摄像头 cap = cv2.VideoCapture(0) while True: # 读取视频帧 ret, frame = cap.read() # 自动瞄准 target = auto_aim(frame) if target is not None: x, y = target print(f"自动瞄准目标坐标:({x}, {y})") # 在图像上绘制目标点 cv2.circle(frame, (x, y), 5, (0, 255, 0), -1) # 显示图像 cv2.imshow("Frame", frame) # 按下q键退出循环 if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放摄像头并关闭窗口 cap.release() cv2.destroyAllWindows() if __name__ == "__main__": main() ``` 在上述代码中,我们使用OpenCV打开了摄像头,并读取实时视频帧。然后,我们对每一帧图像进行自动瞄准,获取目标的中心坐标,并在图像上绘制目标点。最后,我们通过按下`q`键来退出循环,释放摄像头并关闭窗口。 请注意,您需要将代码中的`yolov5s.pt`替换为您下载的YOLOv5权重文件的路径。另外,您可能需要根据您的实际情况调整模型权重文件和阈值参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 52
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值