- 博客(33)
 - 收藏
 - 关注
 
原创 以yolov12为例的数据集标注及训练
1.在当前yolov12终端下 pip install labelimg ,下载标注工具2.终端输入 labelimg ,启动标注工具3.在 view 里面勾选 "auto save model"4.点击左侧open dir 选择需要标注的图片目录 如"F:\yolov12-main\yolov12-main\yolotest\images"
          2025-10-27 09:53:14
          
422
        
原创 为什么需要Reactor?
你可能会有想,既然epoll+send/recv不能存储状态,那我给fd也定义成一个结构体不就可以了吗?既然epoll+send/recv不能保存分片数据,那我把分片数据拼接存储到fd结构体中buffer不就可以了吗?既然代码扩展性差那我把各事件对应处理的函数封装不就可以了吗?那是不是已经在用Reactor的思想了。
          2025-07-18 00:07:26
          
460
        
原创 Linux c/c++网络编程
都需要socket连接网络,而socket编程中,有两类核心结构体用于存储网络地址信息,都包含在头文件#include <sys/socket.h>下:起源:早期Socket API设计需统一接口(sockaddr),后来为IPv4新增专用结构(特点:一般不直接使用,通常作为函数参数类型(如bind()connect()),sa_data是二进制数据,需强制转换为具体地址结构体(如特点:提供明确的字段(sin_portsin_addr),比sockaddr更易用。
          2025-07-13 09:39:04
          
714
        
原创 Linux c/c++环境编程
本文摘要: 第三章对比了互斥锁、自旋锁和原子操作的区别,重点介绍了CAS原子操作的实现原理和应用场景,并提供了互斥锁的代码示例。 第四章详细讲解了线程池的实现,包括任务队列管理、线程创建与任务执行流程,通过代码展示了线程池的初始化、任务分配和执行过程。 第五章探讨了MySQL数据库操作,包括图片存储的实现方法,对比了普通数据插入与BLOB类型数据处理的差异,提出了关于数据库连接池的设计思考。文章通过具体代码示例演示了从磁盘读取图片、写入数据库以及反向操作的完整流程,并分析了相关技术难点。
          2025-07-06 14:41:51
          
923
        
原创 Linux c/c++基础编程
本文介绍了Shell编程基础语法和Linux环境下的简单编程实践。Shell部分包括变量定义、字符串操作、数组使用、参数传递、条件判断等核心语法,并提供了局域网IP扫描和获取本机IP两个实用脚本示例。编程实践部分包含三个C/C++编程练习:1)统计文件单词数,处理特殊字符和换行情况;2)使用map统计单词频率;3)实现通讯录管理系统,重点讲解了指针操作、链表管理和文件读写功能,解决了指针传递和内存管理的常见问题。每个练习都包含详细代码和关键问题解析,展示了从基础脚本到系统编程的完整过程。
          2025-07-06 14:34:11
          
542
        
原创 力扣刷题-mid
两数相加 - 力扣(LeetCode) 学到了: (1)翻转链表的更简单写法,直接改变节点间的指针方向就可以(本题不用) (2)创建一个空链表,然后增加节点: 错误原因分析:在创建新节点加入链表前,给节点的信息都赋好,然后直接h->next = tmp加入,避免直接加入后再赋信息。无重复字符的最长子串 - 力扣(LeetCode) 想复杂了,以为要每个邻近区间端点讨论。实际上是对滑动窗口的不熟悉。最长回文子串 -
          2025-06-22 19:36:19
          
762
        
原创 WebCrawler第四章 多线程爬取
对于爬取多页的数据,可以在一个子函数中写好对单页的爬取,然后在主函数中调用线程池,给线程池分配任务实现多线程对多页的爬取。(但结果会是乱序的)小试牛刀:(线程池)
          2025-01-12 23:09:32
          
214
        
原创 WebCrawler第三章 处理cookie与防盗链
2,登录过程中使用抓包工具(浏览器自带),在登录的时候查看与浏览器交互的包,找到login,查看里面的内容,获取(1)登录需要的账户密码的字段 (2)登录的url。注:虽然代码没有明显的写cookie,但是其实会话session调用post发送data后,session中就有cookie了,可以通过print(resp.cookies)查看cookie。背景:访问小说网读出我的书架的书。需要登录后才能访问数据,所以要先登录得到cookie,再带着cookie去请求书架的url才会得到书架的内容。
          2025-01-12 21:26:38
          
656
        
原创 WebCrawler第二章 数据提取
* 贪婪匹配 a.*b->ababab。惰性匹配 a.*?[...] 匹配中括号内的所有字符。. 匹配除换行符以外的任意字符。\w 匹配字母或数字或下划线。\d+ 匹配尽可能多的数字。{n} 量词,重复n次。^ 匹配字符串的开始。$ 匹配字符串的结束。\d 匹配数字。
          2025-01-10 22:43:16
          
330
        
原创 WebCrawler第一章 暴力爬取
在网址上直接输入内容都是get方法,注意带上请求头中的user-Agent值(可从浏览器页面中获取)发送post请求,要发送的数据必须通过data参数进行传递。其中json是易于阅读和编写的一种数据交换格式,展现出来的就不会是乱码。2.requests包下的post。1.requests包下的get。
          2025-01-10 15:40:57
          
260
        
原创 Python基础语法
with open(".\data.txt", "w" ,encoding = "utf-8") as f: #" w "为覆盖写,只是会覆盖之前这个文件里的内容,而每次利用f.write()进去的内容都会保留。with open(".\data.txt", "r+" ,encoding = "utf-8") as f: #" r+ "为读写,支持read与write(续写)staff_dict = {"001":"张三", "002":"李四", "003":"王五"}
          2025-01-09 11:58:56
          
1027
        
        
      
空空如也
        
      
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1