- 博客(8)
- 收藏
- 关注
原创 创建图形用户界面
例如Swing中的JTable、JTree等控件在AWT中就没有。,依靠操作系统原生的 GUI 组件来实现显示和交互功能;,不依赖操作系统的原生组件。
2025-07-06 19:03:52
269
原创 CSS选择器相关知识
由于元素的id是唯一的,所以CSS ID选择器用于唯一地选取某个元素,运用时选择器要以#+id的形式书写(注意ID不能以数字开头)这个选择器可以选择页面上的所有元素,但由于通用选择器的优先级是最低的,所以会有一部分文字保持原状,不改变。“通用”指“所有”,“兄弟”指“同级元素”,通用兄弟选择器用于匹配属于指定元素的同级元素的所有元素。这里选取<div>元素子元素的所有<p>标签(不包括<section>标签中的)这里选取了div元素的所有p子元素(包括<section>标签内的<p>元素)
2025-06-30 18:32:12
222
原创 HTML标签相关基础知识
我们可以在vscode中创建一个html文件,在里面输入感叹号,即可自动生成一个HTML文件的模板,现在我们依次来看各标签表示什么含义。我们所看到的任何网页,都是Web服务器读取HTML文档之后,对标记标签进行解析,将内容展现在我们眼前的。列表标签分为有序列表标签(<ol></ol>)和无序列表标签(<ul></ul>)这里的en、zh分别指的是语言代码英语和中文,而后面的US、CN等指的是区域。(1)标题标签<h1></h1>——<h6></h6><body>标签中的正文文本用<p></p>标签表示。
2025-06-27 22:54:27
228
原创 用scrapy实现爬虫(以豆瓣电影数据为例)
4)Spider(蜘蛛):用于提取数据和产生新的请求,解析Downloader返回的响应,比如可以用XPath、CSS选择器选择需要的内容,同时将新的url封装成Request返回给Scrapy Engine,等待下一轮爬取。需要用户自己编写配置代码。2)Scheduler(调度器):对所有请求进行调度管理,对Scrapy Engine发来的request请求按规则清理、排序,等Scrapy Engine需要时再传给Scrapy Engine,避免请求的重复和混乱。Spider这是Scrapy爬虫的出口。
2025-06-12 01:04:48
579
原创 如何将爬取到的数据存储(以爬取豆瓣电影数据为例)
这就是open(file,mode='r',buffering=-1,encoding=None,newline=None)中newline的作用,Windows系统默认用\r\n作换行符,而此时我们的代码。但其实python中的csv模块也会自动执行\n换行,导致出现\r\n\n的双重换行,这时只要把newline=' '写上,告诉python不要自动转换换行符就可以啦!'ignore'——'忽略错误',跳过无法解码的字符。一般有默认'None'——读取时将\r\n和\r自动转换为\n;
2025-06-10 15:28:27
235
原创 如何使用BeautifulSoup库和Requests库实现网页对应内容的抓取(以豆瓣网为例)
每个tag标签都有name和attrs属性,name就是标签的名字,attrs是标签的属性,网页源代码中的class、data-dstat-areaid等都是标签的属性,且以字典的形式呈现。首先打开并登录豆瓣网页,点击豆瓣电影,鼠标移到电影画面上->右击->检查,会出现网页元素的源代码,展开<div class="screening-hd">这一栏,会发现一个写着"正在热映"的<h2>标签,那么从这个标签以后的内容都是相关的电影信息。例如find_all('li'),会呈现出所有的<li>标签内容。
2025-06-10 01:33:50
295
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人