自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 百度非验证站点多线程代理ip提交软件增加收录

前面的文章已经对百度协议、旋转打码都做了逆向破解,通过协议接口和本地模型打码就可以完成网址提交。再也不需要通过百度资源平台去提交了。极大的增加了提交数量,这样蜘蛛抓取量和收录量也会相应提高。这次做了一个软件界面,也封装了软件,这样在日常挂机运行就会更方便了。如下图软件界面形式软件界面设置了线程数量,可以自由选择线程数量,可以提高运行的速度。以及代理ip的设置,需要设置代理端口、代理账号和代理密码。用的是请求隧道代理。这样每次请求百度的提交接口链接,都是不同的ip。保证了提交链接都是在不同的ip进行提交,模拟

2024-04-12 11:19:14 426

原创 批量百度移动下拉词和相关搜索词挖掘

打开百度移动首页,输入关键词后,会自动出来下拉词,这部分下拉词就是需要获取的,打开f12调试工具,可以很简单的看到这是异步加载的关键词,拿到请求地址,在代码进行请求代入参数,就会获得同样的关键词结果了。这部分下拉词抓取还是比较简单的。打开百度移动网页,会发现我们输入的关键词,然后会出现下拉词已经进入搜索页后会出现相关搜索词,这两部分的关键词也是非常有用的。接入逆向验证码后,逆向旋转后,就会获取到cookies值,拿到cookies中的kleck值就行了,那么接下来的请求就不会再出现验证码了。

2024-04-15 14:55:13 259

原创 AI批量多线程chatgpt生成软件,本地或数据库保存

在前面文章中,已经做了ai智能写作软件的介绍。此次再进行软件界面的封装,使得运行起来更加方便。这样对有需要的用户可以选择本地txt保存,还可以选择数据库保存方式进行保存。在运行过程中,软件就会自动开始生成内容了。并按照所选择的保存方式进行数据保存。如果选择txt保存那么就会在对应的文件夹中生成txt。如果选择mysql数据库保存的方式,在设置好数据库连接信息,就可以将数据保存到远程数据库中。目前软件已经封装成软件包了,可以在本地运行了。从软件界面可以看出,日志框显示的是运行过程。添加关键词一行一个。

2024-04-15 09:40:11 252

原创 API批量添加SEM关键词软件,这效率就快很多了

总结:通过API提交添加SEM关键词的方式,可以省去操作excel表格、省去批量分类,过滤这一过程。需要必须包含的关键词,放到一个txt中,同义词:比如企业、公司是同义词,放在同一行。这样,我们只需要批量挖掘关键词之后,直接把关键词复制粘贴到txt中,直接去运行代码就行。既然会点代码,那么我们在做SEO优化效率的同时,工作也搞搞SEM效率,都是非常实用。需要批量过滤删除的关键词,可以放到一个txt中,然后代码可以循环过滤删除。在百度推广网页中,就可以看到已经批量进行过滤、包含的分类之后的关键词了。

2024-04-12 16:02:56 268

原创 多key批量多线程AI软件,本地生产SEO文章

程序就会自动通过这个关键词生成有一个标题,再通过标题生成一篇文章。3、标题,内容杂乱的词语进行过滤。4、多线程并发运行。标题中需要过滤的词进行过滤。过滤词有:探索、关于、探秘、解密、解读、解决方案等等过滤词。如果对其他过滤词,可以在title过滤词.txt中添加(一行一个)文章中需要过滤的词进行过滤。过滤词有:首先、其次、总结、再次、总而言之、总的来说等等过滤词。如果对其他过滤词,可以在art过滤词.txt中添加(一行一个)软件可以放置多个key,这样可以保证一个key次数限制了,可以轮循下一个key。

2024-04-09 11:19:07 301 1

原创 百度协议非验证站点批量提交软件,非模拟

百度协议非验证站点批量提交软件,是通过逆向百度接口进行提交,并不是模拟浏览器提交。做这款软件核心在于要先逆向百度的提交接口代码。和真实的人工提交响应数据要一致。准备好大量的url放入txt中,其次就是批量的ck放入txt中,还有打码(这里接入的是云码),软件提交过程中,会遇到百度反爬机制,还需要准备一下隧道代理进行请求即可。machine:机器码 打码:本地模型打码 tunnel:隧道代理端口 ipusername:代理ip账号 ippassword:代理ip密码。

2024-04-08 17:11:08 372 1

原创 摆渡非站点链接批量多线程协议提交

百度有三种提交方式sitemap地图提交,主动推送还有非站点链接提交。而非站点链接提交,就是在站长平台提交非站点绑定的链接,可以提交网站的内页链接,有助于促进蜘蛛的抓取。

2023-10-27 09:43:36 203

原创 百度二级域名批量绑定软件,绕过验证码错误机制

而且综合了文件验证码和验证方式,通过输入站长账号密码后,手机或邮件收到验证码,再输入验证码即可自动获取cookie,此cookie是代码内置,不需要再手动复制cookie了。在软件界面中,这里我们输入完相关信息后,在用软件自动运行的时候,会出现和以上图片相同的验证码错误信息,那么就需要通过换ip处理了。如果手动过旋转后,可能会出现一下的信息,即使旋转验证码正确了,也同样会出现一下验证码错误信息,这个是行为问题和本地ip限制问题,那么需要解决这两个问题。域名换成自己泛解析好的域名,然后访问一下。

2023-02-20 12:06:22 1071

原创 自然语言关键词生成文章API接口请求

首先是逻辑原理,原理就是人工智能深度学习,进行关键词的模型训练。这次主要对平台的接口进行转接,也就是调用我生成的接口。本次主要介绍通过自然语言将关键词生成一篇原创文章,以及制作文章生成的接口api,方便需要生产内容的用户进行调用。这样我们就能很轻松就能很轻松的生成一篇原创文章了,这在日后建站,做自媒体素材方面也有着一定作用,可以做到内容方面的积累。个人接口还是继续用flask进行生成,在flask中主要对接文章生成函数,通过接口地址请求,将文章生成出来。再平台调用的文章后,再对文章进行二次处理。

2022-09-23 16:44:50 689

原创 seo快排可视化界面封装,一键运行。

在之前有段时间,写了一款模拟操作点击优化的快排工具,由于是代码的显示,在使用上可能比较费劲,要安装python环境和包,还要安装数据库。这次将这些统统封装,并做成可视化界面。让运行任务更加便利。..................

2022-07-15 22:07:26 643 1

原创 python模拟seo快排vps点击代码实操

本期主要是介绍一下利用vps拨号的方法去运行用户点击行为,俗称seo模拟快排,那么顾名思义,快排的运行方式需要在一台拨号服务器上进行,本次模拟快排的代码是采用python中的pyppeteer库,这个库运行自动化浏览器,比较顺畅且快速。运行逻辑每次运行一次点击后,自动重新拨号一次,然后再重新打开浏览器进行下一个关键词的运行点击,关键词使用数据库轮询方式,每次点击一个关键词后,自动切换下一个关键词12345678910111213141516171819202122

2022-07-05 22:36:35 1136

原创 搜狗主动提交url并反馈快照更新软件(含源码)

本期为了满足用户的需求,特地的做了一款末so狗主动提交url以及提交快照更新软件,在做软件前,首先在python源码中,需要保证代码的运行流畅,然后才可以设计软件,在软件界面上进行任务的提交。一、主动提交某so狗的主动提交需要账号密码登录,然后再进行post请求,那么自然而然需要保持cookie一致或者session会话一直,这里用到session会比较方便。1、请求验证码验证码的源码是svg标签格式,需要通过对svg转成验证码图片,然后才能进行识别,这里识别用到了第三方打码平台,其实有免费的库可以识别或者

2022-07-05 22:33:55 1064

原创 seo模拟快排浏览器指纹进行识别过滤

用程序控制的浏览器进行模拟人工操作时,可能会被对方识别到对应的浏览器的特征,认为我们运行的模拟浏览器是程序控制,从而出现验证码等反爬虫措施。那么修改浏览

2022-06-22 08:32:02 481

原创 seo模拟快排源码--pyppeteer库运用

常见大多数用python写seo模拟快排都会用到selenium库,而python的pyppeteer类似selenium,但是运行效率和稳定性比selenium要好点,而且不需要安装浏览器驱动,直接安装这个库就可以自动浏览器给安装好。这次用pyppeteer来写一下seo模拟快排。首先说一下seo模拟快排原理,主要是模拟常规的关键词搜索和站内搜索两种,在代码中需要对浏览器进行设置,包括驱动伪造,浏览器user-agent随机更换,浏览器cookie随机更换,随机ip,随机tn来源,随机浏览器分辨率等,

2022-04-21 14:45:49 994

原创 装饰器函数监控任务的超时响应,让任务稳定运行

有时我们在写代码是,利用python的请求库请求数据时,会有响应超时或者响应持续没反应的状态,对于这种状态需要进行监控,比如定时监控,超过设置的时间了,就返回默认数据,进行标识。这次用线程类和全局变量的方式,进行超时响应,下面对这两个方法进行举例:一、线程类定义线程函数线程类函数,相当于多线程的方式,多线程是不能返回值的,而线程类可以获取返回值,所以有线程需求的任务,可以用线程类的方式。装饰器函数装饰器部分设置子线程的方法。子线程随着主线程的退出而退出,所以主线程超时了,就会触发

2022-04-15 19:06:06 230

原创 seo快排源码优化网站的目标关键词

现在关键词在百度上排名越来越难了,这其中百度对自家产品的支持和一些高权重网站平台的优先展示,导致我们这些小众网站很难在用户的第一视线,想要在第一视线自然是要关键词的排名优化到首页。关键词的排名优化应该是离不开用户点击的,用户点击是关键词排名的因素之一,在这方面,淡墨做了一个模拟快排点击,注意是模拟点击,不是发包。模拟点击的意图不仅优化了网站,也可以帮助我们检查网站打开情况。模拟快排分为两类,selenium版本和pyppeteer版本。》》》商城入口:store.danmoln.comsel..

2022-03-04 12:55:46 586

原创 实际运用~通过信号传递的方式监控程序运行kill进程

在运用selenium调用浏览器进行自动化运行或者爬虫采集,发现了一个问题,就是浏览器在启动运行后再关闭退出,这中间有时程序突然卡顿,一直停滞不前,这其中的卡顿问题,可能是更换ip时出现偶尔性反应延迟,导致程序卡顿,如果代码运行基本没问题,想要持续运行,就需要对程序进行监控。对于这种情况,我的一个想法就是通过信号传递的方式,获取进程pid的持续时间,从而判断selenium自动化运行时是否卡顿。首先用案例测试一下selenium运行文件在test2.py文件中,打开了谷歌浏览器,并获取驱动的

2022-01-17 16:59:26 524

原创 pyppeteer爬取某VX公众号并将保存为pdf浏览

今天向测试一下爬取一下我vx公众号的文章,并将公众号的文章保存为本地pdf,这一路曲曲折折,遇到一点小麻烦。最初的思路是用requests请求去获取网页源码,再通过pdfkit转换工具将网页转换为pdf,但是在实际请求VX页面时,没有正确响应。于是想到了pyppeteer可以模拟浏览器抓取,而且还有pdf方法自动转换pdf文件。一、目标公众号首先选择自己要爬取的公众号文章界面,这里我选择我的公众号界面文章作为爬取首页二、抓包这里用fiddler进行简单的抓包,拿到浏览器登录微

2021-11-18 17:37:28 319

原创 seo好用的查询收录工具有哪些

我们在做seo的时候,发布文章肯定会查询文章的收录情况,这关乎seo的业绩指标,今天做了一款查询收录的工具,用于查询网站文章url的情况,下面简单介绍一下工具使用界面首先在桌面打开程序:打开界面后,可以看到导入文件和开始查询按钮,我们按提示进行导入然后,点击开始查询,等待一段时间(注:如果查询的url数量多,时间较长,有一定的卡顿,一直等待就可以)可以看到已经查询完成,接下来我们全选复制粘贴 就可以保存到表格或文本框中那么这个简单的工具是如何实现的呢?当然核心是p...

2021-11-16 17:18:07 723

原创 图形界面测试文章伪原创的效果

在上一篇文章中,已经了解了百度的翻译机制,接下来我们可以整篇文章放进图形界面中测试一下通过翻译伪原创的效果。一、打开图形界面能力有限,简单的图形界面进行内容测试,首先获取token或cookies,这里每个人的token和cookies都不一样,自己手动获取一下就行了,然后就不用动了。二、内容测试在我个人网站上,复制一篇文章,将内容先通过排版工具去除图片标签,然后将纯文本粘贴到原文文本框中。三、查询飘红情况现在百度上,复制粘贴待伪原创的前100个字符进行搜索,查看

2021-11-16 17:15:13 409

原创 python一键发seo文章真方便

我们常规发文章肯定是登录网站后台,然后在文章编辑框中进行文章的发布。但是这种人为的机械操作,时间长了,感觉还是烦躁,又是登录的,又是点击的。如果用python去获取后台登录和发布接口,再加上将文章本地编辑好,放入数据库,通过数据库将文章自动发布网站中,这样一来,只需要一键运行,就可以将文章发布出去了。接下来淡墨流年pyseo将一步一步的进行python操作。一、获取登录接口这里我们先模拟登录一下,获取登录的url地址,以及请求方式是get还是post。然后就是账号和密码这些参数了。很

2021-11-02 13:31:32 411

原创 再也不用担心seo标题相似度过高了

我们在做seo原创文章的时候,标题的原创同样是非常重要,这是百度是否收录的关键因素,原创标题的目的一是增加标题的吸引力,二是标题在百度搜索展示中没有相似度过高的标题。今天我们用python简易做一个查百度展现的标题与自己的标题的相似度,从而判断标题是否要修改。一、目标标题在文本中,放入我们事先准备好的标题。这次以我本网站的标题做一个简单的测试,比如测试“今日分享:如何用python进行seo文章发布”二、百度展现标题用测试的标题在百度上搜索结果,查询到百度首页展示的标题,我们用p

2021-11-01 13:55:55 198

原创 异步抓取网站url最后生成sitemap很好用

作为seoer,在优化网站的时候,肯定离不开对百度站长平台上的监控,而在百度站长平台有一个sitemap文件,可以批量将网站url提交给百度站长平台。我们再来看看百度对sitemap的生成规则,看看百度对sitemap有什么格式要求,这里可以看到百度支持两种格式一种是txt格式,另一种是xml的格式,今天以xml的格式去生成网站的sitemap文件:此次用python生成sitemap,首先需要抓取全站的url,然后将全站的url保存的xml的文件中。这里我用异步加载请求的方

2021-10-27 14:49:17 377

原创 百度下拉词获取方式---火车采集器

前文介绍了用python获取百度下拉词用python抓取关键词固然方便,但是毕竟要会python才行。那么不会python的seo人员,如何批量获取百度下拉词呢?今天我们用seo常用软件-火车采集器去获取一下。如果你从中学到了,点个关注,至分享seo技能干货!首先我们要获取百度下拉词的接口,打开百度,比如搜索'seo',F12获取百度下拉词地址:打开火车采集器,新建百度下拉词抓取任务:输入刚才获取的百度下拉地址:紧接着,我们进入高级模式,在手动设置一下抓取规则,将百度下拉词分

2021-10-13 14:33:31 699

原创 百度下拉词用python怎么抓取

首先我们现在百度随便搜索一个词用于模拟搜索,按F12--点击下方XHR,获取百度异步请求的数据,可以看出,获取相应的url和data参数,如图所示:再获取对应的请求参数,如图所示,在进行多方面的测试后发现,能够调用百度下拉词我们只需要这两个参数就可以了,将这两个参数作为python的请求参数代码去实现后面我们用python的requests库进行get请求就可以了,由于百度下拉词响应的数据是json数据,我们直接调用json方法就可以了,在进行关键词解析,详细代码如图所示:我们.

2021-10-12 15:43:50 548 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除