牛逼,一个 GPT 自动投简历神器

大环境不好,找工作是不是很难?

昨天看到一个神器,给大家找工作带来了一丝清凉……不对,是温暖。

找工作的智能化神器。

一个 AI 自动投递简历的开源工具,没错是开源的。

结合了 GPT 与 RPA 技术制作,通过 GPT 基于你的简历内容和对方的职位要求,自动在招聘平台上匹配合适的职位。而且由 GPT 生成生成真挚的求职信和自我介绍发送给 HR。

以期待对方索要简历,进而进一步沟通,全流程自动操作!

据 Boss 直聘测试结果来看,还可以。

根据爆料,一天投递上限 100,当日回收 HR 正向反馈 30+,HR 有效回复率 30% 左右,GPT3.5 损耗 token 0.9 美金。

大家可以看看下面的视频,开源项目作者的介绍以及教程:

我只能说求职智能化简直绝了。

我记得我以前说过,如果要想在投简历的过程当中获得更高的回馈,获得更多的面试,简历要做到千人千面。

也就是针对我们要投简历的公司的招聘要求,结合自己的技能、项目经历以及经验写简历,这样针对性更强,获得面试的几率就更大。

很多人投简历的时候,都是海投,也就是一份简历一天投几十家公司,并没有根据各个招聘公司的招聘要求进行针对性制作,这样的话,其实,看似投简历的效率高了,但是,有效性是很差的,获得面试的几率很低。

现在这个开发者呢,根据 GPT 给大家制作了一个 AI 智能化的投简历工具,非常容易做到千人千面,会根据简历内容和对方的职位要求,自动生成求职信和自我介绍。

简直太好了。

而且,这个工具的开发者还说了这么一句话,把我给感动到了。

工具开发者说:希望不要有人拿着我的脚本去割韭菜,都已经被逼到用这种脚本投简历的地步了,身上也没啥油水可榨了吧。

所以,咱说明一下,这个工具是开源的。

所以,这是一个完全免费的脚本,只需要咱们自己配置好 OpenAI 的 Api 即可。当然了,GPT 不是免费的,使用 GPT 接口可能需要花点钱。

当然了,看测试结果,一天也花不了几块钱。

开源项目地址:https://github.com/Frrrrrrrrank/auto_job__find__chatgpt__rpa/tree/master

点击下方公众号卡片,关注我

在公众号对话框,回复关键字 “1024”

赠送一套副业赚钱实操教程

6d8168716e9590582ea56d9f178ac7a3.png

  • 8
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
使用Qt和C++加GPT编写一个自动写小说程序的思路如下: 1. 安装GPT模型 首先需要安装GPT模型,可以使用Hugging Face提供的Transformers库来安装和加载GPT模型。具体步骤如下: - 安装Transformers库:在命令行中执行pip install transformers命令安装Transformers库。 - 下载GPT模型:在Hugging Face官网下载需要使用的GPT模型,例如中文GPT-2模型。 - 加载GPT模型:在Qt中使用QProcess类执行Python脚本,通过Transformers库加载GPT模型,例如: ```cpp QProcess process; process.start("python", QStringList() << "load_model.py" << "path/to/gpt/model"); process.waitForFinished(); ``` 其中,load_model.py是加载GPT模型的Python脚本,path/to/gpt/model是GPT模型的路径。 2. 定义小说主题和章节 与前面的方法相同,需要定义小说的主题和章节。 3. 实现自动写作算法 使用加载的GPT模型来实现自动写作算法,例如: ```cpp QProcess process; process.start("python", QStringList() << "generate_text.py" << novel.title << chapter.title); process.waitForFinished(); QString content = process.readAllStandardOutput(); ``` 其中,generate_text.py是生成文本的Python脚本,novel.title和chapter.title是生成文本所需要的参数。 generate_text.py文件的内容如下: ```python import sys from transformers import GPT2LMHeadModel, GPT2Tokenizer # 加载GPT模型 model_path = sys.argv[1] tokenizer = GPT2Tokenizer.from_pretrained(model_path) model = GPT2LMHeadModel.from_pretrained(model_path) # 生成文本 theme = sys.argv[2] chapter_title = sys.argv[3] input_text = f"{theme},{chapter_title}。" input_ids = tokenizer.encode(input_text, return_tensors="pt") output = model.generate(input_ids, max_length=1024, do_sample=True) text = tokenizer.decode(output[0], skip_special_tokens=True) # 输出结果 print(text) ``` 4. 生成小说内容 与前面的方法相同,使用生成的文本来生成小说内容。 5. 输出小说内容 与前面的方法相同,将生成的小说内容输出到文件或控制台。 以上是使用Qt和C++加GPT编写自动写小说程序的思路,需要注意的是,GPT模型的训练需要较长时间和大量数据,而且程序可能会占用较多的内存和计算资源。因此,需要根据具体需求和硬件条件进行优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值