AI Vs 作家?Groqbook: AI写书神器,使用 Groq 和 Llama3 几秒生成一本完整的书籍!

cover_image
✨点击这里✨:🚀原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!)

AI Vs 作家?Groqbook: AI写书神器,使用 Groq 和 Llama3 几秒生成一本完整的书籍!

🌟Groqbook可以通过一个简单的提示使用 Groq 上的 Llama3 来生成书籍。

体验地址:https://groqbook.streamlit.app/

Hello,大家好,我是Aitrainee,

** Groqbook ** 是一个基于 Streamlit 的应用程序,它可以通过一个简单的提示使用 Groq 上的 Llama3
来生成书籍。它在生成非小说类书籍方面表现出色,可以在 几秒钟内生成每个章节

该应用程序结合了 Llama3-8b 和
Llama3-70b,利用较大的模型生成书籍结构,使用较小的模型创建内容。目前,模型仅使用章节标题的上下文来生成章节内容。未来,模型将扩展到使用整个书籍的上下文,以便
Groqbook 也能 生成高质量 的小说类书籍。

使用 Groqbook 生成书籍
  1. 1. 输入书籍标题或提示
* •  在浏览器中打开的 Groqbook 应用程序界面上,输入书籍的标题或简单提示,例如 "How Much is Enough"。 
  1. 2. 生成书籍
* •  点击“生成”按钮,Groqbook 将开始生成书籍结构和内容。生成过程非常快,几秒钟内即可完成。 
  1. 3. 下载和查看生成的书籍
* •  生成完成后,可以下载生成的书籍文件。文件包含定义明确的章节、参考文献、讨论问题和活动等内容。 

*   

示例:生成 “How Much is Enough” 书籍
  • • 输入提示 “How Much is Enough” 并生成书籍后,Groqbook 将生成包含多个章节的完整书籍。以下是一些生成的章节标题和内容示例:

    • 探索“足够”的概念 :讨论“足够”的定义及其含义。

    • 消费文化 :分析现代消费文化对“足够”概念的影响。

    • 历史视角 :回顾古代文明对“足够”的看法。

    • 永不满足的神话 :探讨为什么在获得所需之后仍然感到不满足。

生成的书籍内容不仅结构合理,语言也非常连贯,类似于人类作者撰写的非小说类书籍。

安装和使用 Gr oqbook

  1. 1. 设置环境
* •  建议创建一个虚拟环境以保持安装的包独立。使用以下命令创建并激活虚拟环境: 
    
            python3 -m venv groqbook-env  
    source groqbook-env/bin/activate
  1. 2. 克隆 Groqbook 仓库
* •  克隆 Groqbook 的 GitHub 仓库,并进入该目录: 
    
            git clone https://github.com/your-repo/groqbook.git  
    cd groqbook
  1. 3. 获取 Gro API 密钥
* •  访问  Groq Cloud 控制台  ,登录后在左侧栏获取 API 密钥。 

* •  将 API 密钥设置为环境变量: 
    
            export GROQ_API_KEY='your_api_key'
  1. 4. 安装依赖
* •  安装 Groqbook 运行所需的所有依赖包: 
    
            pip install -r requirements.txt
  1. 5. 运行 Groqbook 应用程序
* •  启动 Streamlit 应用程序: 
    
            streamlit run main.py

* •  应用程序将在本地端口 8501 上运行。打开浏览器并访问 ` http://localhost:8501 ` 。 

特性

  • • 📖 通过 Llama3-70b 和 Llama3-8b 的战略切换,平衡生成速度和内容质量

  • • 🖊️ 使用 markdown 样式在 Streamlit 应用程序中创建美观的书籍,包含表格和代码

  • • 📂 允许用户下载包含整个书籍内容的文本文件

示例生成书籍:

示例提示
大型语言模型基础大型语言模型的基础知识
数据结构与算法Java中的数据结构与算法

快速入门

[!重要] 要使用 Groqbook,你可以访问 groqbook.streamlit.app
上的托管版本。或者,你也可以按照快速入门指南在本地运行 Groqbook。

Streamlit 托管版本:

要使用 Groqbook,你可以访问 groqbook.streamlit.app 上的托管版本。

本地运行:

你也可以按照以下步骤在本地运行 Groqbook。

步骤 1

首先,你可以将你的 Groq API 密钥设置在环境变量中:

export GROQ_API_KEY=gsk_yA...

这是一个可选步骤,可以让你在稍后使用 Streamlit 应用程序时跳过设置 Groq API 密钥。

步骤 2

接下来,你可以设置一个虚拟环境并安装依赖项。

python3 -m venv venv


source venv/bin/activate


pip3 install -r requirements.txt
步骤 3

最后,你可以运行 Streamlit 应用程序。

python3 -m streamlit run main.py

详情

技术

  • • Streamlit

  • • Groq Cloud 上的 Llama3

限制

Groqbook 可能会生成不准确的信息或占位符内容。它应该仅用于生成娱乐用途的书籍。

未来功能:

  • • 改进 PDF 下载的 CSS

  • • 能够将书籍保存到 Google 云端硬盘

  • • 能够为书籍设置标题并显示在下载中

  • • 可选的种子内容字段以输入现有笔记

知音难求,自我修炼亦艰

抓住前沿技术的机遇,与我们一起成为创新的超级个体

(把握AIGC时代的个人力量)

**外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
**

** 点这里 👇 关注我,记得标星哦~ **

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

预览时标签不可点

微信扫一扫
关注该公众号

轻触阅读原文

AI进修生



收藏

  • 20
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
你可以按照以下步骤使用Python的trl库来编写一个PPO算法来优化LLAMA的代码: 1. 安装trl库:在命令行中运行`pip install trl`来安装trl库。 2. 导入所需的库和模块: ```python import trl import torch import llama # 导入LLAMA环境 ``` 3. 创建LLAMA环境: ```python env = llama.LLAMA() ``` 4. 定义神经网络模型: ```python class Policy(torch.nn.Module): def __init__(self): super(Policy, self).__init__() self.fc1 = torch.nn.Linear(env.observation_space.shape[0], 64) self.fc2 = torch.nn.Linear(64, 64) self.fc3 = torch.nn.Linear(64, env.action_space.n) def forward(self, x): x = torch.relu(self.fc1(x)) x = torch.relu(self.fc2(x)) x = self.fc3(x) return trl.distributions.Categorical(logits=x) policy = Policy() ``` 5. 创建PPO优化器: ```python optimizer = trl.optimizers.PPO(policy, lr=1e-3) ``` 6. 定义训练循环: ```python for epoch in range(num_epochs): states = [] actions = [] rewards = [] log_probs = [] state = env.reset() done = False while not done: states.append(state) action, log_prob = policy(torch.tensor(state).float()) actions.append(action) log_probs.append(log_prob) state, reward, done, _ = env.step(action.item()) rewards.append(reward) states = torch.tensor(states).float() actions = torch.tensor(actions).long() rewards = torch.tensor(rewards).float() log_probs = torch.stack(log_probs) optimizer.zero_grad() loss = trl.ppo_loss(policy, states, actions, rewards, log_probs) loss.backward() optimizer.step() ``` 在这个训练循环中,我们收集了每个时间步的状态、动作、奖励和对数概率,然后使用PPO损失计算损失并进行反向传播和优化。 请注意,这只是一个简单的示例,实际上你可能需要进行更多的调优和修改来适应你的具体问题和环境。 希望这可以帮助到你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Aitrainee

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值