Meetily - AI 驱动的会议助手

一个 AI 驱动的会议助手,可捕获实时会议音频、实时转录并生成摘要,同时确保用户隐私。非常适合希望专注于讨论,同时自动捕获和组织会议内容的团队,而无需外部服务器或复杂的基础设施。

GitHub:GitHub - Zackriya-Solutions/meeting-minutes: An open source Live Ai based meeting note taker and minutes generator that can completely run in your Local device (Mac OS support is added. Will add windows and linux support soon)

更多AI开源软件:发现分享好用的AI工具、AI开源软件、AI模型、AI变现 - 小众AI

虽然有许多可用的会议转录工具,但该解决方案通过提供以下功能脱颖而出:

  • 隐私优先:所有处理均在您的本地设备上进行
  • 成本效益高:使用开源 AI 模型而不是昂贵的 API
  • 灵活: 离线工作,支持多个会议平台
  • 可定制:可根据您的特定需求进行自托管和修改
  • 智能:内置知识图谱,用于跨会议进行语义搜索

主要功能

✅ 具有实时更新的现代响应式 UI

✅ 实时音频捕获(麦克风 + 系统音频)

✅ 使用 Whisper.cpp 进行实时转录 ✅ 说话人分类

✅ 本地处理隐私

✅ 已为 Mac OS 打包应用程序

🚧 导出到 Markdown/PDF

安装和使用

1. 前端设置
运行打包版本

转到 releases 页面并下载最新版本。

解压缩文件并运行可执行文件。

提供音频采集和麦克风访问所需的权限(仅需要屏幕采集权限)。

开发运行
# Navigate to frontend directory
cd frontend

# Give execute permissions to clean_build.sh
chmod +x clean_build.sh

# run clean_build.sh
./clean_build.sh
2. 后端设置
# Create and activate virtual environment
python -m venv venv
source venv/bin/activate  # Windows: .\venv\Scripts\activate

# Navigate to backend directory
cd backend

# Install dependencies
pip install -r requirements.txt

# Start backend servers
./clean_start_backend.sh

LLM 集成

后端通过统一接口支持多个 LLM 提供商。当前的实施包括:

支持的提供商
  • Anthropic (Claude 模型)
  • 格罗克 (Llama3.2 90 B, Deepseek)
  • Ollama (本地型号)
配置

使用您的 API 密钥创建文件:.env​

# Required for Anthropic
ANTHROPIC_API_KEY=your_key_here  

# Required for Groq 
GROQ_API_KEY=your_key_here

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值