自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 用 NVIDIA Jetson 创建 Phi3 聊天机器人

在 NVIDIA Jetson Xavier NX 上结合微软 Phi3 模型,创建专属的AI对话机器人

2024-04-30 10:12:16 971

原创 title: 用 LangChain 构建基于资料库的问答机器人(四):通过代理使用外部工具

上一篇教程我们介绍了 ReAct 系统,这是一个非常强大的行为模式,但它需要编写大量的示例来告诉 LLM 如何思考、行动,并且为了遵循这个模式,还需要编写代码来分析生成文字、调用函数、拼接 prompt 等,这些工作都是十分繁琐且冗长的。而 LangChain 帮我们把这些步骤都隐藏起来了,将这一系列动作都封装成 “代理”,我们只需要提供有那些工具可以使用,以及这些工具的功能,就可以让 LLM 自动完成这些工作了。这样我们的代码就会变得简洁、易读,并且拥有更高的灵活性。

2023-07-25 08:00:00 1159

原创 用 LangChain 构建基于资料库的问答机器人(三):ReAct

大家好,我是 Jambo。我们已经学习了如何使用 LangChain 的一些基本功能,解下我们就应该要结合这些功能来做一些复杂的东西了。但在这之前,为了让同学们更好的理解 LangChain 在这其中做了什么,我想先介绍一下关于 GPT 使用方面的一些知识。在 ChatGPT 开放之初,除了各大公司在 AI 算法方面竞争,还有许多人在研究如何仅通过修改 prompt 就能让 GPT-3 做出更好的回答,这种方法被称为“提示工程(Prompt Engineering)”。

2023-07-24 08:00:00 1177

原创 用 LangChain 构建基于资料库的问答机器人(二):从资料源中提取文本信息

大家好,我是学生大使 Jambo。这个系列的目标是做出一个根据资料回答问题的机器人,那么从资料源中提取文本信息就是一件必要的事。但我们的资料源格式是多样的,比如 PDF、Word、HTML、PPT 等等,甚至有的资料源来自于网络,这些格式都不能直接提取出文本,但好在 Python 有很多第三方库可以帮助我们提取文本信息,并且 LangChain 也帮我们整合到了一起,我们只需要调用 LangChain 的接口就可以了。

2023-07-18 07:00:00 1191

原创 用 LangChain 构建基于资料库的问答机器人(一):基础用法

大家好,我是学生大使 Jambo。在上一个系列中,我们介绍了关于 Azure OpenAI API 的使用。如果你有跟着教程使用过,那么你应该能感觉到仅仅是调用 API 是非常简单的,繁琐的是如何将 API 与你的应用结合起来。接下来,我将会介绍一个名为 LangChain 的库,它可以帮助你更方便地将 Azure OpenAI 结合到你的应用中。我也会将这个做成一个系列,最终目标是实现一个可以根据资料库回答问题的聊天机器人。

2023-06-21 13:02:12 2340 1

原创 来 Azure 学习 OpenAI 四 - 用 Embedding 赋能 GPT

大家好,我是学生大使 Jambo。在我们前一篇文章中,我们介绍了 OpenAI 模型的调用。今天,我将为大家介绍 Embedding 的使用。

2023-05-22 06:30:00 4672 3

原创 来 Azure 学习 OpenAI 三 - 用 Python 调用 Azure OpenAi API

在使用模型之前,我们先来了解一下 Azure 提供了哪些 OpenAI 模型。Azure 提供的模型从功能上可以分为三大类:补全(completion)、对话(chat)、嵌入(embeddings)。补全模型可以根据输入的文本,补全剩余的文本。这类模型顾名思义,就是根据前文续写后续的部分。他可以用来续写文章,补全程序代码。不仅如此,你其实也可以通过固定的文字格式来实现对话的效果。对话模型相信有使用过 ChatGPT 的同学应该很熟悉。对话模型可以根据输入的文本,生成对话的回复。

2023-04-17 06:30:00 9269 2

原创 来 Azure 学习 OpenAI 二 - 环境构建

如今,越来越多的人拥有多台开发设备,例如在家和办公室都有电脑。但是跨设备开发是件麻烦的事情,因为你不仅需要同步文件,还需要在不同的设备上安装相同的开发环境。而对于使用轻型设备,比如 Chromebook 和 iPad,复杂的开发环境也很难被支持。在这种情况下,云端开发将会是一个很好的选择。把工作环境放在云端,无论你使用哪个设备,只要能上网,你就可以获得完全统一的开发环境,而且无需担心硬件算力的问题。

2023-04-03 08:30:00 2064

原创 学生党,快来 Azure 一起学习 OpenAI (一):注册 Azure 和申请 OpenAI

大家好我是微软学生大使 Jambo , 在刚结束的微软学生开发者峰会 2023中我们了解到微软为学生提供了 Azure for Student 大礼包,通过 Azure for Student 除了学习和部署云原生的应用外,还可以申请使用 Microsoft OpenAI Service。在这个 AIGC 火热的年代,作为学生别错过这个千载难逢的机会。下面我会介绍一下我是如何申请到 Microsoft Azure for Student 和 Azure OpenAI Service 的。

2023-03-26 21:37:57 20985 30

原创 运行 Triton 示例

NVIDIA Triton 推理服务器 提供针对 CPU 和 GPU 优化的云和边缘推理解决方案。

2022-08-11 22:58:50 1784 2

原创 Tinker board 安装 OpenCV

Tinker board 安装 OpenCV

2022-07-25 22:28:26 780

原创 Tinker Board 2S 使用 CSI 摄像头

TinkerBoard2S使用CSI摄像头

2022-07-22 15:46:18 539

原创 Tinker board 系统安装

Tinker board 系统安装

2022-07-18 16:32:46 709

原创 NVIDIA中文车牌识别系列-1” 在Jetson上用DeepStream识别中文车牌

前言这是NVIDIA在2021年初公布的一个开源项目,用NVIDA Jetson设备上的DeepStream视频分析套件实现“车牌识别”的功能,这是个实用性非常高的应用,能应用在各类小区门禁管理、停车场管理、道路违章等使用场景。这个项目还有一个非常重要的特色,就是支持中国(文)机动车牌的识别,本文就专门针对中文车牌识别的部分,带着大家走过一遍,项目内容中有些需要改进的部分,在本文中也都一一说明,现在先简单了解一下这个项目的执行原理。本系列总共包括三部分:在 Jetson 上用 DeepStream

2021-07-02 14:49:00 1936 3

翻译 NVIDIA中文车牌识别系列-3:使用TLT训练车牌号识别LPR模型

预先准备在开始建立和部署 TLT 中高准确率的车辆训练模型时,需要以下资源:NGC 账号DeepStream SDK我们将使用 TLT 进行训练pip3 install nvidia-pyindexpip3 install nvidia-tlt创建 ~/.tlt_mounts.json 文件,并加入以下内容:{ "Mounts": [ { "source": "/home/<username>/tlt-experiments"

2021-07-01 22:49:04 1599

原创 NVIDIA中文车牌识别系列-2:使用TLT训练车牌识别LPD模型

预先准备在开始建立和部署 TLT 中高准确率的车辆训练模型时,需要以下资源:NGC 账号DeepStream SDK我们将使用 TLT 进行训练pip3 install nvidia-pyindexpip3 install nvidia-tlt创建 ~/.tlt_mounts.json 文件,并加入以下内容:{ "Mounts": [ { "source": "/home/<username>/tlt-experiments"

2021-07-01 22:46:37 1048

原创 使用 DeepStream运行车牌识别

目录先决条件下载设置参数构建,运行先决条件DeepStream SDK 5.0.1运行范例deepstream-test1,以检测deepstream是否安装成功tlt-converter下载对应版本的tlt-converter并根据内置说明安装PlatformComputeLinkx86 + GPUCUDA 10.2/cuDNN 8.0/TensorRT 7.1linkx86 + GPUCUDA 10.2/cuDNN 8.0/TensorRT 7.2

2021-06-28 23:18:13 1211 2

原创 ASUS TPU加速卡:Linux 驱动安装

ASUS发布了一款基于Google Coral Edge TPU处理器的全高半长PCIe Gen3 AI加速卡。我们有幸拿到了一块。这款产品的型号为:CRL-G116U-P3DF,内置了16个GoogleCoral Edge TPU M.2模块。本文讲述了如何在Linux上安装处理器的驱动

2021-06-08 11:54:16 1044 2

原创 在Jetson Nano使用face_recognition人脸识别

配置环境cd ~touch setup.shgedit setup.sh复制以下内容,保存# install dependenciessudo apt-get updatesudo apt-get install -y build-essential \ cmake \ gfortran \ git \ wget \ curl \ graphicsmagick \ libgraphicsmagick1-dev \ libat.

2020-05-24 10:18:28 1821 1

原创 使用Nvidia Jetson TX2进行人脸检测

环境Jetson TX2 JetPack-3.1  构建1.下载代码git clone https://github.com/AastaNV/Face-Recognition2.进入Face-Recognition文件夹cd Face-Recognition3.创建build文件夹mkdir build4.进入build文件夹cd build...

2018-07-24 13:05:28 5585 2

原创 如何在TX2上运行 openpose

环境JetPack 3.1 预装软件1.CUDA 8.02.cudnn6.03.opencv 2.4.13 步骤1.打开终端,下载openpose文件git clone https://github.com/CMU-Perceptual-Computing-Lab/openpose  2.openpose文件夹里,将ubuntu_depreca...

2018-07-22 14:26:38 3302 3

原创 Jetson TX 刷机教程

环境Ubuntu 14/16 (64x)注:可用虚拟机 目标Jetson TX(本文使用TX2)材料(百度网盘)1. 刷机环境:flash_tx2.tar.bz2(MD5=CB76014B806E783D1107CEF61466BFB6)2.刷机包(更具需求二选一):    (1)Jetpack32_cuda9_cudnn7.tar.bz2(MD5=5B861...

2018-07-21 17:14:37 1884

原创 安装并使用NoMachine

1.进入NoMachine官网下载NoMachine安装包2.安装NoMachine,一路到底,不需更改其他设置(安装目录随意)3.下载IP扫描工具:Advanced IP Scanner4.安装/运行5.扫描6.记录目标IP,文本以TX2为例7.打开NoMachine,在搜索栏中输入IP,本文中为192.168.0.1138.搜索9.输入用户名和密码,本文已TX2为例,用户名及密码均为nvidi...

2018-07-06 21:02:58 51302 16

原创 如何检测TX2硬件温度

1.打开终端,输入以下指令查看硬件cat /sys/devices/virtual/thermal/thermal_zone*/type2.输入以下指令查看温度,以下数字分别对应以上硬件,将数字除以1000得出实际温度(摄氏度)cat /sys/devices/virtual/thermal/thermal_zone*/temp参考:1.Jetson/Thermal...

2018-07-06 20:43:01 3358

原创 Jetson TX2上运行Deepstream范例

NVIDIA新推出的DeepStream SDK借助NVIDIA Tesla GPU的硬件特性(包括卓越的解码性能,通过降低精度进行高速推理以及低功耗),帮助开发人员快速构建高效、高性能的视频分析应用程序。本博文将演示如何在NVIDIA嵌入式开发平台Jetson TX2上运行DeepStream SDK

2018-06-24 17:33:15 9358 6

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除