三分钟极速体验:Java版人脸检测

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

本篇概览

  • 检测照片中的人脸,用Java可以实现吗?
  • 当然可以,今天咱们用最少的时间、最简单的操作来体验这个实用的功能,当您提交一张带有人脸的照片后,会看到下图效果,所有人脸都被识别到并被框选出来了:
    在这里插入图片描述
  • 本篇以体验为主,不涉及具体的开发,后面还会有文章介绍完整的开发过程(包括源码)

风险提前告知

  • 为了简化操作,接下来会用到docker,对应的镜像体积巨大,达到了恐怖的4.69G,建议您为自己的docker做好加速配置,可以减少下载等待时间;
  • 由于opencv体积庞大,再加上javacv的依赖库也不小,这才导致超大镜像的出现,还望您多多海涵,标题中的《三分钟极速体验》是要去掉镜像的等待时间的,您要是觉得欣宸的标题起得很无耻,我觉得您是对的…

环境信息

  • 为了简化体验过程,接下来会用到docker,推荐的环境信息如下:
  • 操作系统:Ubuntu 16.04.1 LTS 服务器版(MacBook Pro也可以,版本是11.2.3,macOS Big Sur)
  • docker:20.10.2 Community
  • 为了加快docker镜像的下载速度,建议您提前做好docker加速配置
  • 文章标题号称三分钟极速体验,没时间说太多,准备好环境就火速动手啦

部署

  • 新建名为images的目录,用于存储处理后的文件,我这里完整路径是/root/temp/202107/17/images
  • 新建名为model的目录,用于存储稍后要下载的模型文件,我这里完整路径是/root/temp/202107/17/model
  • 下载训练好的模型文件,我准备了两个下载地址,您任选一个即可,一个是csdn的(无需积分):
  1. https://download.csdn.net/download/boling_cavalry/20352221,另一个是
  2. https://raw.githubusercontent.com/zq2599/blog_download_files/master/files/haarcascade_frontalface_default.zip
  • 上述文件下载下来是个压缩包,请先解压,再将文件haarcascade_frontalface_default.xml放入model目录(model里放的必须是解压后的文件)
  • 执行以下命令,会先下载docker镜像文件再创建容器:
docker run \
--rm \
-p 18080:8080 \
-v /root/temp/202107/17/images:/app/images \
-v /root/temp/202107/17/model:/app/model \
bolingcavalry/facedetect:0.0.1
  • 部署完成,开始体验

体验

  • 浏览器访问http://localhost:18080,这里的localhost请改成docker宿主机IP(要关闭防火墙!),可以见到操作页面,如下图(欣宸的前端开发水平渣到令人发指,果然不是空穴来风):
    在这里插入图片描述

  • 找一张有人脸的图片(我在百度图片随机找的),点击上图的选取图片按钮进行上传,至于周围检测数量那里先保持默认值32不要动

  • 点击提交按钮后,页面会显示检测结果,如下图,人脸被准确的框选出来了:
    在这里插入图片描述

  • 再试试多人的,如下图,居然一个人脸都没有检测到:
    在这里插入图片描述

  • 周围检测数量的值调低些,改成4再试,如下图,这次成功了,八张人脸全部检测到:
    在这里插入图片描述

  • 至此,Java版人脸检测的体验已经完成,一分钟概览,一分钟部署,一分钟体验,咱们足够高效(下载超大镜像的时间不能算,不敢算…)

  • 此刻您应该能感受到Java在人脸识别领域的魅力了,聪明的您当然会有很多疑问,例如:

  1. 用了啥框架?
  2. 写了啥代码?
  3. 运行环境好不好配置?只要jar依赖吗?还需要其他操作吗?
  • 这些疑问在下面这两篇文章中完全揭秘,然后您也能轻易做出集成了人脸识别的SpringBoot应用了:
  1. Java版人脸检测详解上篇:运行环境的Docker镜像(CentOS+JDK+OpenCV)
  2. Java版人脸检测详解下篇:编码
  • 顺便剧透一下:设置运行环境很麻烦,所幸欣宸已解决此问题,并成功封装为基础镜像,咱们可以专注的开发应用,对运行环境再也无需处理了

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列
### LlamaIndex 多模态 RAG 实现 LlamaIndex 支持多种数据类型的接入与处理,这使得它成为构建多模态检索增强生成(RAG)系统的理想选择[^1]。为了实现这一目标,LlamaIndex 结合了不同种类的数据连接器、索引机制以及强大的查询引擎。 #### 数据连接器支持多样化输入源 对于多模态数据的支持始于数据收集阶段。LlamaIndex 的数据连接器可以从多个异构资源中提取信息,包括但不限于APIs、PDF文档、SQL数据库等。这意味着无论是文本还是多媒体文件中的内容都可以被纳入到后续的分析流程之中。 #### 统一化的中间表示形式 一旦获取到了原始资料之后,下一步就是创建统一而高效的内部表达方式——即所谓的“中间表示”。这种转换不仅简化了下游任务的操作难度,同时也提高了整个系统的性能表现。尤其当面对复杂场景下的混合型数据集时,良好的设计尤为关键。 #### 查询引擎助力跨媒体理解能力 借助于内置的强大搜索引擎组件,用户可以通过自然语言提问的形式轻松获得所需答案;而对于更复杂的交互需求,则提供了专门定制版聊天机器人服务作为补充选项之一。更重要的是,在这里实现了真正的语义级关联匹配逻辑,从而让计算机具备了一定程度上的‘认知’功能去理解和回应人类意图背后所蕴含的意义所在。 #### 应用实例展示 考虑到实际应用场景的需求多样性,下面给出一段Python代码示例来说明如何利用LlamaIndex搭建一个多模态RAG系统: ```python from llama_index import GPTSimpleVectorIndex, SimpleDirectoryReader, LLMPredictor, PromptHelper, ServiceContext from langchain.llms.base import BaseLLM import os def create_multi_modal_rag_system(): documents = SimpleDirectoryReader(input_dir='./data').load_data() llm_predictor = LLMPredictor(llm=BaseLLM()) # 假设已经定义好了具体的大型预训练模型 service_context = ServiceContext.from_defaults( chunk_size_limit=None, prompt_helper=PromptHelper(max_input_size=-1), llm_predictor=llm_predictor ) index = GPTSimpleVectorIndex(documents, service_context=service_context) query_engine = index.as_query_engine(similarity_top_k=2) response = query_engine.query("请描述一下图片里的人物表情特征") print(response) ``` 此段脚本展示了从加载本地目录下各类格式文件开始直到最终完成一次基于相似度排序后的top-k条目返回全过程。值得注意的是,“query”方法接收字符串参数代表使用者想要询问的内容,而在后台则会自动调用相应的解析模块并结合先前准备好的知识库来进行推理计算得出结论。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员欣宸

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值