GPT-4V(GPT-4Vision)(GPT-4V)是由OpenAI开发的一种多模型。GPT-4V允许用户上传一张图片作为输入,并提出关于该图片的问题,这种任务类型被称为视觉问题回答(VQA)。 GPT-4V自9月24日起推出,并将在OpenAI ChatGPT iOS应用和网络界面中提供。
一、前言
OpenAI 正在扩展其在人工智能(AI)领域的视野,推出了 GPT-4V 模型,该模型具有聆听、进行对话和解释图像的能力。
人工智能世界正在迅速发展,OpenAI 继续引领潮流。9月25日,该组织宣布对其 ChatGPT 系统进行了重大升级,引入了具有视觉功能的 GPT-4V 模型和多模态对话功能。
二、GPT-4V 深藏功与名
现在,ChatGPT 用户可以参与比以往更加动态和互动的对话。这一进步得益于两个 AI 模型,GPT-3.5 和 GPT-4,它们可以理解用简单语言表达的口头查询,并用五种不同的声音之一进行回应。
OpenAI 对这种新型多模态界面的可能性充满信心。现在,您可以在旅行时拍摄一个地标的照片,然后进行实时对话,了解它的有趣特征。在家里,拍摄冰箱和食品储藏室的照片,决定吃什么,并甚至请求逐步的食谱。晚餐后,帮助您的孩子解决一个数学问题,拍摄问题的照片,圈出问题,并让 ChatGPT 为您两个提供提示。
这一