Visual ChatGPT可视化的chatgpt

Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models

摘要

  • 不仅发送和接收语言,还发送和接收图像
  • 提供复杂的视觉问题或视觉编辑指令,这些问题需要多个AI模型以多步骤协作
  • 提供反馈并要求纠正结果
  • 考虑到多输入/输出模型和需要视觉反馈的模型,设计了一系列提示符将可视化模型信息注入到ChatGPT中
  • 代码地址

引言

  • ChatGPT建立在InstructGPT的基础上,专门训练以真正的对话方式与用户交互,从而允许它保持当前对话的上下文,处理后续问题,并自行生成正确答案
  • 视觉基础模型(VFMs)在计算机视觉中显示出巨大的潜力
  • BLIP模型是理解和提供图像描述的专家
  • Stable Diffusion是一个基于文本提示合成图像的专家

  • 不是从头开始训练一个新的多模态ChatGPT
  • 直接基于ChatGPT构建可视化ChatGPT,并结合各种VFM
  1. 显式地告诉ChatGPT每个VFM的可靠性,并指定输入输出格式
  2. 将不同的视觉信息,例如png图像、深度图像和掩码矩阵,转换为语言格式,以帮助ChatGPT理解
  3. 处理不同的可视化基础模型的历史、优先级和冲突

方法


通过上图可以看出:

根据图片慢慢体会,他的方法

局限性

  • 依赖chatgpt和VFM
  • 需要大量的prompt工程
  • 实时能力不好
  • token长度的限制
  • 安全和隐私

本文链接:https://my.lmcjl.com/post/3406.html

展开阅读全文

4 评论

留下您的评论.