Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models
摘要
不仅发送和接收语言,还发送和接收图像
提供复杂的视觉问题或视觉编辑指令,这些问题需要多个AI模型以多步骤协作
提供反馈并要求纠正结果
考虑到多输入/输出模型和需要视觉反馈的模型,设计了一系列提示符将可视化模型信息注入到ChatGPT中
代码地址
引言
ChatGPT建立在InstructGPT的基础上,专门训练以真正的对话方式与用户交互,从而允许它保持当前对话的上下文,处理后续问题,并自行生成正确答案
视觉基础模型(VFMs)在计算机视觉中显示出巨大的潜力
BLIP模型是理解和提供图像描述的专家
Stable Diffusion是一个基于文本提示合成图像的专家
不是从头开始训练一个新的多模态ChatGPT
直接基于ChatGPT构建可视化ChatGPT,并结合各种VFM
显式地告诉ChatGPT每个VFM的可靠性,并指定输入输出格式
将不同的视觉信息,例如png图像、深度图像和掩码矩阵,转换为语言格式,以帮助ChatGPT理解
处理不同的可视化基础模型的历史、优先级和冲突
方法
通过上图可以看出:
根据图片慢慢体会,他的方法
局限性
本文属于二次转载,如有侵权请联系删除。
文章
10.5W+人气
19粉丝
1关注
©Copyrights 2016-2022 杭州易知微科技有限公司 浙ICP备2021017017号-3 浙公网安备33011002011932号
互联网信息服务业务 合字B2-20220090