今天哥们儿ChatGPT的Dall-E 3插件终于激活了,试了一下,单说画画儿这块儿,还是不如MidJourney。不信有图为证:
我们先随便找了一张他家附近的原始图。
下面是ChatGPT对这张图的文字描述:
这张照片捕捉到了一个宁静的郊区场景,很可能是在秋天,从多彩的树叶和落叶中可以看出。
树木:画面左侧有一棵鲜黄色和绿色树叶的树,展示了典型的秋季颜色。在它的后面和向右,可以看到一棵浓密的常绿树,深绿的色彩与之形成了鲜明的对比。
车辆:一辆鲜黄色的汽车停在道路的左侧,由于车顶上标有“Yellow Cab”(黄色出租车)的标签,它很可能是一辆出租车。另一辆车辆的后部部分可见,也停在黄色出租车的前面。
路径:一条维护良好的笔直混凝土路径从画面底部延伸至中部。路径右侧有整齐修剪的草坪。散落的落叶,主要是黄色的,铺满了路径和草坪,唤起了季节感。
道路和标志:与路径平行的是一条光滑的沥青道路。一个路标,可能是指示交通规则或街道名称的,直立地站在靠近路径的位置,实际的标志背对着相机的视角。
风景:在照片的右侧,有一个维护良好的草坪,上面有一些灌木和灌木丛。在远处,可以隐约看到一片木制围栏和一座住宅建筑或房屋的一部分,被树木的浓密叶子部分遮挡。
氛围:照片的整体氛围宁静和宁和。树木和叶子的绿色、黄色和褐色调混合,赋予了场景温馨的秋天感觉。
总之,这张照片呈现了秋季美丽的典型住宅区的一瞥。
然后用这个文字作为提示词,让它画一张新的图,这里用的就是Dall-E 3了。
用同样的图生图,我们在MidJourney获得的结果如下:
如果我们用ChatGPT识图得到的词,用它做提示词再去尝试MidJourney呢?效果如下(懒得切了)
有人会问,哎?为什么汽车没了,我分析原因在于:midjourney读入不了太长的提示词,所以后半部分包括汽车什么的,都没画出来。
总结,单说画画儿这里。MidJourney依然是王者。