【自动化测试】Appium环境设置 启动Appium需要的环境配置有些复杂,这里将需要的环境配置整理出来,附上博主亲测有效的教程,有些教程有一点点老了,博主也做了备注,并且有些老一点步骤,博主根据现有的情况做了新的图文教程,大家参考附上的教程以及新的说明,一步一步就可以实现Appium的环境配置。
【ChatGPT】吴恩达教程笔记(预备篇) 众所周知,吴恩达老师与OpenAI联合推出了一门面向开发者的Prompt课程(https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers),时隔几天,吴恩达老师发推说已经有超过20万人注册学习此课程,可见这门课程的受欢迎程度是如此之高。博主将用几篇博客来总结记录这门课程的要点,方便大家配合视频一起学习,能够快速掌握这门面向开发者的Prompt课程。
【Stable Diffusion】ControlNet基本教程(四) 接上篇【Stable Diffusion】ControlNet基本教程(三),本篇再介绍两个ControlNet常见的基本用法:控制人物动作和建筑/室内生成。让人物摆出特定的动作,这是ControlNet最神级的操作!这意味着可以自定义姿势,这意味着AI绘图正式进入自主可控的世代!而建筑/室内设计生成则给做设计的小伙伴带来更多灵感,并且减少渲染等很多重复、繁琐的工作,帮助设计师更专注于设计本身。
【Stable Diffusion】ControlNet基本教程(三) 接上篇【Stable Diffusion】ControlNet基本教程(二),本篇继续介绍两个ControlNet的基本用法:更换物体皮肤和室外风景生成
【Stable Diffusion】ControlNet基本教程(二) 接上篇【Stable Diffusion】ControlNet基本教程(一),本篇介绍两个ControlNet常见的基本用法:漫画线稿上色和随机涂鸦生成 。
【Stable Diffusion】ControlNet基本教程(一) 就在情人节前一天一款叫ControlNet的SD插件发布了,这款插件在短短的两天内成为了AI绘画领域最新的热点。而它的出现代表着AI生成开始进入真正可控的时期,而AIGC的可控性是它进入实际生产最关键的一环。
【Stable Diffusion】基本概念之hypernetwork 我们在进行绘画创作的时候,想要尝试不同的画风,并快速得到这种画风的图像,hypernetwork就可以满足我们的这种需求,它轻量、快捷,可以很方便地对画风进行转换
【Stable Diffusion】lora的基础使用技巧 在使用Stable Diffusion加载lora时,往往出现生成的图像效果与示例图像效果差距较大的情况,生成的图像质量不能令人满意,本文提供五个lora的基础使用技巧,提高生成图像的效果质量
【Stable Diffusion】什么是Embedding 在Stable Diffusion的使用过程中,如果针对某一特定人物、场景、动作有大量的描述词要写,如何进行快速描写呢?embedding可节省大量的描述词,对特定人物、场景、动作进行“打包”
【Stable Diffusion】什么是VAE VAE是Stable Diffusion的一种重要的深度学习模型,它可以使图像变得更鲜艳,帮助AI绘画师更好地理解输入图像的特征,并生成更加逼真的绘画作品,本文从基本概念讲起,对VAE的作用,打开方式,存放位置,下载途径等方面进行简要的全面介绍,帮助初学者快速入门,快速使用。
SQL常见问题整理(五) 8.处理重复数据(1)防止表中出现重复数据使用primary key索引create table person(last_name char(20) not null,first_name char(20) not null,address char(40),primary key(last_name,first_name));使用unique索引create table person(last_name char(20) not null,first_name char(20) not null