一个基于JavaScript实现的开源的host切换工具,一键切换host,方便快捷

公众号:程序员黑黑 领资料、面试题、学AI、入交流群,欢迎关注哈。

在我们平时开发的时候,有时候会碰到需要修改host的情况,但是host文件并不是特别好找,找起来都比较费劲,并且这个文件还很重要,万一改错了、误删了很麻烦。

SwitchHosts 简介

这个时候我们可以尝试下 switchhost 这个开源软件,它是一个开源的 host 切换工具。支持 Windows、macOS 和 Linux 等。它目前有 20.6k 的star,还是非常棒的。

image.png

安装

我们向下滑,找到它的下载项,点击 这里 ,跳转到它的下载界面。然后我们点击这个 Assets 在展开的列表里选择自己系统对应的安装包进行安装就可以了。

简单使用

打开软件后,可以看到我这里已经有了一些 host 项,我们可以根据自己的需求新建很多的 host 配置项,控制相应 host右侧的这个开关来启用和关闭对应的 host 的配置项。

image.png

点击左下角的添加按钮,可以新建一个 host 项,标题这里可以写上当前配置的 host 是为了干啥的,比如它是针对哪个项目的host。

image.png

类型这我们常用的一般就本地和远程两个,本地需要你手动配置你需要的host;远程用来从其他服务器自动拉取已存在的 host 内容。

Snip20230708_6.png

这里还可以配置刷新时间。

image.png

有兴趣的小伙伴可以研究下。

感谢阅读

  1. 如果本文对您有帮助,欢迎点赞\评论\收藏哈,您的「点赞\评论\收藏」是我创作的加油站,感恩🤗。
  2. 公众号:程序员黑黑 领资料、面试题、学AI、入交流群,欢迎关注哈。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
修改host切换host工具,host修改软件,host修改修改host文件工具软件自动切换host工具_HostHelper_V1.1 host切换工具-host助手 做开发和测试时经常遇到切换host的情况,如果每次手动去打开host文件,然后点击用记事本打开,再修改。浪费了许多的时间。业余时间便开发了‘HOST助手’。 实现了完全自主配置host自由修改host文件,省去了许多的时间。工具简单、方便、实用。现对工具做简单的介绍,方便您能快速使用本工具。提升您的工作效率。 工具迄今已有两个版本:(HostHelper v1.0 HostHelper v1.1) 网上最先发布的HostHelper v1.0版本,存在开机或重启后无法读取原配置文件的BUG。HostHelper v1.1版本针对此问题已做修复。请尽量使用HostHelper v1.1版本。 使用方法: 1.下载 ‘HostHelper v1.1’(csdn,程序员百味 官网,51cto 均有下载地址),解压后,移动.exe可执行文件到自己的工作目录,建议不要放到桌面。 2.双击运行后,文件会自动生成两个文件,一个icon和一个配置文件(运行时,可能会有杀毒软件提示修改host或者开机项,请放心使用 并无病毒) 3.初次使用配置文件为空,请在'host管理’中点击‘配置文件格式’即可查看配置样式。 4.按照所需配置host,完毕点击保存。(注意:分组名即为托盘图标的菜单名,不可重复) 5.右键点击右下角host助手托盘图标,单击组可以设置包含子菜单的所有host,单击子选项,可配置单个host选项。 HOST助手 升级记录 HostHelper v1.0 1.完全自主配置 切换Host HostHelper v1.1 1.修复开机自动运行时无法读取原配置文件 注意: (1)V1.0升级时需要删除原来的自动运行注册表值 (2)如无法删除注册表值,请用新文件覆盖V1.0文件 技术支持: 程序员百味 QQ:1940775885 技术博客 http://www.bywei.cn/view.asp?id=106
### 回答1: 以下是一个示例 Druid 配置: ``` # Druid Broker druid.service=broker druid.port=8082 # Druid Coordinator druid.coordinator.host=localhost druid.coordinator.port=8081 # Druid Overlord druid.overlord.host=localhost druid.overlord.port=8080 # Druid Historical druid.historical.host=localhost druid.historical.port=8083 # Druid MiddleManager druid.middleManager.host=localhost druid.middleManager.port=8084 # Druid Zookeeper druid.zk.service.host=localhost druid.zk.path=/druid ``` 这是一个简单的 Druid 配置,其中包含了 Broker、Coordinator、Overlord、Historical、MiddleManager 和 Zookeeper。每个服务都有自己的主机和端口配置。 Zookeeper 也配置了服务主机和路径。 ### 回答2: Druid是一个开源的分布式实时分析系统,用于处理大规模数据集并提供实时的数据查询和分析服务。以下是一个Druid配置示例: ``` druid.zk.service.host=localhost:2181 druid.metadata.storage.type=zookeeper druid.metadata.storage.connector.connectURI=localhost:2181/druid/segments druid.metadata.storage.connector.host=localhost druid.metadata.storage.connector.port=3306 druid.metadata.storage.connector.user=root druid.metadata.storage.connector.password=123456 druid.indexer.logs.type=file druid.indexer.logs.directory=/var/druid/indexing-logs druid.coordinator.autoManageTaskStatus=true druid.coordinator.periodicBalancingWaitMillis=300000 druid.overlord.autoscale.enabled=true druid.overlord.autoscale.min.num.instances=1 druid.overlord.autoscale.max.num.instances=3 druid.broker.cache.useCache=true druid.broker.cache.sizeInBytes=1048576000 druid.broker.cache.expireAfterAccess=600000 druid.server.http.numThreads=100 druid.server.http.maxRequestHeaderSize=8192 druid.query.groupBy.maxResults=5000 druid.query.groupBy.maxIntermediateRows=50000 druid.query.groupBy.maxResults=50000 druid.sql.enable=false druid.sql.http.numThreads=2 ``` 上述配置示例中提供了一些常见的Druid配置选项的设置。其中,`druid.zk.service.host`配置了ZooKeeper的地址,`druid.metadata.storage.type`配置了元数据存储的类型,这里设置为zookeeper,`druid.metadata.storage.connector`指定了元数据存储的连接信息。`druid.indexer.logs.type`配置了索引器的日志类型,`druid.coordinator.autoManageTaskStatus`配置了协调器是否自动管理任务状态,`druid.overlord.autoscale.enabled`配置了扩缩容功能是否启用。 此外,还可以配置查询相关的参数,例如`druid.broker.cache.useCache`配置了是否使用缓存,`druid.query.groupBy.maxResults`配置了查询结果的最大返回数量等。 以上仅为Druid配置的简单示例,实际使用中还需要根据具体需求进行更详细的配置和优化。 ### 回答3: Druid是一种开源的分布式实时分析系统,用于处理大规模的数据集并提供快速的查询和聚合功能。以下是一个Druid配置示例: ```javascript { "dataSources": [ { "name": "example", "type": "index", "spec": { "dataSchema": { "dataSource": "example", "parser": { "type": "string", "parseSpec": { "format": "json", "timestampSpec": { "column": "timestamp", "format": "auto" }, "dimensionsSpec": { "dimensions": [ "dimension1", "dimension2" ], "dimensionExclusions": [], "spatialDimensions": [] }, "flattenSpec": { "columns": ["column1", "column2"], "delimiter": "," }, "columns": [ "timestamp", "dimension1", "dimension2", "column1", "column2" ] } }, "granularitySpec": { "type": "uniform", "segmentGranularity": "DAY", "queryGranularity": "HOUR", "intervals": ["2019-01-01/2019-12-31"] }, "metricsSpec": [ { "name": "sumColumn1", "type": "doubleSum", "fieldName": "column1" }, { "name": "countColumn2", "type": "count", "fieldName": "column2" } ] }, "ioConfig": { "topic": "example-topic", "consumerProperties": { "bootstrap.servers": "localhost:9092", "group.id": "druid-kafka-consumer" } } } } ] } ``` 上述配置示例中,我们定义了一个名为"example"的数据源,类型为索引。数据源使用了JSON格式的数据,并包含了时间戳、维度和指标等字段。时间粒度设置为天,查询粒度设置为小时,所涵盖的时间范围为2019年1月1日至2019年12月31日。我们定义了两个指标:sumColumn1表示column1字段的总和,countColumn2表示column2字段的计数。数据源通过Kafka主题"example-topic"进行输入。 以上是一个简单的Druid配置示例,通过类似的配置,可以定义更复杂的数据源、维度和指标。这样的配置能帮助我们在Druid中实现快速、灵活的数据分析和查询。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值