- 博客(1158)
- 收藏
- 关注
原创 在Trae上使用Bright Data MCP采集数据
其实网页爬虫也一样,爬虫说到底就是收集数据,和你平时浏览网页没区别,只不过是用脚本批量化的去采集数据,AI大模型的出现让爬虫也开始进化,传统的Python爬虫、软件爬虫在慢慢被AI爬虫取代,比如说我常用的一个数据采集MCP-Bright Data MCP,能通过Trae这样的Agent调用,直接用自然语言就可以采集目标网站的数据,完全不用写代码,甚至你都不用打开目标网站。Trae是近一年比较流行的AI编辑器,字节开发的产品,类似于VsCode,但Trae有更强的AI编程能力,比如搭建智能体、布置MCP等。
2026-03-26 18:14:12
638
原创 如何学习tableau?
使用这些,您构建的视图传统上称为报告。当你去网上搜索Tableau,会发现关于tableau的咨询和教程并不多,也就是说tableau在国内还只是一个偏小众的软件,没办法像excel那样有很多的学习资源。这里学习的是tableau最最核心的产品Desktop,也就是大众口中的tableau,你可以利用它强大的分析能力完成各种指标的分析,并以丰富的可视化效果展现数据。上面创建的视图需要进一步增强使用过滤器,聚合,轴标签,颜色和边框的格式。我们创建不同的工作表,以便对相同的数据或不同的数据创建不同的视图。
2026-03-26 18:13:12
317
原创 什么是自助式BI?和传统BI(商业智能)相比有何优劣势?
Python适合多数非程序员群体编程,自助式BI也更适合普通业务人员上手,这些BI都有友好的软件客户端,能更容易地进行可视化分析,而且一般是高频的分析场景,包括研究统计分布、制作图表、搭建看板、上传报表等,代表BI工具有Tableau、Java适合专业程序员开发软件,传统BI同样需要程序员来开发,需要懂一些前端、数据库、ERP知识,因为传统BI核心任务是搭建看板和大屏,不是那么高频的需求,但追求稳定、大气、酷炫,能支持大数据的接入,起码在国内是这样。等,还有些用BI软件搭建,比如。
2026-03-25 19:00:00
231
原创 “龙虾”(OpenClaw)怎么养最安全?
另外openclaw是依托于skills来工作的,除了官网默认的skills,其他三方的skills都有可能存在风险,所以安装前你需要检查下skills md文本,或者扔给。这几类风险都很严重,就拿skills投毒来说,skill提示词可能会有窃取密钥、部署木马后门软件的指令,如果你不经检查的随意安装别人的skills,就很有可能中招。其实99%的人也只是凑热闹,玩玩openclaw,干不了什么正经事,要么满足好奇心,要么为了朋友同事聚在一起能吹nb,不显得自己太落伍。现在很多任务可以通过豆包、
2026-03-25 18:59:27
42
原创 selenium采集数据怎么应对反爬机制?
亮数据还有网页解锁功能,即Web Unlocker ,相当于把负责反爬处理机制放到一个接口里,你只需向Web Unlocker发送目标 URL,所有复杂的解锁过程(包括处理反机器人措施、执行 JavaScript、管理 cookie 和会话、轮换 IP 地址)都在后台自动完成,你会收到目标URL的完整 HTML或JSON响应。对于爬虫而言,最难的不是解析网页,而且应对反爬机制,比如动态网页、IP封禁、人机验证等等,这是爬虫工具没法自行解决的。如何使用Selenium抓取网页呢?可以看以下的代码示例。
2026-03-24 11:19:38
378
原创 3个目前最好用的爬虫软件,简单好操作
插件支持多种数据类型采集,并可将采集到的数据导出为多种格式。、亮数据浏览器、SERP API等,能够自动化地从网站上抓取所需数据,无需分析目标平台的接口,直接使用亮数据提供的方案即可安全稳定地获取数据。另外,亮数据浏览器内置了自动网站解锁功能,能够应对各种反爬虫机制,确保数据的顺利抓取。无论是需要简单快速的数据采集,还是复杂的定制化服务,八爪鱼爬虫、亮数据爬虫和Web Scraper都能满足采集需求。八爪鱼支持多种数据类型采集,包括文本、图片、表格等,并提供强大的自定义功能,能够满足不同用户需求。
2026-03-24 11:17:38
727
原创 Everything这么快,Windows自带搜索为啥做不到?
作为日常电脑重度使用用户,有一个软件是我必装的,那就是搜索工具Everything,因为Windows自带搜索太难用了,不仅速度慢,而且很难搜到想要的内容。这主要是因为Everything只检索电脑中的文件名及路径名,快速建立轻量数据库,索引一百万份文件一般只需要一分钟,当你关键字搜索时,是瞬时相应。这里简单介绍下Everything,它是一款轻量级的文件搜索工具,占用内存小(不到2MB),搜索速度快(秒级响应),文件检索功能强。不,"Everything" 仅需要使用非常少的系统资源。
2026-03-24 11:15:51
188
原创 使用龙虾采集跨境电商数据,零代码实现
刚好有个朋友是做跨境3D打印业务,平时需要分析相关3D打印商品价格趋势,我帮他写个可以用于采集跨境电商商品的skill,部署在openclaw里,能通过钉钉对话输入商品关键词,自动采集对应的商品信息,完全不需要再写任何代码。创建这个skill还需要两个工具,一个是trae或者vscode编辑器,另一个是Anthropic发布的用于创建skill的skill,名字叫作skill-creator,你可以在github中找到它。这样ai会自动调用skill-creator技能,来创建新的skill。
2026-03-24 11:15:27
908
原创 virtualenv,非常强大的Python虚拟环境工具,强烈推荐~
虚拟环境的作用是给Python项目单独设置一个封闭空间,这个封闭空间包含了专属的Python解释器,pip工具,以及site-packages 目录,用于安装各种依赖,这样就不会影响全局环境和其他项目,也更更好地对本项目进行依赖版本的管理。在进行Python开发项目时,经常会用到各种依赖库,为了保持每个代码项目的独立性,以及避免与其他项目库相互干扰,导致版本冲突,这时候单独创建一个虚拟环境就很有必要。virtualenv是第三方库,所以需要先安装virtualenv,可以使用pip来安装。
2026-03-22 23:22:29
69
原创 pandas实现sql的case when查询,原来这么简单!
sql中的case when的功能是实现单列或者多列的条件统计,其实Pandas也可以实现的,比如万能的apply方法,就是写起来复杂一些,没有sql case when那么直观。举个例子,一张考试成绩的表scores,有语文和数学的得分,现在给考生综合打分,两门都在90以上打A,都在80-90之间打B,其他则打C。逻辑也很简单,判断函数实现多列的判断条件,apply将该判断函数应用到数据集上,就能实现类似sql case when的功能。这里如果用sql来查询的话,使用case when就很简单明了。
2026-03-22 23:21:55
44
原创 python的包管理器uv可以替代conda吗?
搞数据和算法的把conda当宝贝,其他的场景能替代。Python的包管理器有很多,pip是原配,uv是后起之秀,conda则主打数据科学。uv替代pip似乎只是时间问题了,它能做pip所有能做的事,不光可以作为包管理器,还能管理虚拟环境,而且比pip更快。而且快的不是一丢丢,你随便安装个pandas试试,uv几乎是pip速度的几十倍。
2026-03-22 23:21:24
199
原创 Markdown是什么,为什么会流行?
markitdown是Python的一个第三方库,它的优势在于非常轻量化,而且api简单,在将其他文档内容转换为markdown格式的同时,还能保留文档格式,比如表格、标题、链接之类。因为它们代表着你和ai交流的最优方式,英语就不多说了,全世界最好的llm训练的语料库八九成是英文的,因为英文的互联网语料数量大、质量高,别的不说,大家都在做的。总而言之,英语、markdown、python很重要,它们就像是ai的骨骼、血液、五官、四肢,但学习它们都不难,甚至是容易的。
2026-03-20 12:05:07
213
原创 tkinter可以做出多复杂的界面?
因为tkinter就像是一个随拿随用的小工具箱,你用它做个小板凳、小椅子是可以的,但不能指望它造汽车,而PyQt、wxPython则像一个大型制造车间,工具齐全、流程完善,汽车飞机大炮都可以造。最重要的一点是,得确保数据采集的安全性,这些专利数据是公开数据,原则上没问题,但数据采集过程不能干扰到网站的正常运行,还得符合不同国家的合规性要求。tkinter本身就是个轻量化的GUI开发工具,不适合做复杂的交互界面,那些炫技的其实很多是花架子,不实用,真要开发复杂美观的交互界面,可以去用。
2026-03-20 12:04:36
385
原创 AnyGen走的不是NotebookLM的路子
最后我测试了AnyGen的批量调研功能,它可以根据简单的需求,收集数据形成复杂的调研报告,适合学习研究,类似于Gemini的deep reaserch,不过它交付的文件更多,有PDF、word文档、ppt等。总的来说,AnyGen是字节迈向通用Agent的很重要的一步,其显现出的目的也很明确,不再满足对话大模型的限制,要用AI一键搞定日常办公的各种需求,直接交付结果,不需要人来指挥、确认。包括但不限于文档、PDF、Word、PPT、网页等,而且产出内容既可以是专业的分析报告,还可以是故事绘本,调研论文等。
2026-03-19 17:51:17
395
原创 跨境电商商品采集skill来了,可部署openclaw,不用Python也能搞定爬虫
最近openclaw养龙虾的热潮带动了skill的爆发,github上各种skill层出不穷,可以解决繁杂的办公自动化任务,比如生成ppt、运营媒体账号、审查代码等,skill已经成为ai时代的“万能软件”。刚好有个朋友是做跨境3D打印业务,平时需要分析相关3D打印商品价格趋势,我帮他写个可以用于采集跨境电商商品的skill,部署在openclaw里,能通过钉钉对话输入商品关键词,自动采集对应的商品信息,完全不需要再写任何代码。最终实现的核心功能有2个:1、输入关键词获取商品信息。
2026-03-19 15:36:33
934
原创 这个科研绘图Python库非常强大,你用过吗?
matplotlib是Python中最底层的绘图库,它支持二维、三维、交互式等各种图表,而且通过元素化的模式能设计图表的任何细节,定制化程度非常高,很多可视化库都是基于matplotlib做二次开发的,或者是matplotlib的拓展,比如seaborn、pandas、mplfinance、DNA Features Viewer等,它们能应用于数据科学、金融量化、生物医学等各领域科研绘图。另外,matplotlib有一个示例集,里面有各式各样的专业图表,有的只需要换换数据就能为自己所用。
2026-03-18 17:38:24
226
原创 Python包管理器 uv是否替代conda?
同样安装numpy、scipy,用conda安装的版本性能会比pip、uv安装的强悍很多,因为conda会集成MLK去优化相关计算库的性能,而且也会识别不同 CPU 架构(像是Intel/AMD/ARM)生成优化代码,使得numpy、scipy计算效率大幅提升。但uv是否能替代conda需要打个问号,因为conda在数据科学领域浸润的太深了,Anaconda、miniconda就是基于conda开发的Python发行版,专门用来用于科学计算和机器学习的开发。python的包管理器uv可以替代conda吗?
2026-03-18 17:37:51
376
原创 使用Dify搭建工作流,实现自动化商品采集分析
然后开始创建“亮数据网页抓取器”节点,选择“Structured Data Feeds”,并且设置输入变量描述、目标url,选择上一节点的输入变量“product_url”,由于亮数据key在之前已经配置好,这里可以直接用。其中用于数据采集的是亮数据网页抓取器,Dify上有相应的插件接口,它可以对亚马逊等跨境平台进行关键字段采集,并能自动处理平台的反爬限制,比如设置ip代理池、验证码解锁等技术,所以是比较省心的一个爬虫接口。执行工作流任务,它就会先采集数据,然后LLM分析数据,最后输出结论。
2026-03-17 10:58:34
750
原创 使用Python和亮数据采集器搭建专利查询GUI系统
最近听某个律师朋友说,虽然现在AI、数字化已经很普遍了,但其实还有很多垂直行业的数据要靠手工拉,比如律师常用的专利信息,需要从各个国家的专利网站去查询,诸如USPTO(美国专利商标局)、谷歌Patent等,然后汇总到Excel中,重复性和碎片化非常严重,这可是上百个国家、上亿条数据呀。最重要的一点是,得确保数据采集的安全性,这些专利数据是公开数据,原则上没问题,但数据采集过程不能干扰到网站的正常运行,还得符合不同国家的合规性要求。为了让不同数据源的查询结果能够统一展示,系统定义了一套标准的数据结构。
2026-03-17 10:57:50
541
原创 这个爬虫工具采集跨境电商数据,真的好用
就我个人经验来看,数据爬虫是很费时间的技术,特别对于中小公司和个人,我曾经想研究下某音用户短视频的评论情感倾向,需要大概100万条级以上的数据,光是写代码有上千行,虽然是公开数据,但会面临各种反爬手段,最后脚本磨了两三天才能正常稳定的运行。
2026-03-16 09:40:16
1139
原创 数据采集必备的7个低代码爬虫软件
无论是需要简单的数据抓取,还是复杂的数据挖掘和分析,市场上的爬虫工具都能提供相应的解决方案。同时,使用爬虫软件时,也应遵守相应的法律法规,尊重数据的版权和隐私。亮数据是一款强大的数据采集工具,以其全球代理IP网络和强大数据采集技术而闻名。它能够轻松采集各种网页数据,包括产品信息、价格、评论和社交媒体数据等。爬虫,又称为网络爬虫或网页爬虫,是一种自动浏览互联网的程序,它按照一定的算法顺序访问网页,并从中提取有用信息。八爪鱼是一款面向非技术用户的桌面端爬虫软件,以其可视化操作和强大的模板库而受到青睐。
2026-03-16 09:39:16
1439
原创 XlsxWriter,一款强大的Python Excel处理库
这里重点讲讲XlsxWriter,非常擅长写入Excel。而且XlsxWriter非常适合Excel大数据的写入,因为它有一种特殊的“常量内存”管理模式,可以一边写入新数据,一边删除内存的中旧数据,不会占用内存,因此可以支持超大数据量的处理。可以看到XlsxWriter非常的简单,但却很强大,搭配Pandas来用效果更好,最后放一个使用xlsxwriter做的商业化看板,一键导出,非常方便。它的处理机制时,写入新的数据时,在内存中删除旧的数据,这样内存不会被一直占用,还能保证数据可以持续写入。
2026-03-15 16:43:25
182
原创 收藏!使用Python读写Excel大数据文件的3种有效方式
Python处理Excel大数据有很多方式,不过Excel撑死才104万行,能有多大的数据,一般用pandas读取就可以,pandas有专门的分块读取模式,比如说每次只读取1万行用于处理,这样就不会太占用内存。另外一个可以大规模写入数据,不占用内存的是库是XlsxWriter,它有个“常量内存”模式,支持每写入一行,就在内存中清除上一行占用的空间,意味着内存只存有一行数据,永远是够用的。OpenPyXL也可以流式写入Excel,原理同读取一样,采用write_only模式。
2026-03-15 16:42:37
56
原创 我常用的两个可视化图表软件,强烈推荐~
PowerBI是微软开发的一款BI工具,是从Excel和SQLServer发展而来的,所以与微软生态集成的非常好,很适合与Excel、SQLServer、Azure进行交互,所以也逐步发展为最受欢迎的BI工具,常年排在Gartner BI榜第一名。我用了将近8年的BI工具,用来分析数据、制作可视化图表、搭建业务看板,对目前主流的BI的工具算比较熟悉了,比如主流的商业BI工具PowerBI、Tableau,国产的FineBI、QuickBI,还有开源的Superset、Dataease。
2026-03-15 16:41:59
238
原创 在Trae上使用Bright Data MCP采集数据
其实网页爬虫也一样,爬虫说到底就是收集数据,和你平时浏览网页没区别,只不过是用脚本批量化的去采集数据,AI大模型的出现让爬虫也开始进化,传统的Python爬虫、软件爬虫在慢慢被AI爬虫取代,比如说我常用的一个数据采集MCP-Bright Data MCP,能通过Trae这样的Agent调用,直接用自然语言就可以采集目标网站的数据,完全不用写代码,甚至你都不用打开目标网站。Trae是近一年比较流行的AI编辑器,字节开发的产品,类似于VsCode,但Trae有更强的AI编程能力,比如搭建智能体、布置MCP等。
2026-03-15 16:41:16
393
原创 为什么这么多人质疑SQLite数据库?
比如在Trae里,SQLite MCP,能直接从集市里添加,然后在配置信息里输入前面的my_db.db数据库路径地址,保存即可。你也可以在Python对SQLite数据库进行操作,会用到SQLite库,这是Python标准库,不需要额外安装。说回来,SQLite是一个轻量化的开源数据库,它没有服务器,无需复杂的配置安装,就可以直接用,非常适合单机场景。所以说SQLite的应用场景非常广,绝对是良心数据库,体积小、安装快、无需配置,简直就是数据库中的小钢炮。最近看到有个问题:SQLite用的人多吗?
2026-03-15 16:40:37
195
原创 Dbeaver可能是最好的免费SQL工具
MySQL不用多说,是目前市占率最高的开源数据库,大大小小互联网公司都在用,所以学习性价比最高。因为数据库本身只是用来存储管理数据,如果我们想要有更舒服的界面写SQL,必须得安装Dbeaver这样的数据库管理工具。我一开始练习SQL是在Access上,这是微软office自带的数据库,可以图形化操作,像Excel一样,当然也可以在Access上写SQL代码。打个比方,MySQL、Dbeaver的关系类似于马和鞍,好马配好鞍,SQL才能写的棒。Dbeaver,安装很简单,一路next。
2026-03-12 13:32:48
237
原创 “龙虾”(OpenClaw)怎么养最安全?
另外openclaw是依托于skills来工作的,除了官网默认的skills,其他三方的skills都有可能存在风险,所以安装前你需要检查下skills md文本,或者扔给。这几类风险都很严重,就拿skills投毒来说,skill提示词可能会有窃取密钥、部署木马后门软件的指令,如果你不经检查的随意安装别人的skills,就很有可能中招。其实99%的人也只是凑热闹,玩玩openclaw,干不了什么正经事,要么满足好奇心,要么为了朋友同事聚在一起能吹nb,不显得自己太落伍。现在很多任务可以通过豆包、
2026-03-12 13:01:28
259
原创 数据分析人员需要掌握sql到什么程度?
这里简单科普下MCP,它是模型上下文协议,是Claude提出来的,用于在模型中调用外部的工具和数据,比如说调用google搜索、高德地图、支付宝、12306等功能,给大模型增加了很多能力。魔搭还有个比较好玩的功能-MCP广场,我很喜欢里面各种新奇好玩的MCP服务,配合DeepSeek、qwen等大模型一起用,能有想象不到的强大功能。魔搭广场的MCP非常齐全,有点类似于GitHub的仓库,包括了开发者工具、搜索工具、日程管理、浏览器自动化等常用的MCP,应该有上千个。最终大模型会调用MCP查询到相关火车票。
2026-03-11 13:46:24
261
原创 可别盲目安装openclaw,“养龙虾”须谨慎
另外openclaw是依托于skills来工作的,除了官网默认的skills,其他三方的skills都有可能存在风险,所以安装前你需要检查下skills md文本,或者扔给豆包,让AI检查检查。这几类风险都很严重,就拿skills投毒来说,skill提示词可能会有窃取密钥、部署木马后门软件的指令,如果你不经检查的随意安装别人的skills,就很有可能中招。其实99%的人也只是凑热闹,玩玩openclaw,干不了什么正经事,要么满足好奇心,要么为了朋友同事聚在一起能吹nb,不显得自己太落伍。
2026-03-11 13:44:49
87
原创 使用Python和亮数据采集器搭建专利查询GUI系统
最近听某个律师朋友说,虽然现在AI、数字化已经很普遍了,但其实还有很多垂直行业的数据要靠手工拉,比如律师常用的专利信息,需要从各个国家的专利网站去查询,诸如USPTO(美国专利商标局)、谷歌Patent等,然后汇总到Excel中,重复性和碎片化非常严重,这可是上百个国家、上亿条数据呀。最重要的一点是,得确保数据采集的安全性,这些专利数据是公开数据,原则上没问题,但数据采集过程不能干扰到网站的正常运行,还得符合不同国家的合规性要求。为了让不同数据源的查询结果能够统一展示,系统定义了一套标准的数据结构。
2026-03-09 14:11:38
932
原创 程序员必备的6款爬虫软件,搞定复杂数据抓取任务
另外,亮数据浏览器内置了自动网站解锁功能,能够应对各种反爬虫机制,确保数据的顺利抓取。、SERP API等,能够自动化地从网站上抓取所需数据,无需分析目标平台的接口,直接使用亮数据提供的方案即可安全稳定地获取数据。插件,用户无需安装额外的软件,即可在Chrome浏览器中进行爬虫。无论是需要简单快速的数据采集,还是复杂的定制化服务,八爪鱼爬虫、亮数据爬虫和Web Scraper都能满足采集需求。八爪鱼支持多种数据类型采集,包括文本、图片、表格等,并提供强大的自定义功能,能够满足不同用户需求。
2026-03-09 14:10:45
1665
原创 我常用的爬虫神器,低代码采集Tiktok商品海量数据
最近用到一个非常简单的高级爬虫工具,亮数据的Scraper APIs,你可以理解成一种爬虫接口,它帮你绕开了IP限制、验证码、加密等问题,无需编写任何的反爬机制处理、动态网页处理代码,后续也无需任何维护,就可以“一键”获取Tiktok、Amazon、Linkedin、Github、Instagram等全球各大主流网站数据。1、在云上向Tiktok发出http数据请求 2、模拟登陆、配置IP代理、动态访问、识别验证码、破解加密数据等 3、解析获取的HTML,提取重要的字段,输出为json格式。
2026-03-09 14:10:00
1538
原创 Python哪个Excel库最好用?
可以看到XlsxWriter非常的简单,但却很强大,搭配Pandas来用效果更好,最后放一个使用xlsxwriter做的商业化看板,一键导出,非常方便。因为XlsxWriter是将数据保存在内存中的,如果需要写入的数据量很大,连内存都扛不住了,XlsxWriter有专门的内存管理模式可以处理。它的处理机制时,写入新的数据时,在内存中删除旧的数据,这样内存不会被一直占用,还能保证数据可以持续写入。”管理模式,可以一边写入新数据,一边删除内存的中旧数据,不会占用内存,因此可以支持超大数据量的处理。
2026-03-08 23:13:08
191
原创 如何应对网站反爬虫策略?如何高效地爬大量数据?
如果是技术小白,不会写上面提到的那些规避措施代码,就可以尝试用亮数据的这样的采集api,它把各种规避检测的技术、IP代理池都封装到一个接口里,还提供专门的云上浏览器,用selenium接入,和普通浏览器一样,有头无头都支持,但不需要再写各种反爬措施之类的脚本,比较简单直接。Scraper APIs是亮数据专门为批量采集数据而开发的接口,支持上百个网站,200多个专门API采集器,例如商品、短视频数据采集器,当然这些数据都是公开可抓取的,不会涉及任何隐私安全问题。协议,还得控制爬取频率,合法合规最关键。
2026-03-08 23:11:22
740
原创 Matplotlib 基本用法是什么?
是Python最强大的可视化库,可以绘制各种二维、三维图表,对图表元素的可定制化程度很高,什么坐标轴、刻度尺、标签、图标、颜色、背景、标记类型等等都可以自由设置,可以说基本没有你用matplotlib绘制不了的图表,如果有,那是你对matplotlib还不够熟悉。Matplotlib可以绘制折线图、散点图、柱状图、饼图等各种图表,使用plot方法来实现,也可以用scatter、bar、pie等方法绘制各种类型图表。等,尤其Seaborn是matplotlib的高级封装版,用更少的代码实现更美观的图表。
2026-03-08 23:10:51
365
原创 为什么周围人都推荐用vscode,真的好用吗?
vscode最受欢迎的功能是它的插件库,和Python有点像,Python因为第三方库生态极为丰富好用,成为最流行的编程语言,vscode也是囊括了成千上万种插件,比如python、jupyter、C++、docker、maven等常用插件。这需要从vscode本身的特性说起,其实它设计之初是一款基于Web的代码编辑器,主打跨平台、轻量化、插件丰富,后来逐步发展成了桌面端软件,成为了集编辑器、编译器、代码调试、插件库于一体的轻量化IDE。等,安装非常简单,直接能在代码框中使用,不需要额外安装软件。
2026-03-08 21:14:06
284
原创 不会markdown,你可能没法用好ai
因为它们代表着你和ai交流的最优方式,英语就不多说了,全世界最好的llm训练的语料库八九成是英文的,因为英文的互联网语料数量大、质量高,别的不说,大家都在做的vibe coding,都是拿github、stackoverflow等数据训练的。最后是python,不要总觉得python就是培训班骗钱的,学了也找不到工作,但在ai世界,python就是所有ai构建的基座,pytorch、tf、pp等各种深度学习框架都是python原生工具,没有它们也就没有llm。
2026-03-05 18:58:34
253
原创 入坑OpenClaw,养龙虾玩skill的几个技巧
用openclaw要抱着玩的心态,多尝试,多犯错,网上传的那些用openclaw炒股、套利的事情,虽存在过度夸张的嫌疑,但确实有人走通了,尝过甜头,这就是openclaw有意思的地方,它像矿山,需要你深挖,才能找到“金子”。说回正题,这两天持续在摸索openclaw用法,它的能力都是基于skill来实现的,skill是agent的可执行能力单元,就像一个个干活机器人,LLM会将你的对话指令匹配到合适的skill,然后开始干活。(这些内置skill非常成熟,已经成为最受欢迎的技能)
2026-03-05 16:28:05
434
原创 做编程开发,真的要用Mac吗?
以上是我用Mac下来的几点感受,但这仅代表Mac在编程开发上的优势,也包括设计、自媒体等,如果是普通场景使用电脑,比如日常办公、娱乐消遣、打游戏等,其实Windows更好用。3、Mac系统更加流畅,这和iPhone一样,哪怕是8G/256G的丐版,打开五六个IDE也不会卡,对于编程来说,卡顿或者无缘无故死机真的没法忍受。程序员很多系统都是基于Linux开发的,除了游戏开发、客户端开发之外,Mac开发的东西能无缝部署到Linux,不需要处理兼容的问题。
2026-03-04 16:23:21
158
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅