转转前端周刊第119期: Chrome 居然提供了可以直接调用 LLM 的 API!

a176d9e6c45cdd8f3027121643896af1.png

转转前端周刊

本刊意在将整理业界精华文章给大家,期望大家一起打开视野

如果你有发现一些精华文章想和更多人分享,可以点击我们的公众号名称,将文章链接和你的解读文案发给我们!我们会对内容进行筛选和审核,保留你的推荐人署名,分享给更多的人

1、Chrome 居然提供了可以直接调用 LLM 的 API!

如果想要在 Web 上使用 AI 功能往往需要靠服务器来处理一些非常大的模型。这在制作一些生成内容的 AI 方面尤其常见,因为这些模型的大小是一个普通网页容量的好几千倍,对于其他种类的 AI 功能也是一样,其中模型的大小可能会在几十到几百兆字节之间。每个使用这些模型的网站都需要在用户打开网页时下载这些大模型,这对开发者和用户来讲,并不是一件轻松的事情。为此,Google 正在开发一系列的 Web 平台 API 和浏览器功能,目的是让 AI 模型,包括大型语言模型,可以直接在浏览器中运行。

2、为什么 Next.js 不用 Vite 而要自造轮子 Turbopack?

Next.js 的 Github issues 中有一个帖子,反馈了 Next.js 的开发模式编译很慢[1],自 2023 年 4 月 23 日提问以来,现在已经有 468 多条讨论!看来这个问题不只一个人遇到,做为一个使用过 Next.js 的用户来说,Next.js 的其它方面还可以,但是开发体验真是挺糟糕的...

3、当前端谈数据时,我们在谈些什么

作为前端,和业务上下游交流数据的时候,经常会出现页面 PV、UV、点击率、转化率等中英混杂不知所云的名词。特别是在存量竞争的当下,数据更是频频出现在高层的目标和规划中。

4、前端如何使用GPGPU做加速计算?《模拟鸟类群居行为》

什么?业务上有千亿级数据需要计算?别着急,看完这篇文章!!!阅读这篇文章,有webgl / glsl 基础会阅读更加顺利一些,其中有 wgsl 着色器部分,即使它与 glsl 完全不同

5、如何在线上使用 SourceMap

平日开发过程中,大家是如何调试线上问题的呢?,还有没有人在用 SourceMap 调试啊?通过 SourceMap,我们可以在浏览器内,直接看到源码,而不是编译、压缩、混淆后的部署产物。

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值