- 博客(3)
- 收藏
- 关注

原创 【BLIP】解读BLIP
BLIP,全称是Bootstrapped Language-Image Pretraining,源自《BLIP: Bootstrapping Language-Image Pre-training for Unifified Vision-Language Understanding and Generation》这篇文章,是来自Salesforce Research的一个多模态模型。
2025-05-05 10:51:14
972
原创 【BERT】详解BERT
BERT,全称Bidirectional Encoder Representation of Transformer,首次提出于《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》一文中。简单来说,BERT是使用了Transformer的encoder(即编码器)部分,因此也可以认为BERT就是Transformer的encoder部分。
2024-05-25 09:20:33
928
4
原创 关于Python中np.linalg.norm()的一个小细节
res=np.linalg.norm(x)当参数axis如果是None,那么返回的res是矩阵范数还是向量范数,会根据传入x的是几维自动变化,一维就是向量范数,二维就是矩阵范数
2021-10-15 17:07:50
513
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人