NLP
文章平均质量分 87
Yang-ai-cao
前进!
展开
-
如何解读 Yann LeCun 5 月 23 日的推文建议学生不要在大模型方向工作?
当前,LLM(大型语言模型)方向的研究主要有两种模式:一是通过调用API进行实验,使用少量数据,尽管需要自费购买tokens,但由于OpenAI的费用已降低,这部分成本尚可承受;二是调用开源模型,通常大小在7B左右,目前主流模型从llama2切换到llama3 8b,并在此基础上进行微调和改进,这需要一定的显卡资源。此外,RAG(检索增强生成)方向的研究在2023年还集中于修改检索部分,将大模型视为黑盒,而今年则开始注重微调,缺乏实力的研究者难以发表论文。因此,在学校中研究大模型并不是一个好的方向。原创 2024-05-29 14:21:39 · 459 阅读 · 0 评论 -
【推荐系统】深入理解:从基础到前沿
优势:矩阵分解方法在处理大规模数据和捕捉隐含特征方面表现出色,特别是能够有效地处理稀疏矩阵。- 挑战:需要大量计算资源,尤其是在处理超大规模数据集时。原创 2024-05-28 09:45:15 · 2950 阅读 · 0 评论 -
【深度学习】基于BERT模型的情感分析(附实战完整代码+数据集)
情感分类是一个快速发展的研究领域,尽管众多模型和数据集在二分类任务中显示出很高的准确性,但细粒度的情感分类任务仍然是一个很大改进空间的领域。分析SST-5数据集,Munikar等人的先前工作表明,嵌入工具BERT允许使用简单的模型来实现最新的准确性。原创 2024-02-15 08:58:39 · 10545 阅读 · 27 评论