大模型日报
2024-08-01
大模型资讯
-
摘要: 2024年7月24日,Mistral AI宣布推出其下一代旗舰大型语言模型Mistral Large 2,该模型现已在IBM watsonx™平台上可用。Mistral Large 2是一款先进的多语言大型语言模型,旨在提升语言处理能力。
-
摘要: 科技巨头Meta宣布其最新的开源AI模型Llama 3.1具备'最先进的能力',被称为全球最大和最强的AI模型。
-
摘要: 百度推出了一种新型自我推理AI框架,旨在提升语言模型的可靠性,有望消除语言模型中的“幻觉”现象。这一技术进展可能会为AI应用带来更高的准确性和可信度。
-
摘要: Anton Korinek总结了大型语言模型(LLMs)的新发展,并展示了LLMs在经济研究中的最新应用案例。
-
摘要: 一种名为Thermometer的新校准技术专为大型语言模型设计,能够防止LLMs在回答问题时过于自信或缺乏自信。该方法有效提升了AI模型的回答准确性和可靠性。
-
摘要: Lean Copilot是一种AI工具,使大语言模型(LLMs)能够在Lean中用于定理证明自动化。定理证明是形式化数学和计算机科学中的关键环节,但通常具有挑战性且耗时。
-
摘要: rLLM(relationLLM)是一个基于PyTorch设计的库,旨在利用大型语言模型进行关系表学习(RTL)。大型语言模型在人工智能领域展现了强大的能力。
-
摘要: 在设计机器学习模型时,研究人员首先训练模型以识别数据模式,然后测试其有效性。为了有效测试脑行为机器学习模型,需要使用大规模的数据集。
-
摘要: 该项目旨在利用Rockchip NPU实现一个本地聊天机器人应用,运行大型语言模型(LLM)。
-
摘要: AMD的MI300X加速器具有高内存带宽和容量,能够提升大语言模型的性能和效率。
大模型产品
大模型论文
-
摘要: ThinK通过剪枝KV缓存中的冗余通道,在不损失精度的情况下减少超过20%的内存消耗,有效提升LLM推理效率。
-
摘要: CLEFT方法利用高效大语言模型及提示微调,显著减少训练资源需求,并在多项医学影像数据集上表现出色。
-
摘要: 本研究通过分析2,213篇论坛帖子和文章,识别了技术债务相关的8个主要话题和43个子话题,探讨了开发者的正负面观点。
-
摘要: 提出MoFO算法,通过选择动量较大的参数更新,避免知识遗忘,无需预训练数据且不改变损失函数。
-
摘要: 本文提出了一种基于LLM和外部知识库的可追溯问答方法,通过减法反事实推理计算特征重要性,生成自然语言解释。
-
摘要: 文章概述了在边缘物联网网络中使用大语言模型进行语义通信的框架,讨论了应用、挑战和机遇。
-
摘要: MMTrail是一个包含超过20M预告片视频和多模态描述的大规模数据集,支持精细化多模态语言模型训练。
-
摘要: 提出一种基于大语言模型的自动化文献综述生成方法,显著减少认知负荷,验证在丙烷脱氢催化剂上的应用效果。
-
摘要: ThinkRepair通过自我指导的LLM,分为收集和修复两个阶段,有效提升了程序修复性能,显著超越现有方法。
-
摘要: 本文提出了一种针对Transformer情感分析网络的覆盖标准,利用k投影覆盖度量生成测试案例,实验表明测试覆盖率提高16%,模型准确率下降6.5%。
大模型开源项目
-
摘要: Qlib是一个AI量化投资平台,支持多种机器学习模型,从研究到生产实现价值。
本文由 mdnice 多平台发布