自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 问答 (3)
  • 收藏
  • 关注

原创 7.7 - Taming Transformers for High-Resolution Image Synthesis

Transformer设计之初要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。顶顶顶顶顶顶顶long-range interactions (长程长时间相互作用)

2024-07-07 18:28:08 618

原创 法律文书生成大模型(十九)

随着项目的圆满结束,是时候对整个项目进行一次全面的总结,并展望未来的发展方向了。在过去的一段时间里,我们团队共同努力,克服了许多挑战,取得了显著的成果。接下来,我将从项目的主要成果和亮点、遇到的问题和解决方案,以及未来的研究方向和发展计划三个方面进行阐述。例如,在项目管理方面,我们采用了先进的项目管理工具和方法,确保了项目的顺利进行;在技术创新方面,我们积极探索新的技术和方法,为项目的成功实施提供了有力支持。首先,回顾项目的主要成果,我们成功实现了预期目标,并在多个方面取得了显著的进展。

2024-06-25 00:10:05 369

原创 法律文书生成大模型(十七)

为了不断提高模型的性能,收集和分析用户反馈,并基于这些反馈进行模型迭代和优化成为了必不可少的步骤。通过收集和分析用户反馈、制定基于反馈的迭代策略以及在迭代过程中进行性能监控和评估,我们可以不断提高模型的性能和用户体验,打造出更加符合用户需求的AI模型。在收集到用户反馈后,我们需要进行深入的分析,找出模型存在的问题和不足,并确定改进的方向。在模型迭代过程中,我们需要对模型的性能进行持续的监控和评估,以确保模型的性能能够稳步提升。用户反馈是模型优化的重要依据,它反映了模型在实际使用中的表现以及用户的期望。

2024-06-24 13:23:59 301

原创 法律文书生成大模型(十八)

通过本次模型部署和性能优化工作,我们成功将ChatGLM模型应用到了法律意见提供及法律文书自动生成系统中,并提升了系统的性能和安全性。未来,我们将继续关注新技术和新方法的发展,不断优化和完善系统,为用户提供更加高效、准确和安全的法律服务。随着法律意见提供及法律文书自动生成系统的开发逐渐进入尾声,我们面临着将训练好的模型部署到实际生产环境中的重要任务。本篇博客将详细介绍模型部署的过程,以及我们在部署过程中遇到的性能挑战和优化措施。

2024-06-24 13:22:55 406

原创 法律文书生成大模型(十六)

本文将深入探讨系统集成的步骤和方法、测试用例的设计和执行,以及测试结果的分析和问题解决。通过合理的集成步骤和方法、精心的测试用例设计和执行、以及深入的问题分析和解决,可以确保整个系统的功能和性能都符合设计要求,为用户提供稳定、可靠的服务。测试用例需要覆盖系统的各个方面,包括正常情况下的功能和性能测试,以及异常情况下的容错性和稳定性测试。:对测试过程中发现的问题和异常进行深入分析,找出问题的根本原因。:随着系统的迭代更新和功能的增加,需要不断更新和维护测试用例,确保测试用例始终能够覆盖系统的各个方面。

2024-06-24 13:21:41 362

原创 法律文书生成大模型(十五)

本文将详细介绍法律意见提供模块的开发和实现过程,包括模块的功能和设计、模型的推理和输出处理,以及模块与用户界面的交互设计。在推理过程中,模块还需要考虑各种因素,如法律条文的适用条件、相似案例的判决结果等,以确保生成的法律意见准确可靠。模块与用户界面的交互设计是法律意见提供模块的重要组成部分。法律意见提供模块的核心功能是根据用户提供的案件信息,通过内置的法律知识和推理模型,自动生成相应的法律意见。这个模型应该能够理解用户的案件信息,从中提取关键信息,并根据法律知识库进行推理,生成相应的法律意见。

2024-06-24 13:20:23 232

原创 法律文书生成大模型(十四)

在数字化和人工智能技术的推动下,法律文书自动生成模块的开发成为了法律科技领域的热门话题。本文将带您了解法律文书自动生成模块的开发过程,包括功能需求和设计、模型与模块的集成方法,以及在开发和测试过程中遇到的问题和解决方案。通过不断地优化和改进,我们可以确保法律文书自动生成模块能够满足用户的需求并具备良好的性能和安全性。这一模块的开发将为法律工作带来革命性的变革并推动法律科技的持续发展。法律文书自动生成模块的首要目标是提供准确、高效且易于使用的法律文书生成服务。

2024-06-24 13:19:27 400

原创 法律文书生成大模型(十三)

本文将深入探讨模型性能评估与优化的过程,包括评估指标的选择和计算、评估结果的分析和解读,以及基于评估结果的模型优化策略。:ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一种针对摘要任务的评估指标,它通过计算模型生成的摘要与参考摘要之间的召回率、精确率和F1值来评估模型的性能。:根据评估结果,可以尝试调整模型的结构,如增加或减少模型的层数、调整隐藏层的大小等,以改善模型的性能。根据评估结果的分析和解读,我们可以制定相应的模型优化策略。

2024-06-24 13:18:25 374

原创 法律文书生成大模型(十二)

然而,当这些模型应用于特定领域时,如法律领域,往往会面临性能不佳的问题。本文将介绍如何对ChatGLM进行微调以适应法律领域,包括微调策略的选择和实施、领域适应数据的准备和使用以及微调过程中的性能监控和评估。对于法律领域来说,我们需要收集大量与法律相关的文本数据,并进行适当的预处理和标注。在微调过程中,我们需要对模型的性能进行监控和评估,以确保模型能够按照预期进行训练并取得良好的性能。通过上述性能监控和评估步骤,我们可以及时发现问题并进行调整,确保模型在法律领域取得优异的性能。

2024-06-24 13:17:05 608

原创 法律文书生成大模型(十一)

本文将详细讲述ChatGLM基础模型的训练过程,包括训练数据的划分和加载、训练参数的设置和调整以及训练过程中的监控和调优。总之,ChatGLM基础模型的训练过程是一个复杂而精细的过程,需要仔细设计训练数据、设置训练参数并监控训练过程。通过不断的尝试和调整,我们可以获得性能优良的模型并为其在NLP领域的应用奠定坚实的基础。在训练ChatGLM模型时,需要设置一系列参数来控制模型的训练过程。在训练ChatGLM模型时,需要对训练过程进行监控和调优,以确保模型能够按照预期进行训练并取得良好的性能。

2024-06-24 13:16:09 374

原创 法律文书生成大模型(十)

在深度学习领域,模型训练环境的搭建与配置是至关重要的一环。一个稳定、高效的训练环境不仅能够加速模型的训练过程,还能确保模型的质量。本文将详细介绍如何搭建和配置模型训练所需的软硬件环境,并探讨如何优化训练环境以提高效率。模型搭建回顾(该系列检查原模型搭建中的问题,同时为前后端开发做准备)

2024-06-24 13:15:01 459

原创 法律文书生成大模型(六)

通过本次博客的介绍,我们了解了将基于大语言模型的法律意见提供及法律文书自动生成系统模型与后端连接的过程和操作。这一集成过程不仅实现了用户与模型的交互,还使得模型能够在实际法律场景中发挥作用。未来,我们将继续关注模型与后端集成的技术发展和最佳实践,以提供更加高效、准确和安全的法律服务。

2024-06-24 13:11:10 509

原创 法律文书生成大模型(五)

在自动化生成法律文书的任务上,模型的准确率达到了较高的水平。经过全面的测试,我们的法律意见提供及法律文书自动生成系统模型取得了令人满意的成绩。在自动化生成法律文书的任务上,模型能够准确捕捉输入文本中的关键信息,并生成结构清晰、逻辑严密的法律文书。此外,我们还将加强与法律专业人士的合作与交流,收集更多的反馈和建议,以推动系统模型的不断完善和发展。我们相信,在不久的将来,法律意见提供及法律文书自动生成系统将成为法律领域的重要工具之一,为法律专业人士和公众提供更加便捷、高效的服务。

2024-06-24 13:08:02 368

原创 法律文书生成大模型(四)

在深度学习的世界中,模型训练是一个复杂而关键的过程。一个经过精心训练和调整的模型能够更准确地捕捉数据的内在规律,从而实现更好的性能。本篇博客将详细介绍模型训练的细节、参数设置的重要性以及如何在。

2024-06-24 13:06:08 878

原创 法律文书生成大模型(二)

通过模型训练和微调,我们成功构建了一个针对法律领域的自然语言处理系统。该系统能够准确理解和生成法律文本,为法律专业人士提供高效的辅助工具。未来,我们将继续优化模型结构和训练策略,提高系统的性能和可靠性,以满足更广泛的应用需求。

2024-06-24 13:02:37 919

原创 法律文书生成大模型(三)

模型数据集准备

2024-06-24 12:59:47 197

原创 法律文书生成大模型(一)

故本项目实现的法律文本分析系统首先重新训练、再由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集、结合法条的实际司法实践中的案例所构建的高质量法律文本问答系统,目前已将大语言模型确定,此后还需要结合模型的问答输出结果将模型python接口与后端相连接。本小组的项目课题是针对2021级项目实训实施方案中的开题方向“面向法律文书的文本生成系统”,而在小组的项目计划中,课题实现则主要集中在案情分析和智能法条推荐方面,进而辅助法律文书的文本生成。

2024-06-24 08:57:51 203

原创 法律文书生成大模型(九)

针对Self-Instruct的可靠性和安全性漏洞,我们使用了基于特定知识的Reliable-Self-Instruction:通过提供具体的法律知识文本,先让ChatGPT生成与该段法律知识内容与逻辑关系相关的若干问题,再通过“文本段-问题”对的方式让ChatGPT回答问题,从而使ChatGPT能够生成含有法律信息的回答,保证回答的准确性。这些模型在训练过程中,可能会使用到50万中文裁判文书数据、基于Chinese-LLaMA-7B模型的二次预训练以及基于更大规模的高质量法律问答数据集的指令精调。

2024-06-22 17:10:45 413

原创 法律文书生成大模型(八)

为让所有人在遇到法律问题时能第一时间获得专业可靠的回答。结合了数据的共建、共训、共享,旨在实现普法资源的集成和优质普法成果的共享。本项目开源的中文法律通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集和基于法条和真实案例指导的self-Instruct构建的高质量法律文本问答,提高了通用语言大模型在法律领域的表现,提高了模型回答的可靠性和专业程度

2024-06-22 16:53:55 418

原创 法律文书生成大模型(七)

法律文书生成大模型

2024-06-02 23:24:54 222

原创 法律文书生成系统 -- 模型篇博客文档集合

本小组的项目课题是针对2021级项目实训实施方案中的开题方向”面向法律文书的文本生成系统“,而在小组的项目计划中,课题实现则主要集中在案情分析和智能法条推荐方面,进而辅助法律文书的文本生成。例如清华技术成果转化的ChatGLM无法实现具体的法条推荐功能,而openAI的GPT大模型,由于国内外的差异,反而不符合国人的法律需求。在语言模型中,编码器和解码器都是由一个个的 Transformer 组件拼接在一起形成的。提供先进的推理,复杂的指令,更多的创造力。

2024-05-29 20:47:30 218

原创 Cpp整型字符串型互相转换方法探究

此外还可以使用字符串流类(sstream)或的sscanf()和boost词汇表转换 (Boost库提供了一个内置函数“ lexical_cast(“ string”)”,该函数直接将字符串转换为数字。其中括号内参数即为被转换字符串且要求为string,Cpp中string不可变,但要求必须为const char。如果该输入无法转换为该类型的值,则返回值为 0.0。另 :对于atof()转换double类型的数据,每个函数返回 double 值,如果不能转换(构成字符串的全部为非数字字符时),返回值为0;

2022-09-02 16:44:26 724 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除