- 博客(580)
- 资源 (3)
- 收藏
- 关注
原创 [Megagon Labs] Annotating Columns with Pre-trained Language Models
使用预训练语言模型标注表格数据类型以及数据关系
2024-08-13 17:21:04 593
原创 [NeetCode 150] Longest Increasing Path in Matrix
【代码】[NeetCode 150] Longest Increasing Path in Matrix。
2024-07-18 00:41:13 727
原创 [NeetCode 150] Redundant Connection
【代码】[NeetCode 150] Redundant Connection。
2024-07-14 13:46:47 571
原创 [NeetCode 150] Count Connected Components
【代码】[NeetCode 150] Count Connected Components。
2024-07-14 12:23:41 180
原创 [NeetCode 150] Merge K Sorted Linked Lists
【代码】[NeetCode 150] Merge K Sorted Linked Lists。
2024-07-13 15:17:36 1017
原创 [NeetCode 150] Longest Consecutive Sequence
【代码】[NeetCode 150] Longest Consecutive Sequence。
2024-07-12 23:11:17 814
原创 [NeetCode 150] Products of Array Discluding Self
Products of Array Discluding Self
2024-07-12 22:04:21 354
原创 [NeetCode150] String Encode and Decode
【代码】[NeetCode150] String Encode and Decode。
2024-07-11 00:36:02 574
原创 Interpretable Multimodal Misinformation Detection with Logic Reasoning
核心:多模态、可解释。
2023-12-05 10:04:37 1127 1
原创 Vue指令之v-html
例如,当Vue实例的data是一个inner html,我们想在网页上渲染这部分html,如果依然使用之前的。在Vue中有很多特殊的标签属性,这些属性一般以’v’开头,用于在标签中实现特殊的功能。,则只会将inner html的源码显示出来,无法进行渲染。但是如果把容器中的元素添加一个标签属性。,并将该属性的值赋为msg,即。
2023-11-28 15:33:55 1272
原创 Polish Questions to Catch the Inclination of Large Language Model: A Technical Report
Polish Questions to Catch the Inclination of Large Language Model: A Technical Report。
2023-10-16 22:36:23 191
原创 [Google DeepMind] LARGE LANGUAGE MODELS AS OPTIMIZERS
总体架构Optimization by PROmpting (OPRO):最开始输入meta-prompt,这个初始的meta-prompt基本上只是对优化任务进行了描述(也会有few-shot example)。输入后LLM便会生成一个solution,这个solution由objective function评估并打分。(solution, score)组合成一对添加到meta-prompt中,如此完成一个循环。多次循环后取分数最高的solution作为优化结果。
2023-09-13 19:58:47 1207
原创 Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement
核心思想是通过instruction让LLM来优化问题本身,从而达到更好的效果,且这种针对问题的优化可以跟其他的prompt技术,如CoT或者Least-to-Most相结合。
2023-09-13 14:14:24 314
原创 [ACL2023] Symbolic Chain-of-Thought Distillation: Small Models Can Also “Think” Step-by-Step
虽然CoT作为一种prompt形式在提高LLM的表现上有很好的效果,但此前有研究表明CoT并不能在小规模的LM(参数
2023-08-25 12:11:03 341 1
原创 [ACL2023] Exploring Lottery Prompts for Pre-trained Language Models
基于此,作者提出了一种集成prompt方法,在少量的训练集上选出优秀的prompt以后,根据他们的表现赋予不同的权重,表现越好的prompt权重越高,之后将这些prompt的分类预测加权在一起,得到最后的分类。而模型的能力也对搜索次数有影响,越大的模型需要的搜索次数越少。除了多个prompt对一个input,那自然也有一个prompt对多个input,作者统计了prompt在整个数据集上的表现,除了有66个类的最难的Few-NERD,其他数据集都能找到一个表现不错的prompt。
2023-08-24 19:39:36 738
原创 The CoT Collection: Improving Zero-shot and Few-shot Learning of Language Models via Chain-of-Though
主要的收集方法依然是基于LLM生成,首先人工手写并筛选出精品CoT样例,之后以这些样例为demo,让LLM输出某个问题的推理过程(rationale),从而获得大量的带rationale的问题作为数据集。最后,作者对生成的这些rationale进行了评估,质量评估使用了ROSCOE的13个指标,又评估了rationale的多样性,显示他们的CoT Collection是更多样化的(动词更多样)。第四步,过滤生成的rationale,作者删掉了rationale中没出现答案的、太长的以及相同的。
2023-08-24 15:37:27 215
原创 Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data
港科的工作,主要着眼于CoT样例的生成和选取,数据增强的部分就是用已有的CoT样例做few-shot推理,让LLM生成新的CoT样例(或者直接用Zero-shot-CoT),将生成正确的样例加入到备选池子里。至于如何选择,则是将抽取样例的过程看成从一个随机分布里采样的过程。用一些参数构建一个随机分布,该分布的采样值对应不同的CoT样例。为了学习这个分布,作者采用了强化学习的方法。实验显示在各数据集上达到了SOTA。
2023-08-22 16:33:30 191
原创 Toward Human Readable Prompt Tuning: Kubrick’s The Shining is a good movie, and a good prompt too?
基于soft prompt,但生成较可读的prompt,探寻优质prompt的特征
2023-08-07 12:19:06 108
原创 Demystifying Prompts in Language Models via Perplexity Estimation
低困惑度的prompt更能提升LLM的性能
2023-08-04 13:04:04 1162
原创 INSTRUCTZERO: EFFICIENT INSTRUCTION OPTIMIZATION FOR BLACK-BOX LARGE LANGUAGE MODELS
用soft prompt调教Vicuna,生成更好的instruction提高chatGPT的性能
2023-07-31 17:29:46 217
matlab实现PCA维数约减(0积分下载)
2022-11-05
matlab实现协同过滤算法进行电影推荐(0积分下载)
2022-07-21
Flotherm初学者教程+电脑主机热设计模型.rar
2022-01-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人