在多个点中找斜率最大的两个点确定的直线 nlg(n)

平面上N个点,每两个点都确定一条直线,求出斜率最大的那条直线所通过的两个点(斜率不存在的情况不考虑)。时间效率越高越好。
关于这道题,网上已经给出了解答要点:
3个点A,B,C,把它们的按x坐标排序。假设排序后的顺序是ABC,那么有两种情况:
1.ABC共线,则k(AB)=k(BC)=k(AC)
2.ABC不共线,则ABC将形成一个三角形,那么k(AC)<max(k(AB), k(BC))
其中k()表示求斜率。
所以程序的基本步骤就是:
1.把N个点按x坐标排序。
2.遍历,求相邻的两个点的斜率,找最大值。
时间复杂度Nlog(N)。

 
先把这些点按x坐标从小到大排序,斜率最大的两点必然是挨一起的两个点,所以排序O(n* lg n),遍历一次O(n)就够了
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在当前时间,这些比较流行的自然语言生成(NLG)模型可以推荐给您: 1. Transformer 2. GPT-3(Generative Pre-trained Transformer 3) 3. BERT(Bidirectional Encoder Representations from Transformers) 4. RoBERTa(Robustly Optimized BERT) 5. T5(Text-To-Text Transfer Transformer) 6. XLNet(eXtreme Language Network) 7. BART(Bidirectional and Autoregressive Transformers) 8. Megatron-LM(Language Model) 9. ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately) 10. ALBERT(A Lite BERT) 11. Efficient Transformer 12. Reformer(The Efficient Transformer) 13. Reformer-XL(The Efficient Transformer-XL) 14. DeBERTa(Dynamic Expressive BERT) 15. TextGPT 16. AdaGPT 17. Longformer 18. LG-GPT(Logarithmic Attention GPT) 19. Text-Transformer 20. Empirical Transformer 这些模型中有一些是基于变换器(Transformer)架构改进而来的,有一些是基于双向预训练(Bidirectional Pre-training)架构改进而来的。在这些模型中,GPT-3 和 BERT 是目前比较流行的。 ### 回答2: 以下是目前比较流行的20个NLG(Natural Language Generation)模型的推荐: 1. GPT-3(Generative Pre-trained Transformer 3) 2. GPT-2(Generative Pre-trained Transformer 2) 3. BERT(Bidirectional Encoder Representations from Transformers) 4. T5(Text-To-Text Transfer Transformer) 5. CTRL(Conditional Transformer) 6. OpenAI's GPT(OpenAI的GPT) 7. Transformer-XL(Transformer-XL) 8. XLNet(eXtreme Deep Learning Network) 9. DialoGPT(对话生成的GPT) 10. ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately) 11. RoBERTa(Robustly optimized BERT approach) 12. ALBERT(A Lite BERT) 13. GPT-Neo(GPT的衍生版本) 14. XLM(Cross-lingual Language Model) 15. TURBO(Text-to-Uncertain-Best-Relational-Operator) 16. AutoGPT(自动化生成GPT) 17. ProGPT(Programmatically Guided Text Generator) 18. PLATO(Pre-trained knowledge-aware models for language generation) 19. Dialogpt(对话生成的PT模型) 20. S2S-Vec(Sequence-to-Sequence Vectorization) 这些模型广泛应用于自然语言处理领域,用于生成文本、对话回复、摘要生成等任务,具有很高的流行性和实用性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值