论文笔记:Large Language Models are Zero-Shot Next LocationPredictors

1 intro

  • 下一个地点预测(NL)包括基于个体历史访问位置来预测其未来的位置。
    • NL对于应对各种社会挑战至关重要,包括交通管理和优化、疾病传播控制以及灾害响应管理
  • NL 问题已经通过使用马尔可夫模型、基于模式的方法以及最近的深度学习(DL)技术(进行了处理。
    • 然而,这些方法并不具备地理转移能力
    • 因此,一旦这些模型在某个地理区域训练完毕,如果部署到不同的地理区域,它们将面临严重的性能下降
    • 尽管已经做出努力改善地理转移性,但主要的进展还是与集体移动模式相关,而零样本的地理独立性仍未得到解决
  • 此外,已经显示出大型语言模型(LLMs)嵌入了空间和地理知识,并且这些知识可以被有效提取
  • ——>探索将 LLMs 作为零样本下一个地点预测器的使用
    • 评估了四个 LLMs 的性能:Llama2、Llama2 Chat、GPT-3.5和 Mistral
    • 同时讨论了其他一些 LLMs、Phi-2、Phi-3、Gemma、GPT-J、Dolly的一些限制

2 preliminary

2.1 任务定义

  • 下一个地点预测通常定义为根据个体的历史移动轨迹预测其下一个将访问的地点的问题,这些轨迹通常表示为时空轨迹
    • (轨迹)时空点 p = (t, l) 是一个元组,其中 t 表示时间戳,l 表示地理位置。轨迹 P = p1, p2, ..., pn 是个体访问的 n 个时空点的时间有序序列
      • 根据 DeepMove的方法筛选轨迹
        • 筛选出记录少于 10 条
### 大型语言模型作为生成式多语言语音和机器翻译系统的概述 大型语言模型(LLMs)由于其强大的参数规模和预训练机制,能够处理多种自然语言任务。这些模型不仅限于单一语言环境,还展示了出色的跨语言迁移能力[^1]。 #### 跨语言表示学习中的挑战与解决方案 尽管ML LMs表现出显著的零样本跨语言迁移性能,但在实际应用中仍面临一些障碍。研究指出,在多语言嵌入空间里存在着强烈的语言身份特征,这会干扰语义信息的有效传递。为此,Xie等人提出了通过识别并消除低秩子空间来改善这一状况的方法。这种方法可以有效减少语法和其他非语义因素的影响,从而提高跨语言任务的表现[^2]。 #### 应用于生成式多语言语音合成 当涉及到生成式的多语言语音合成功能时,LLM可以通过理解不同语言之间的细微差别以及它们各自的发音规则来进行高质量的声音再现。借助先进的声码器技术,如WaveNet或Tacotron系列架构,结合精心设计的文字转音素映射算法,使得即使是对不常见字符也能实现逼真的发声效果。此外,利用上述提到的技术去除不必要的语言特性可以帮助创建更加通用且适应性强的TTS(Text-to-Speech)系统。 ```python import torch from transformers import Wav2Vec2ForCTC, Wav2Vec2Processor processor = Wav2Vec2Processor.from_pretrained("facebook/wav2vec2-large-xlsr-53") model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-large-xlsr-53") def transcribe_speech(audio_input): inputs = processor(audio_input, sampling_rate=16000, return_tensors="pt", padding=True) with torch.no_grad(): logits = model(**inputs).logits predicted_ids = torch.argmax(logits, dim=-1) transcription = processor.batch_decode(predicted_ids)[0] return transcription ``` #### 实现高效的机器翻译服务 对于构建高效可靠的MT(Machine Translation)平台而言,LLM同样扮演着重要角色。通过对大量平行文本数据集的学习,加上适当的微调过程,可以使模型更好地捕捉源目标语言间的转换规律。特别是采用去除了特定语言属性后的向量表征方式后,进一步增强了对未知领域话题的理解力和服务质量稳定性。 ```python from transformers import MarianTokenizer, MarianMTModel tokenizer = MarianTokenizer.from_pretrained('Helsinki-NLP/opus-mt-en-zh') model = MarianMTModel.from_pretrained('Helsinki-NLP/opus-mt-en-zh') def translate_text(input_text): batch = tokenizer([input_text], return_tensors='pt', truncation=True, max_length=512) generated_ids = model.generate(**batch) translated_texts = tokenizer.batch_decode(generated_ids, skip_special_tokens=True) return translated_texts[0] ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值