LLM API 简单应用

#头文件
pip3 install torch torchvison torchaudio
pip3 install transformers
from transformers import pipeline

#pipline参数
pipline输入任务类别和对应的llm
1.任务类别
'text-generation'
'sentiment-analysis'
'question-answering'
2.模型的类型
2.1短名-Hugging Face Model Hub的预训练模型 bert-base-uncased、gpt2
pipeline('sentiment-analysis', model='bert-base-uncased')
2.2模型的本地路径
pipeline('text-generation', model='/path/to/your/local/model')
2.3模型对象(手动下载并进行参数调节 -> 更高级的用法)
from transformers import GPT2Model
model = GPT2Model.from_pretrained('gpt2')
pipeline('feature-extraction', model=model)

#实例
1.'text-generation'
text_generator = pipeline('text-generation',model = ...) #输入任务  +  模型
generated_texts = text_generator(prompts,
                                max_length // 句子最长单词
                                tokenizer //指定用于文本分词的分词器。与model参数相同,这可以是分词器的ID或本地路径。如果不指定,将默认使用与指定模型匹配的分词器。
                                num_return_sequences //返回几个句子 
                                temperature // 0 - 1 创新度递增
                                top_k // 限制模型在每一步考虑的词汇数量
                                top_p //低`top_p`值倾向于生成连贯但缺乏多样性的文本,而高`top_p`值促进文本的创造性和多样性但可能牺牲连贯性)
#单个句子
print(generated_texts[0][generated_text])
#多个句子
for i, text in enumerate(generated_texts):
     print(f"故事 {i+1}: {text['generated_text']}\n")


2.'sentiment-analysis'
#model:指定要使用的预训练模型。默认情况下,会使用针对情感分析任务预训练的模型,但你可以通过指定模型的路径或模型在Hugging Face Model Hub上的名称来使用其他模型。
text_analysis = pipeline('sentiment-analysis', model='bert-base-uncased')
#tokenizer:指定用于文本分词的分词器。通常,如果你更改了模型,则可能也需要指定与之匹配的分词器。分词器可以是预定义的分词器名称、分词器的路径或直接是分词器的实例
text_analysis = pipeline('sentiment-analysis', tokenizer='bert-base-uncased')
#config:允许指定一个配置对象或路径,用于自定义模型的配置
text_analysis = pipeline('sentiment-analysis', config={'output_hidden_states': True})
#device:指定运行pipeline的设备。-1表示CPU,而非负整数表示GPU的编号。如果你有可用的GPU,可以通过设置此参数来加速计算。
text_analysis = pipeline('sentiment-analysis', device=0)  # 在第一个GPU上运行
#framework:选择使用的深度学习框架,'pt'表示PyTorch,'tf'表示TensorFlow。通常,这会根据安装的库和可用模型自动确定,但也可以手动指定。
text_analysis = pipeline('sentiment-analysis', framework='pt')
#return_all_scores:当你设置return_all_scores=True并对文本进行情感分析时,pipeline会返回每个可能情感类别的得分,而不仅仅是最可能的情感类别及其得分。具体的输出将取决于使用的模型和配置,但一般情况下,对于情感分析任务,输出将是一个列表,列表中的每个元素都是一个字典,表示一个情感类别及其对应的得分。
result = text_analysis("I love using Transformers library!", return_all_scores=True)

//处理单个句子
result = text_analysis("I love using Transformers library!") 
print(result)
[{'label': 'POSITIVE', 'score': 0.9998}]

//处理多个句子
texts = ["I love this car.", "This view is amazing.", "The service was horrible.", "I feel great this morning."]
results = classifier(texts)

for result in results:
    print(result)
[{'label': 'POSITIVE', 'score': 0.99}]
[{'label': 'POSITIVE', 'score': 0.95}]
[{'label': 'NEGATIVE', 'score': 0.97}]
[{'label': 'POSITIVE', 'score': 0.99}]

3.'question-answering'

# 创建一个问题回答的pipeline
qa_pipeline = pipeline("question-answering")

# 定义问题和文本段落
context = """
Transformers library is an open-source, community-based repository for natural language processing (NLP) pre-trained models. The library is based on PyTorch and TensorFlow.
"""
question = "What is the Transformers library based on?"

# 使用pipeline回答问题
//model:指定要使用的预训练模型。这可以是模型的ID(在Hugging Face Model Hub上的名称),也可以是模型的本地路径。
qa_pipeline = pipeline("question-answering", model="bert-large-uncased-whole-word-masking-finetuned-squad")
//tokenizer:指定用于文本分词的分词器。与model参数相同,这可以是分词器的ID或本地路径。如果不指定,将默认使用与指定模型匹配的分词器。
qa_pipeline = pipeline("question-answering", tokenizer="bert-large-uncased-whole-word-masking-finetuned-squad")
//config:允许指定一个配置对象或路径,用于自定义模型的配置。
qa_pipeline = pipeline("question-answering", config={"output_attentions": True})
//framework:选择使用的深度学习框架,'pt'表示PyTorch,'tf'表示TensorFlow。通常,这会根据安装的库和可用模型自动确定,但也可以手动指定。
qa_pipeline = pipeline("question-answering", framework="pt")
//device:指定运行pipeline的设备。-1表示CPU,而非负整数表示GPU的编号。如果你有可用的GPU,可以通过设置此参数来加速计算
qa_pipeline = pipeline("question-answering", device=0)  # 在第一个GPU上运行

//处理单个句子
result = qa_pipeline(question=question, context=context,....)
print(result)
{'score': 0.97, 'start': 111, 'end': 131, 'answer': 'PyTorch and TensorFlow'}

//处理多个句子
questions = [
    "What is the Transformers library for?",
    "Which frameworks does the Transformers library use?"
]

for question in questions:
    result = qa_pipeline(question=question, context=context)
    print(f"Question: {question}")
    print(f"Answer: {result['answer']}\n")






  • 9
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
LLM是一家知名企业,为各行各业提供全方位的企业应用解决方案。下面将通过一个实际案例来说明LLM在企业应用方面的成功经验。 某电子制造企业合作了LLM,希望提高生产效率和产品质量。LLM的团队首先进行了全面的企业调研,了解其业务流程和存在的问题。随后,他们根据调研结果设计了一套定制化的企业应用系统。 该企业应用系统包含了以下几个核心模块:生产计划管理、设备维护管理、原材料采购与库存管理、质量检测与追溯、销售订单管理以及绩效评估。每个模块都有相应的功能和流程,能够满足企业的具体需求。 通过该企业应用系统,该电子制造企业实现了很多突破。首先,生产计划管理模块能够根据订单情况自动生成生产计划,有效降低了生产周期和提高了生产效率。设备维护管理模块则帮助企业实现了设备的智能化管理,及时进行维护和保养,减少了停机时间和维修成本。 原材料采购与库存管理模块通过与供应商进行信息对接,实现了快速采购和准确控制库存,避免了原材料不足和过多的情况。质量检测与追溯模块在生产过程中进行多次质量检测,确保产品质量达标,并实现了产品追溯,便于问题溯源和召回。销售订单管理模块则提供了一个便捷的订单管理系统,实现了订单的及时处理和跟踪。绩效评估模块通过对各个部门和员工的工作数据进行分析,帮助企业进行绩效评估和个人提升。 通过LLM的企业应用系统,该电子制造企业的生产效率得到了大幅提升,产品质量得到了有效控制。同时,该系统增加了企业的信息化管理,提高了企业的竞争力和市场份额。 这个案例充分展示了LLM在企业应用方面的成功经验,通过对企业的深入了解和全面的系统设计,能够为企业提供量身定制的解决方案,帮助其实现高效运营和持续发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值