计算机专业代码qian,专业分类号及学科代码对照表.doc

专业分类号及学科代码对照表

专业分类号及学科代码对照表

专业分类号专业名称专业分类号专业名称0无050204法语010100哲学类050207日语010101哲学050237意大利语010102逻辑学050300新闻传播学类010103宗教学050301新闻学020000学科门类:经济学050302广播电视新闻学020100经济学类050303广告学020101经济学050304编辑出版学020102国际经济与贸易050400艺术类020103财政学050404绘画020104金融学050406美术学030000学科门类:法学050407艺术设计学030100法学类050408艺术设计030101法学050411戏剧学030200马克思主义理论类050414戏剧影视文学030300社会学类050415戏剧影视美术设计030301社会学050416摄影030302社会工作050417录音艺术030400政治学类050418动画030401政治学与行政学050419播音与主持艺术030402国际政治050420广播电视编导030403外交学060000学科门类:历史学030404思想政治教育060100历史学类040000学科门类:教育学060101历史学040100教育学类060102世界历史040101教育学070000学科门类:理学040102学前教育070100数学类040103特殊教育070101数学与应用数学040104教育技术学070102信息与计算科学040200体育学类070200物理学类050000学科门类:文学070201物理学050100中国语言文学类070202应用物理学050101汉语言文学070300化学类050102汉语言070301化学050103对外汉语070302应用化学050104中国少数民族语言文学070400生物学类050105古典文献070401生物科学050200外国语言文学类070402生物技术050201英语070600地质学类050202俄语070601地质学050203德语070602地球化学

专业分类号专业名称专业分类号专业名称070800地球物理学类080304过程装备与控制工程070801地球物理学080400仪器仪表类070900大气科学类080401测控技术与仪器070901大气科学080500能源动力类070902应用气象学080501热能与动力工程071000海洋科学类080502核工程与核技术071001海洋科学080600电气信息类071002海洋技术080601电气工程及其自动化071100力学类080602自动化071101理论与应用力学080603电子信息工程071200电子信息科学类080604通信工程071201电子信息科学与技术080605计算机科学与技术071202徽电子学080606电子科学与技术071203光信息科学与技术080700土建类071300材料科学类080701建筑学071301材料物理080702城市规划071302材料化学080703土木工程071400环境科学类080704建筑环境与设备工程071401环境科学080705给水排水工程071402生态学080800水利类071500心理学类080801水利水电工程071501心理学080802水文与水资源工程071502应用心理学080803港口航道与海岸工程071600统计学类080900测绘类071601统计学080901测绘工程080000学科门类:工学081000环境与安全类080100地矿类081001环境工程080101采矿工程081002安全工程080102石油工程081100化工与制药类080103矿物加工工程081101化学工程与工艺080104勘查技术与工程081102制药工程080105资源勘查工程081200交通运输类080200材

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这里是一段基于BERT预训练模型进行微调的文本分类代码,使用PyTorch实现: ```python import torch import torch.nn as nn from transformers import BertTokenizer, BertForSequenceClassification # 加载预训练的BERT模型和分词器 tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertForSequenceClassification.from_pretrained('bert-base-uncased') # 定义分类器,输出层为2个类别 classifier = nn.Linear(model.config.hidden_size, 2) # 将BERT模型和分类器拼接成一个完整的模型 model.classifier = classifier # 加载数据 train_dataset = ... val_dataset = ... # 定义训练器 optimizer = torch.optim.Adam(model.parameters(), lr=1e-5) criterion = nn.CrossEntropyLoss() # 开始训练 for epoch in range(num_epochs): # 训练 model.train() for inputs, labels in train_dataset: optimizer.zero_grad() outputs = model(inputs['input_ids'], attention_mask=inputs['attention_mask'], labels=labels) loss = criterion(outputs.logits, labels) loss.backward() optimizer.step() # 验证 model.eval() with torch.no_grad(): total_loss = 0.0 total_correct = 0 for inputs, labels in val_dataset: outputs = model(inputs['input_ids'], attention_mask=inputs['attention_mask'], labels=labels) total_loss += criterion(outputs.logits, labels).item() total_correct += (outputs.logits.argmax(-1) == labels).sum().item() val_loss = total_loss / len(val_dataset) val_acc = total_correct / len(val_dataset) print(f"Epoch {epoch}: Val Loss: {val_loss:.4f}, Val Acc: {val_acc:.4f}") ``` 在这段代码中,我们首先加载了预训练的BERT模型和分词器,然后定义了一个分类器,将其与BERT模型拼接在一起,得到一个完整的分类模型。接着加载了训练和验证数据,并定义了训练器。最后,进行了训练和验证,并输出了验证损失和准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值