自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(93)
  • 收藏
  • 关注

原创 MiniCPM-V | 端侧GPT4V level的多模态大模型

MiniCPM-V | 端侧GPT4V level的多模态大模型

2024-08-14 18:55:09 1008

原创 arXiv2024.8.6 | LLaVA-OneVision:Easy Visual Task Transfer

LLaVA-OneVision:Easy Visual Task Transfer

2024-08-08 19:13:21 1040

原创 MLLM | Mini-Gemini: 挖掘多模态视觉语言大模型的潜力

MLLM | Mini-Gemini: 挖掘多模态视觉语言大模型的潜力论文标题:Mini-Gemini: Mining the Potential of Multi-modality Vision Language Models

2024-04-22 16:24:47 1155

原创 MLLM | InternLM-XComposer2-4KHD: 支持336 像素到 4K 高清的分辨率的大视觉语言模型

MLLM | InternLM-XComposer2-4KHD: 支持336 像素到 4K 高清的分辨率的大视觉语言模型InternLM-XComposer2-4KHD: A Pioneering Large Vision-Language Model Handling Resolutions from 336 Pixels to 4K HD

2024-04-22 10:51:57 1539

原创 MLLM | Woodpecker:多模态大模型train-free幻觉纠正

Woodpecker:多模态大模型train-free幻觉纠正名称:Woodpecker: Hallucination Correction for Multimodal Large Language Models

2024-04-19 18:26:34 1245

原创 ICCV2023 | MCD: Misalign, Contrast then Distill:重新思考VLP中的错位

ICCV2023 | Misalign, Contrast then Distill:重新思考VLP中的错位论文标题: Misalign, Contrast then Distill: Rethinking Misalignments in Language-Image Pretraining

2024-01-21 15:36:12 961

原创 ICCV2023 | PTUnifier+:通过Soft Prompts(软提示)统一医学视觉语言预训练

ICCV2023 | PTUnifier:通过Soft Prompts(软提示)统一医学视觉语言预训练论文标题:Towards Unifying Medical Vision-and-Language Pre-training via Soft PromptsFusion-encoder type和Dual-encoder type。

2024-01-18 16:55:23 1428

原创 ICCV2023 | VL-Match: 使用Token-Level和Instance-Level Matching提升视觉语言预训练

ICCV2023 | VL-Match: 使用Token-Level和Instance-Level Matching提升视觉语言预训练。论文标题:VL-Match: Enhancing Vision-Language Pretraining with Token-Level and Instance-Level Matching代码:None单位:中国科学院北京计算技术研究所 中国科学院大学 微软

2024-01-16 17:05:23 979

原创 Brief. Bioinformatics2021 | sAMP-PFPDeep+:利用三种不同的序列编码和深度神经网络预测短抗菌肽

Brief. Bioinformatics2021 | sAMP-PFPDeep+:利用三种不同的序列编码和深度神经网络预测短抗菌肽文章标题:sAMP-PFPDeep: Improving accuracy of short antimicrobial peptides prediction using three different sequence encodings and deep neural networks

2023-09-10 17:39:56 843

原创 Brief. Bioinformatics2023 | 利用深度学习和分子动力学模拟设计抗菌肽

Brief. Bioinformatics2023 | 利用深度学习和分子动力学模拟设计抗菌肽文章标题:Designing antimicrobial peptides using deep learning and molecular dynamic simulations

2023-09-10 15:34:38 663

原创 KDD2023 | Accelerating Antimicrobial Peptide Discovery with Latent Sequence-Structure Model

然后,建立多个码本,查找嵌入zqn (xi)的最近的codebook,在序列重建和二级结构预测之间共享码本,以捕获残基与其结构之间的共同特征和关系。因此,将结构信息纳入生成模型中,不仅可以将湿实验室前的所有步骤结合起来,加快发现速度,可以改善序列性质,提高生成过程效率。二级结构描述肽的三维结构的局部形式。同时,虽然模型预测了ID = 2和ID = 3的长连续螺旋结构,但实际上在两个螺旋结构之间有一个小的线圈结构。结果表明,通过控制结构,可以提高序列属性,验证了在受控生成过程中引入二级结构的重要性。

2023-09-08 21:36:00 266

原创 Nat. Communications Biology2022 | PepNN+: 用于识别多肽结合位点的深度关注模型

Nat. Communications Biology2022 | PepNN: 用于识别多肽结合位点的深度关注模型PepNN: a deep attention model for the identification of peptide binding sites

2023-09-06 14:48:37 500

原创 Nat. Mach. Intell 2022 | TransMut+:基于transformer的用于预测peptide–HLA class I binding 并优化疫苗设计中的突变多肽

在大多数情况下,前两种策略是binding的累计注意得分和贡献率大于低亲和力的注意得分和贡献率(所有正样本均被TransPHLA正确预测,而低亲和力的注意评分矩阵仅针对源肽靶HLA样本),策略3的第一次突变直接替换了源肽上最关键的低亲和力位点,即首先将DLLPETPW的1D位点替换为1D, 1L, 1T。3635个源肽成功找到了与HLA等位基因结合的优化突变肽,其中93.7%的源肽被IEDB14推荐的方法验证,有89.5%与其源肽同源性超过80%(1-2个突变位点),这为疫苗设计提供前景。

2023-09-05 21:32:29 319

原创 Briefings in Bioinformatics2021 | Bert-Protein+:基于Bert的抗菌肽识别

(i)使用AntiBP2模型的训练集来微调用UniProt预训练的模型以获得模型A(ii)使用AntiBP2模型的训练集对在上述新的AMP和非AMP数据集上训练的模型进行微调,以获得模型B。提出了一种新的基于BERT的模型训练算法,以实现对AMP数据集的准确识别。与平衡集的结果相比,在不平衡集上训练的模型的整体识别性能降低,这特别体现在Acc和MCC指标的下降上。用大量AMP训练的模型具有良好的可迁移性,更适合用作新样本识别或预测任务的预训练模型,以同时捕获新数据集特有的特征和AMP序列之间的共同特征。

2023-09-05 20:59:51 1150

原创 Nat. Commun.2023 | AI-Bind+:提高蛋白质配体结合预测的通用性

论文标题:Improving the generalizability of protein-ligand binding predictions with AI-BindNat. Commun.2023 | AI-Bind+:提高蛋白质配体结合预测的通用性

2023-09-02 17:09:37 693

原创 Nat. Mach. Intell 2023 | DrugBAN+:域自适应的可解释双线性插值网络改进药物-靶标预测(DTI)

Nat. Mach. Intell 2023 | DrugBAN+:域自适应的可解释双线性插值网络改进药物-靶标预测

2023-08-30 17:49:18 883

原创 Nat. Mach. Intell 2020 | drugVQA+:准VAQ系统预测药物-蛋白质相互作用

Nat. Mach. Intell 2020 | drugVQA+:准VAQ系统预测药物-蛋白质相互作用

2023-08-29 20:31:17 460

原创 J. Med. Chem 2022|TocoDecoy+: 针对机器学习打分函数训练和测试的无隐藏偏差的数据集构建新方法

J. Med. Chem 2022|TocoDecoy+: 针对机器学习打分函数训练和测试的无隐藏偏差的数据集构建新方法原文标题:TocoDecoy: A New Approach to Design Unbiased Datasets for Training and Benchmarking Machine-Learning Scoring Functions

2023-08-28 22:17:21 612

原创 IJCAI2022 | SVTR+:基于单个视觉模型的场景文字识别算法

IJCAI2022 | SVTR+:基于单个视觉模型的场景文字识别算法

2023-07-23 13:27:31 683

原创 ICLR2023 | Mole-BERT: 对分子GNN预训练的反思

ICLR2023 | Mole-BERT: Rethinking Pre-training Graph Neural Networks for Molecules

2023-05-26 21:04:18 1538

原创 ACS Cent. Sci 2018 | 数据驱动的分子连续表征的自动化学设计

ACS Cent. Sci 2018 | 数据驱动的分子连续表征的自动化学设计Automatic Chemical Design Using a Data-Driven Continuous Representation of Molecules

2023-05-25 19:55:12 839

原创 bioinformatics2022 | Sc2Mol+:使用VAE和Transformer的两阶段基于骨架的分子生成

Metrics:Recovery(所需有效生成的分子(与测试集中相应的参考分子相同)与完全有效生成的分子的比率)、Similarity(生成分子的指纹[半径为2的1024位扩展连接指纹(ECFP4) ]与测试集中相应参考分子的平均谷本相似度)、Scaffold similarity (SS)(生成的分子骨架指纹与测试集中对应参考分子骨架指纹的平均谷本相似度。MOSES数据集(分子量150-350Da,无带电原子,无大于8个原子的环,原子仅仅限于H,C,N,O,F,S,Cl,Br)。

2023-05-19 11:53:52 1598

原创 Nat. Mach. Intell 2023 | RT:首个统一分子性质预测(回归) 与条件生成的模型

Nat. Mach. Intell 2023 | RT:首个统一分子性质预测(回归) 与条件生成的模型原文标题:Regression Transformer enables concurrent sequence regression and generation for molecular language modelling

2023-05-18 20:54:11 810

原创 arxiv2022 | MolT5:Translation between Molecules and Natural Language

arxiv2022 | MolT5:Translation between Molecules and Natural Language

2023-05-04 13:56:52 756

原创 IJCAI2023 | A Systematic Survey of Chemical Pre-trained Models(化学小分子预训练模型综述)

IJCAI2023 | A Systematic Survey of Chemical Pre-trained Models(化学小分子预训练模型综述)

2023-05-03 12:35:53 1765

原创 Tensor-Level替换、删除(后面元素前移)其中的元素

Tensor-Level替换、删除(后面元素前移)其中的元素.NLP中简单数据增强包括插入、删除、替换。在word级别完成的替换,比如:https://github.com/tedljw/data_augment/blob/master/eda.py但是映射到token后,在tensor级别中,我并没有找到,因此参考BERT、LevOCR的代码实现在token级别中的替换、删除。

2023-02-28 10:18:59 720

原创 CVPR2021 | ABINet+: 似人阅读: 场景文本识别的自主、双向和迭代语言建模

CVPR2021 | ABINet+: 似人阅读: 场景文本识别的自主、双向和迭代语言建模

2023-02-23 20:40:01 2481 3

原创 pytorch根据labels对应位置取值 | 换一句话省两小时

pytorch根据labels对应位置取值 | 换一句话省两个小时不同语句的运行时间是存在很大差距的,特别是用for语句。在我的30W数据集上跑,在一个epoch中使用解决方法2比解决方法1 ,可以节省2个小时。一条语句,省两个小时。

2023-02-22 11:13:50 342

原创 arxiv2017 | 用于分子神经网络建模的数据增强 SMILES Enumeration

用于分子神经网络建模的数据增强 SMILES Enumeration

2023-02-20 22:10:34 1079

原创 pytorch Dataset类中实现样本均衡并解决AttributeError: ‘ConcatDataset‘ object has no attribute ‘get_labels‘

pytorch Dataset类中实现样本均衡并解决AttributeError: 'ConcatDataset' object has no attribute 'get_labels'

2023-02-12 11:59:13 1619

原创 pytorch-lightning中使用wandb实现超参数搜索

pytorch-lightning中使用wandb实现超参数搜索

2023-01-30 12:10:34 1897

原创 ICLR2022 | ViT-VQGAN+:Vector-quantized Image Modeling with Improved VQGAN

ViT-VQGAN+:Vector-quantized Image Modeling with Improved VQGAN

2023-01-03 20:29:11 2473 2

原创 NeurIPS2021 | ViTAE+: vision transformer中的归纳偏置探索

NeurIPS 2021 | ViTAE+: vision transformer中的归纳偏置探索

2022-12-27 22:51:21 1212

原创 NeurIPS2022 | OmniVL: 用于Image-Language和Video-Language任务的通用模型

NeurIPS2022 | OmniVL: 用于Image-Language和Video-Language任务的通用模型

2022-12-15 16:46:47 604

原创 NeurIPS 2022 | MoVQ: 基于Modulating Quantized Vectors的高保真图像生成

NeurIPS 2022 | MoVQ: 基于Modulating Quantized Vectors的高保真图像生成原文标题:MoVQ: Modulating Quantized Vectors for High-Fidelity Image Generation

2022-12-14 17:17:40 1382 1

原创 ICML2018 | PixelSNAIL+:An Improved Autoregressive Generative Model

PixelSNAIL: An Improved Autoregressive Generative Model

2022-12-13 21:23:36 646

原创 BMVC2022 | HR-VQVAE:用于图像重建和生成的基于Hierarchical Residual Learning的VQVAE

BMVC2022 | HR-VQVAE:用于图像重建和生成的基于Hierarchical Residual Learning的VQVAE原文标题:Hierarchical Residual Learning Based Vector Quantized Variational Autoencoder for Image Reconstruction and Generation

2022-12-13 17:25:41 1867 1

原创 CVPR2021 | VQGAN+:Taming Transformers for High-Resolution Image Synthesis

CVPR2021 | VQGAN+:Taming Transformers for High-Resolution Image Synthesistransformer比CNN缺少了归纳偏置和局部性,但是更具表现力,但对于长序列(高分辨率图像),在计算上是不可性的。作者就是解决这个问题:使用cnn来学习图像成分的上下文信息,利用transformer在高分辨率图像中有效地建模它们的组件。

2022-12-11 17:32:14 5006 2

原创 Briefings in Bioinformatics2021 | DLGN+:基于GAN和强化学习的分子从头双目标性质生成

论文标题:De novo generation of dual-target ligands using adversarial training and reinforcement learningBriefings in Bioinformatics2021 | DLGN+:基于GAN和强化学习的分子从头双目标性质生成

2022-12-09 21:09:21 1850 1

原创 Briefings in Bioinformatics2021 | 从头药物设计的深度生成模型的综合性评估

Briefings in Bioinformatics2021 | 从头药物设计的深度生成模型的综合性评估论文标题:Comprehensive assessment of deep generative architectures for de novo drug design对于具有不同DL架构的生成模型,基于RL和gan的生成模型在与目标属性的一致性方面优于其他生成模型,更适合于特定目标任务。

2022-12-09 15:51:51 1046 1

vavae paper name

vavae paper name

2022-12-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除