深圳内推 | 腾讯AI Lab招聘​NLP算法(智能写作)研究实习生

合适的工作难找?最新的招聘信息也不知道?

AI 求职为大家精选人工智能领域最新鲜的招聘信息,助你先人一步投递,快人一步入职!

腾讯AI Lab

腾讯 AI Lab 是腾讯的企业级 AI 实验室,于 2016 年 4 月在深圳成立,团队由 100 余位来自世界知名院校的科学家,以及 300 多位经验丰富的应用工程师组成,并与世界顶级院校与机构合作,共同打造产学研用一体的 AI 生态。借助腾讯丰富应用场景、大数据、计算力及一流人才方面的长期积累,AI Lab 立足未来,开放合作,致力于不断提升 AI 的理解、决策与创造力,向“Make AI Everywhere”的愿景迈步。

5ad1395995efc8cd0e8c08d59eda4bec.png

NLP算法研究实习生

坐标:深圳(需要现场实习)

工作方向

NLP算法方向:参与智能写作相关研究/落地。

岗位要求

1. 熟悉NLP基础知识;

2. 具有较强的编程能力,熟练使用 Python或C++,熟练使用PyTorch;

3. 有 ACL、EMNLP等相关顶会论文者优先;

4. 实习时间大于六个月以上优先。

 投递方式 

📪 leyangcui@tencent.com

邮件标题/简历命名格式:姓名-岗位名称-AI求职

0c0841e22d2a7d0714447f6e1617c3d9.jpeg


实习内推

小红书阿里达摩院开放视觉智能实验室华为云算法创新Lab中国电信总部大数据AI中心微软亚洲研究院阿里达摩院多模态多语言实验室阿里达摩院对话智能团队中国电信北京研究院之江实验室小红书多模态算法组蚂蚁集团机器智能部微软亚洲研究院机器学习组之江实验室华为诺亚方舟实验室京东物流集团商汤智能车舱研发团队阿里达摩院生物医学信息处理团队百度搜索策略部小红书电商算法团队快手海外推荐部微软亚洲研究院机器学习组秘塔科技腾讯AI Lab微软亚洲研究院数据知识智能组网易互娱AI Lab蚂蚁安全天筭实验室百度文心ERNIE团队华为诺亚方舟实验室小冰AI Research美柚研究院之江实验室商汤商量SenseChat团队微软亚洲研究院机器学习组新东方AI研究院细红线科技阿里达摩院中科院自动化所微软亚洲研究院自然语言计算组字节跳动智能客服算法团队上海人工智能实验室华为云微软亚洲研究院创新工程组快手商业化算法团队小红书社区搜索组

校招岗位

英特尔中国研究院腾讯优图实验室视频组阿里钉钉算法技术团队极氪智能科技三星通信研究院华为高斯实验室腾讯IEG互动娱乐事业群交叉科技启元世界商汤研究院基础视觉组未来机器人微软亚洲研究院机器学习组粤港澳大湾区数字经济研究院华为2012实验室百图生科遇见森林阿里巴巴外投广告算法团队|快手社科线策略算法部Sony AI隐私保护机器学习部小红书基础模型组阿里达摩院基础视觉智能团队同花顺广东智慧教育研究院北京智源人工智能研究院阿里达摩院XR实验室小红书社区技术部蚂蚁金服商家增长团队京东广告数据与算法部格灵深瞳合肥研发中心智源人工智能研究院小红书社区技术部百度搜索策略部相关性团队京东营销与商业化中心同花顺问财团队商汤科技小红书华为云算法创新Lab智源人工智能研究院阿里云PAI深度学习算法团队秘塔科技美柚研究院百度搜索策略部

社招岗位

同花顺问财集群|快手社科线策略算法部百度视觉技术部蔚来汽车Sony AI隐私保护机器学习部腾讯云小微自然语言技术中心微软研究院科学智能中心百度研究院百度知识图谱部广东智慧教育研究院非凸科技北京智源人工智能研究院小红书社区技术部TikTok推荐算法团队视见睿来Mobileye阿里CCO智能服务算法团队中移动金融科技有限公司格灵深瞳合肥研发中心智源人工智能研究院小红书社区技术部阿里巴巴淘系搜索算法团队百度搜索策略部相关性团队粤港澳大湾区数字经济研究院中科院香港AI与Robotics创新中心智源人工智能研究院阿里巴巴CRO线西湖大学学习与推理系统实验室百度商业研发部模型团队阿里达摩院决策智能实验室同花顺问财团队华为云算法创新Lab智源人工智能研究院淘系搜索算法技术团队秘塔科技美柚研究院百度商业研发部之江实验室蓝箭航天华为诺亚方舟实验室腾讯微信事业群快手商业化算法团队

高校招生

西湖大学机器感知与学习实验室纽约州立大学石溪分校周一凡老师香港理工大学OIG实验室香港理工大学王淑君老师香港大学倪卓娴教授北德克萨斯大学魏宇声老师南方科技大学魏鸿鑫老师香港中文大学(深圳)李海洲教授约翰霍普金斯大学香港大学余涛老师北京大学刘洋老师新加坡科技与设计大学华盛顿州立大学中山大学GEAR图学习研究团队香港中文大学(深圳)吴保元教授香港大学赵恒爽老师佛罗里达大学陈世刚教授东北大学徐啸林老师香港理工大学AIMS课题组新加坡国立大学Robby T. Tan教授香港大学刘希慧老师香港科技大学陈浩老师新加坡国立大学尤洋老师香港浸会大学徐建良教授新加坡iTrust研究中心香港大学蒋海波教授佛罗里达州立大学刘毅老师香港中文大学(深圳)纪冬旭老师香港科技大学(广州)梁宇轩老师北京信息科学与技术国家研究中心香港中文大学(深圳)何继善院士香港中文大学(深圳)林天麟老师休斯顿大学林森老师中国科学院深圳先进技术研究院南加州大学黄强教授埃因霍芬理工大学武垚欣老师香港科技大学(广州)白云老师香港理工大学林婉瑜老师上海交通大学张希教授亚利桑那州立大学阿联酋MBZUAI宫明明教授香港科技大学(广州)骆昱宇老师香港理工大学Lap-pui Chau教授香港浸会大学北京大学分子影像/医学智能实验室大湾区大学杨斯崑教授香港理工大学智慧航空优化研究团队新加坡国⽴⼤学Gim Hee Lee⽼师香港科技大学屈华民教授清华大学机器学习课题组凯斯西储大学印宇老师

加入社群  🌟

为了更好地了解和满足大家的需求,我们建立了「求职者社群」

加入 AI 求职社群,你可以享有招聘需求曝光获取最新面试经验校招准备攻略硕博招生独家内推渠道等服务。

扫描下方小助手的微信,pick 你心仪的岗位~

d93b988c73c9aeff9fed0b9d4373d421.png


如何发布招聘

AI 求职是「PaperWeekly」旗下聚焦人工智能领域的招聘平台,涵盖高校硕博招生、博士后招募、企业校招、社招、实习和内推等。

目前已有百度、阿里、腾讯、字节跳动等企业发布内推岗位,欢迎大家订阅关注、发布岗位,如果你也想对公司和在招职位进行更多曝光,请联系我们的栏目负责人(微信:dajun164164)。

·

·

<think>嗯,用户现在想了解关于大语言模型和深度学习方面的算法实习。首先,我需要明确他们的背景和需求。可能是一个计算机科学或相关专业的学生,正在寻找实习机会,想了解这方面的内容。他们可能已经对深度学习有一定的基础,但需要更具体的指导,比如实习需要哪些技能,如何准备,以及实习内容大概是什么样的。 接下来,我得考虑用户可能没有明确说出的深层需求。他们可能想知道实习申请的具体要求,比如需要掌握哪些编程语言,熟悉哪些框架,或者是否有论文发表的经验。此外,他们可能还关心实习的工作内容,比如是否会参与模型训练、优化,或者研究性的工作。 然后,我需要组织回答的结构。按照用户的要求,结构要清晰,分步骤解决问题。可能需要分成几个部分,比如实习的核心技能要求、如何准备、典型工作内容、荐学习资源以及申请建议。这样用户能一步步了解需要做什么。 关于技术细节,用户提到的是大语言模型和深度学习,所以需要涵盖相关的知识点,比如Transformer架构、预训练技术、分布式训练等。同时,要确保提到的工具和框架是当前主流的,比如PyTorch、Hugging Face库,以及相关的数学基础如线性代数、概率论。 另外,用户可能对项目经验比较关注,所以需要强调实践的重要性,建议他们参与相关的项目或比赛,比如Kaggle或者NLP竞赛,这能提升他们的实战能力。同时,如果有开源贡献的经验,也是一个加分项,可以提及。 在荐学习资源方面,需要列出经典的书籍和在线课程,比如《深度学习》花书、吴恩达的课程,以及Hugging Face的教程。这些资源能帮助他们系统地学习相关知识。 最后,申请建议部分需要提醒用户关注公司招聘信息,准备好简历和面试。特别是面试可能涉及算法题和技术问题,所以刷LeetCode和复习基础知识都很重要。 要确保整个回答符合系统级指令,比如数学公式用$...$,独立公式用$$...$$,并且语法正确。同时使用中文,保持口语化,避免使用Markdown格式。需要检查是否有遗漏的重要点,比如分布式训练、模型优化技术,或者最新的研究方向如MoE架构,这些对实习申请可能有帮助。 可能还需要提醒用户注意实习申请的时间线,提前准备,以及如何在简历中突出相关经验和技能。另外,强调数学基础的重要性,因为大语言模型背后有很多复杂的数学原理,理解这些能帮助他们在面试中脱颖而出。 总之,回答需要全面覆盖用户可能关心的各个方面,结构清晰,逐步引导,同时提供实用的建议和资源,帮助他们更好地准备和申请实习机会。</think>好的,我将从算法实习的核心技能要求、准备建议、典型工作内容三方面为你梳理大语言模型(LLM)和深度学习方向的实习要点: --- ### 一、核心技能要求 1. **编程基础** - 必须掌握:Python(PyTorch/TensorFlow框架)、CUDA基础 - 加分项:分布式训练(Deepspeed/Megatron-LM)、模型理优化(TensorRT/ONNX) 2. **数学基础** - 关键领域:线性代数(矩阵分解$A=U\Sigma V^T$)、概率论(KL散度$D_{KL}(P||Q)$)、优化理论(梯度下降$\theta_{t+1} = \theta_t - \eta \nabla J(\theta_t)$) 3. **领域知识** - **LLM专项**:Transformer架构(注意力机制$Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V$)、预训练技术(MLM/NSP)、RLHF对齐 - **深度学习通识**:CNN/RNN/GAN基础、分布式训练(数据/模型并行) --- ### 二、如何针对性准备 1. **项目实践**(优先级最高) - 基础:复现经典模型(如BERT/GPT-2),使用HuggingFace库微调任务 - 进阶:尝试模型压缩(量化/剪枝)或参与Kaggle/NLP竞赛(如GLUE榜单) 2. **论文精读** - 必读论文: - *Attention Is All You Need*(Transformer) - *BERT: Pre-training of Deep Bidirectional Transformers* - *Training language models to follow instructions*(InstructGPT) 3. **工具链熟悉** ```python # 典型代码片段(模型微调示例) from transformers import AutoModelForCausalLM, Trainer model = AutoModelForCausalLM.from_pretrained("gpt2") trainer = Trainer(model=model, args=training_args, train_dataset=dataset) trainer.train() ``` --- ### 三、典型实习工作内容 1. **模型训练与调优** - 数据清洗(去噪/数据增强) - 超参数搜索(学习率调度器配置) - 混合精度训练(FP16/BP16优化) 2. **模型部署** - 理加速(KV Cache优化) - 服务化开发(FastAPI+Trition Server) 3. **前沿方向探索** - MoE架构(如Mixtral-8x7B) - 长上下文优化(RoPE/ALiBi位置编码) - 多模态对齐(CLIP架构扩展) --- ### 四、学习资源荐 1. **经典书籍** - 《深度学习》(花书)第10章(RNN)、第11章(Attention) - 《Speech and Language Processing》第3版(Manning等著) 2. **在线课程** - 李宏毅《深度学习人类语言处理》 - Hugging Face官方教程(Transformer库实战) --- ### 五、申请建议 - 关注**AI Lab**(Meta FAIR, Google Brain)、**大厂研究院**(微软亚研院、腾讯AI Lab)及**明星创业公司**(OpenAI, Anthropic) - 准备**技术博客**(如详解LoRA实现)或**GitHub仓库**(至少1个完整项目) - 面试重点:手反向传播、白板写Attention代码、讨论LLM技术瓶颈 需要进一步了解某个方向(如分布式训练细节/面试真题)可随时补充提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值