- 博客(233)
- 收藏
- 关注
原创 一文通透想颠覆Transformer的Mamba:从SSM、HiPPO、S4到Mamba
不知读者发现没有,本文标题的信息含量很大,比如加之有一大模型项目开发营的朋友问道,可否在论文100课上解读下mamba这篇论文,于此,便有了此文。
2023-12-11 12:48:36 51858 102
原创 七月论文审稿GPT第2版:用一万多条paper-review数据微调LLaMA2 7B最终反超GPT4
如此前这篇文章《》中的第三部分所述,对于论文的摘要/总结、对话、翻译、语法检查而言,市面上的学术论文GPT的效果虽暂未有多好,可至少还过得去,而如果涉及到论文的修订/审稿,则市面上已有的学术论文GPT的效果则大打折扣。原因在哪呢?
2023-11-02 21:46:03 8628 7
原创 ChatGPT技术原理解析:从RL之PPO算法、RLHF到GPT4、instructGPT
本篇ChatGPT笔记会全力做到,通俗易懂且循序渐进(尽最大努力让每一个初学者哪怕是文科生都能没有障碍的读懂每一字一句、每一个概念、每一个公式)一方面,对于想了解ChatGPT背后原理和如何发展而来的,逐一阐述从GPT/GPT2/GPT3到强化学习、PPO算法,最后再到instructGPT、ChatGPT、SeqGAN且本文之前,99%的文章都不会把PPO算法从头推到尾,本文会把PPO从零推到尾,按照“RL-策略梯度-重要性采样(重要性权重)-TRPO(增加信任区域和KL散度约束)-PPO”的顺序逐步
2023-01-15 22:01:27 179144 135
原创 程序员面试、算法研究、机器学习、大模型/ChatGPT、AIGC等11大系列集锦
程序员面试、算法研究、编程艺术、红黑树、机器学习5大经典原创系列集锦与总结作者:July--结构之法算法之道blog之博主。时间:2010年10月-2018年5月,一直在不断更新中..出处:http://blog.csdn.net/v_JULY_v。说明:本博客中部分文章经过不断修改、优化,已集结出版成书《编程之法:面试和算法心得》。前言 开博4年有余,...
2020-01-05 20:42:56 744793 501
原创 CNN笔记:通俗理解卷积神经网络
通俗理解卷积神经网络(cs231n与5月dl班课程笔记)1 前言 2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北京时,有一个词似乎比“机器学习”更火,那就是“深度学习”。 本博客内写过一些机器学习相关的文章,但上一...
2016-07-02 22:14:50 805390 391
原创 支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界)作者:July 。致谢:pluskid、白石、JerryLead。说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。声明:本文于2012年便早已附上所有参考链接,并注明是篇“学习笔记”,且写明具体参考了pluskid等人的文章。文末2013年的PDF是为证。另...
2012-06-01 22:48:43 1490694 800
原创 一文速览Llama 3及其微调:如何通过paper-review数据集微调Llama3 8B
4.19日凌晨正准备睡觉时,突然审稿项目组的文弱同学说:Meta发布Llama 3系列大语言模型了一查,还真是本文以大模型开发者的视角,帮你迅速梳理下LLama的关键特征,并对比上一个版本的LLama2,且本文后续,将更新用我司paper-review数据集微调llama3的训练过程。
2024-04-19 10:45:36 2541 1
原创 七月论文审稿GPT第4.5版:通过15K条paper-review数据微调Llama2 70B(含各种坑)
当我们3月下旬微调完mixtral 8x7B之后,下一个想微调的就是llama2 70B因为之前积攒了不少微调代码和微调经验,所以3月底apple便通过5K的paper-review数据集成功微调llama2 70B,但过程中也费了不少劲考虑到最后的成功固然令人欣喜,但真正让一个人或一个团队快速涨经验的还是那些在训练过程中走过的踩过的各种坑以及走过的各种弯路,所以本文第一部分我会把apple在训练中的遇到各种报错信息而一步步debug、或各种搜Google、搜GitHub的过程都整理出来。
2024-04-18 15:48:23 3382 5
原创 RAG进阶之通用文档处理:从RAGFlow、TextMonkey到mPLUG-DocOwl 1.5
继InfiniFlow于去年年底正式开源 AI 原生数据库 Infinity 之后,InfiniFlow的的端到端 RAG 解决方案 RAGFlow 也于近期正式开源是的,你没看错, 这3个看起来很不性感的地方,恰恰是目前许多 LLM 没有做好的。伴随着长上下文 LLM 的升级,特别是针对长上下文“大海捞针”能力的提升,极大缓解了 RAG 实施中的痛点之一 —— 来自 LLM 自身的问题而另一大问题就是来自 RAG 系统本身,这包含:数据库的问题。多路召回对于 RAG还挺重要的。
2024-04-13 12:02:30 1601
原创 提升数据质量的三大要素:清洗prompt、数据溯源、数据增强(含Reviewer2及其实现)
如本文开头所说,当我们把各种模型都微调一遍之后,发现最终还是得回归到数据上,其中一个便是提高review的质量在我们之前的一系列工作中,我们针对一篇篇论文的多个review做多聚一,且摘要出多个要点,从而,一篇paper 一条review,最后,就可以弄成qa对 去微调开源模型而之前5k 15k条paper-review数据对中的review,就是根据旧prompt 通过GPT3.5 16K摘要出来的,但之前的旧prompt 比较简单,就4个点重要性和新颖性可能被接收的原因可能被拒绝的原因。
2024-04-12 11:05:29 1547
原创 Google视觉机器人超级汇总:从RT、RT-2到AutoRT/SARA-RT/RT-Trajectory、RT-H
随着对视觉语言机器人研究的深入,发现Google的工作很值得深挖,比如RT-2想到很多工作都是站在Google的肩上做产品和应用,Google真是科技进步的核心推动力,做了大量大模型的基础设施,服故有了本文,单独汇总Google在机器人领域的重大结果、进展。
2024-04-05 14:20:18 2286 1
原创 七月论文审稿GPT第4版:通过paper-review数据集微调Mixtral-8x7b,对GPT4胜率超过80%
解决方案:训练时使用了--quantization_bit 4 和 --flash_attn True,这里也要使用统一的才行。有些得单独版本对齐,本人使用的是cuda11.8。更多见七月的《大模型商用项目审稿GPT微调实战》推理所需显存为34318MiB。
2024-03-28 00:04:20 1593 3
原创 视频生成Sora的从零复现:从Latte、Open-Sora 1.0到StreamingT2V
目前比较接近sora的开源路线是:Stable Video Diffusion(关于SVD的介绍请看的第4部分]) + Stable Diffusion3的结构(SD3的详细介绍见的第4部分。
2024-03-19 15:51:36 2069
原创 视觉语言机器人的大爆发:从RT2、VoxPoser、OK-Robot到Figure 01、清华CoPa
Figure 的创始人 Brett Adcock 和 AI 团队的负责人 Corey Lynch 在 X 上解释了此次视频中机器人互动背后的原理此次的突破,由 OpenAI 与 Figure 共同做出。OpenAI 提供负责提供视觉推理和语言理解,而 Figure 的神经网络提供快速、低水平、灵巧的机器人动作机器人所做出的所有行为都是出于已经学习过,内化了的能力,而不是来自远程操作,具体则如下Figure 的机载摄像头以 10hz 的频率拍摄图像。
2024-03-17 00:12:26 1777 3
原创 七月论文审稿GPT第3.2版和第3.5版:通过paper-review数据集分别微调Mistral、gemma
我司由于一直在迭代论文审稿GPT,所以每个星期都在关注各大公司和科研机构推出的最新技术、最新模型而Google作为曾经的AI老大,我司自然紧密关注,所以当Google总算开源了一个gemma 7b,我当即表示必须支持一下,即用我司的paper-review数据集微调试下此外,去年Mistral instruct 0.1因为各种原因导致没跑成功时,我总感觉Mistral应该没那么拉胯,总感觉得多实验几次,所以打算再次尝试下Mistral instruct 0.2。
2024-03-12 17:27:33 2430
原创 学术论文GPT的源码解读与二次开发:从ChatPaper到gpt_academic
ChatPaper的自身定位是全流程加速科研:论文总结+专业级翻译+润色+审稿+审稿回复,因为论文更多是PDF的格式,故针对PDF的对话、总结、翻译,便不可避免的涉及到PDF的解析功能:将BeautifulSoup对象转换为JSON格式的字典,类似于某些开源项目的输出主要步骤:提取文章的标题、作者、发布日期、摘要、部分、引用、图形和公式返回一个包含所有这些信息的字典"""将BeautifulSoup对象转换为JSON格式的函数。
2024-03-06 18:02:36 2629
原创 Google发布Genie硬杠Sora:通过大量无监督视频训练最终生成可交互虚拟世界
Sora 问世才不到两个星期,谷歌的世界模型也来了,能力看似更强大(嗯,看似):它生成的虚拟世界自主可控。
2024-02-29 12:50:41 3058
原创 文生图的最新进展:从一致性模型CMs、LCM、SDXL到Stable Diffusion3、SDXL-Lightning
很明显,OpenAI的首个视频生成模型sora极大程度的点燃了大家对文生图、文生视频的热情,也极大的扩展了大家对AIGC的想象力
2024-02-27 20:19:57 3399 1
原创 视频生成Sora的全面解析:从AI绘画、ViT到ViViT、TECO、DiT、VDT、NaViT等
真没想到,举例视频生成上一轮的集中爆发才过去三个月,没想OpenAI一出手,该领域又直接变天了自打2.16日OpenAI发布sora以来,不但把同时段Google发布的Gemmi Pro 1.5干没了声音,而且网上各个渠道,大量新闻媒体、自媒体(含公号、微博、博客、视频)做了大量的解读,也引发了圈内外的大量关注,很多人因此认为,视频生成领域自此进入了大规模应用前夕,好比NLP领域中GPT3的发布一开始,我还自以为视频生成这玩意对于有场景的人,是重大利好,比如在影视行业的;
2024-02-18 22:49:27 31281 31
原创 七月论文审稿GPT第2.5和第3版:分别微调GPT3.5、Llama2 13B以扩大对GPT4的优势
我司自去年7月份成立大模型项目团队以来,至今已有5个项目组,其中所有项目均为会对外上线发布的商用项目,而论文审稿GPT至今在过去的半年已经迭代两个版本,其中第二版的效果甚至超过了GPT4(详见《),为了持续累积与原始GPT4的优势,我们如今正在迭代第2.5版本:包括对GPT3.5 turbo 16K的微调以及llama2 13B的微调,本文也因此而成。
2024-02-04 22:04:59 3084
原创 带RL的机器人:从类似预测下一个token的伯克利Digit到CMU 18万机器人
本工作为语言交互的机器人操作策略提供了一个新颖的基于现有开源 VLMs 的框架,使用简单微调就能实现出色的效果。RoboFlamingo 为机器人技术研究者提供了一个强大的开源框架,能够更容易地发挥开源 VLMs 的潜能。工作中丰富的实验结果或许可以为机器人技术的实际应用提供宝贵的经验和数据,有助于未来的研究和技术发展参考文献:第二部分// 待更。
2024-01-28 00:00:55 3978 1
原创 智能体AI Agent的极速入门:从ReAct、AutoGPT到AutoGen、QwenAgent、XAgent、MetaGPT
ReAct其实不是一个刚出来的概念,它于2022年10月份便由Google Research 的 Brain Team 通过此篇论文《》提出来了,没错,又是Google的建设性工作之一,曾一度感觉,没有Google(毕竟transformer、指令微调、CoT等哪个不是Google的杰作,包括RLHF也是Google deepmind和OpenAI联合推出来的),就没有后来的ChatGPT,^_^考虑一个智能体与环境交互以解决任务的一般设置。
2024-01-26 23:09:21 5478 1
原创 逐行解读ACT:斯坦福Mobile Aloha之动作分块算法ACT的代码剖析、训练部署
本文最早是属于《斯坦福Mobile ALOHA背后的关键技术:动作分块ACT算法的原理解析》的第二、第三部分,涉及到动作分块ACT的代码剖析与部署训练,但因为想把ACT的代码逐行剖析的更细致些,加之为避免上一篇文章太过于长,故把动作分块ACT的代码剖析与部署实践这块独立出来成本文。
2024-01-13 11:06:53 5570 14
原创 UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)
如下图所示a)具有不同类型动作表示的显式策略(b)隐式策略学习以动作和观察为条件的能量函数,并对最小化能量景观的动作进行优化(c)扩散策略通过学习的梯度场将噪声细化为动作。这种表述提供了稳定的训练,允许学习到的策略准确地建模为多模态动作分布,并容纳高维动作序列进一步,所谓扩散策略,是指将机器人的视觉运动策略表示为条件去噪扩散过程来生成机器人行为的新方法扩散策略学习动作-分布评分函数的梯度即该策略不是直接输出一个动作,而是以视觉观察为条件,对K次去噪迭代推断“动作-得分梯度”(
2024-01-10 23:59:28 4719 3
原创 斯坦福炒虾机器人Mobile ALOHA的关键技术:动作分块算法ACT的原理解析
根据上一篇文章《大模型机器人发展史:从VoxPoser、RT2到斯坦福Mobile ALOHA、Google机器人》可知,斯坦福Mobile ALOHA在其发布的论文中提到相当于Mobile ALOHA涉及到了这三大关键技术:ACT、Diffusion Policy、VINN,故本文分三个部分一一阐述。
2024-01-08 15:52:50 8466 2
原创 模仿学习的集中爆发:从Dobb·E、Gello到斯坦福Mobile ALOHA/UMI、FMB、DexCap
且一年前,因为对ChatGPT背后技术原理巨大的「好奇心」,加之极高的「分享热情」、以及想写一篇关于其原理最全面 最深入 最细致文章的「决心」,彻底改变了过去一年的轨迹博客证明了技术研究能力,课程证明了教学教研能力,项目证明了带队开发能力说干就干。
2024-01-07 12:02:12 5870 6
原创 一文掌握文本语义分割:从朴素切分、Cross-Segment到阿里SeqModel
之所以写本文,源于以下两点详见,但该系统也有个可选项,可以选择达摩院开源的语义分割模型:nlp_bert_document-segmentation_chinese-base考虑到在RAG中,embedding和文档语义分割、段落分割都是绕不开的关键点,故本文重点梳理下各类典型的语义分割模型。
2024-01-04 15:00:47 6019 5
原创 大模型上下文长度的超强扩展:从LongLoRA到LongQLoRA(含源码剖析)
本文一开始是《七月论文审稿GPT第2版:从Meta Nougat、GPT4审稿到Mistral、LongLora Llama》中4.3节的内容,但一方面考虑到LongLora的实用性,二方面为了把LongLora和LongQLora更好的写清楚,故把这部分的内容抽取出来独立成本文。
2024-01-04 00:10:53 3654 1
原创 一文通透Text Embedding模型:从text2vec、openai-text embedding到m3e、bge
判断哪些文本嵌入模型效果较好,通常需要一个评估指标来进行比较,《MTEB: Massive Text Embedding Benchmark(海量文本嵌入基准)》就是一个海量文本嵌入模型的评估基准论文地址:https://arxiv.org/abs/2210.07316MTEB包含8个语义向量任务,涵盖58个数据集和112种语言。通过在MTEB上对33个模型进行基准测试,我们建立了迄今为止最全面的文本嵌入基准。我们发现没有特定的文本嵌入方法在所有任务中都占主导地位。
2023-12-31 00:00:30 12402 3
原创 RAG知识库问答LangChain+LLM的二次开发:商用时的典型问题及其改进方案
如之前的文章所述,我司下半年成立大模型项目团队之后,我兼管整个项目团队,但为让项目的推进效率更高,故分成了三大项目组对于知识库问答,现在有两种方案,一种基于llamaindex,一种基于langchain +LLM,考虑到我已在此文《基于LangChain+LLM的本地知识库问答:从企业单文档问答到批量文档问答》中详细介绍了langchain、以及langchain-ChatGLM项目的源码剖析,本文重点则阐述如何通过基于langchain-chatchat二次开发一个知识库问答系统,包括其商用时的典型问题
2023-12-27 23:14:05 8315 12
原创 从Mistral 7B到MoE模型Mixtral 8x7B的全面解析:从原理分析到代码解读
23年12月9日,Mistral AI 在 X 平台甩出一条磁力链接,打开一看,发现是接近 87 GB 的种子看上去,Mistral 8x7B的架构此前传闻的GPT-4架构非常相似(很像传闻中GPT-4的同款方案),但是「缩小版」:8 个专家总数,而不是 16 名(减少一半)每个专家为 7B 参数,而不是 166B(减少 24 倍)42B 总参数(估计)而不是 1.8T(减少 42 倍)与原始 GPT-4 相同的 32K 上下文。
2023-12-23 23:48:13 11342 11
原创 大模型上下文扩展之YaRN解析:从直接外推ALiBi、位置插值PI、NTK-aware插值、YaRN
下半年以来,我全力推动我司大模型项目团队的组建,我虽兼管整个项目团队,但为了并行多个项目,最终分成了三个项目组,每个项目都有一个项目负责人,分别为霍哥、阿荀、朝阳,有何问题 欢迎随时留言评论,thanks了解几种外推方案做了什么然后再顺着苏剑林文章的思路来看为什么这样做但总觉得不够深刻moe我有了解过GLaM,Mistral那边的没了解过打算了解下,估计也大差不差。
2023-12-19 12:26:03 4077
原创 代码生成的原理解析:从Codex、GitHub Copliot到CodeLlama、CodeGeex
我们在这篇文章《》中的2.5节有提到,“2021 年7月,OpenAI发布Codex的论文《》,其中初始的Codex是根据120亿参数的GPT-3变体进行微调的,且通过对159GB的Python代码进行代码训练,后来这个120 亿参数的模型演变成OpenAI API中的code-cushman-001,具备较强的代码/推理能力”接下来,我们来看下Codex背后的原理到底是怎样的,即其是如何一步一步训练出来的。
2023-12-04 00:14:42 5516 5
原创 Sora之前的视频生成发展史:从Gen2、Emu Video到PixelDance、SVD、Pika 1.0
第一种是基础模式(Basic Mode),用户只需要提供一张指导图片+文本描述,PixelDance 就可以生成有高度一致性且有丰富动态性的视频,其中指导图片可以是真实图片,也可以利用现有的文生图模型生成。而达到这样拔群的视频生成效果,并没有依赖复杂的数据集和大规模的模型训练,PixelDance 在公开的 WebVid-10M 数据集上仅用 1.5B 大小的模型就达到了上述效果。),引发了开源社区的大量关注和讨论。迈出了关键性的一步,其生成结果的动态性显著优于目前现有的其它模型,引起了业界的关注。
2023-11-27 21:54:06 10891 4
原创 RLHF的替代之DPO原理解析:从RLHF、Claude的RAILF到DPO、Zephyr
今年5月份,斯坦福的一些研究者提出了RLHF的替代算法:直接偏好优化(Direct Preference Optimization,简称DPO),其对应论文为《那其与ChatGPT所用的RLHF有何本质区别呢,简言之RLHF将奖励模型拟合到人类偏好数据集上,然后使用RL方法比如PPO算法优化语言模型的策略,以输出可以获得高奖励的responses(同时不会偏离原始SFT模型太远)
2023-11-06 12:56:05 9411 4
原创 一文通透各种注意力:从多头注意力MHA到分组查询注意力GQA、多查询注意力MQA
因此,可以确认:在 MQA 中,除了 query 向量还保存着 8 个头,key 和 value 向量都只剩 1 个「公共头」了,这也正好印证了论文中所说的「所有 head 之间共享一份 key 和 value 的参数」然而,随着上下文窗口或批量大小的增加,多头注意力 (MHA)模型中与 KV 缓存大小相关的内存成本显着增长。对于较大的模型,KV 缓存大小成为瓶颈,键和值投影可以在多个头之间共享,而不会大幅降低性能,可以使用。),其能够在保证模型效果的同时加快 decoder 生成 token 的速度。
2023-11-05 11:48:34 4948
原创 一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long
关于位置编码和RoPE为彻底解决这个位置编码/RoPE的问题,我把另外两篇文章中关于这部分的内容抽取出来,并不断深入、扩展、深入,最终成为本文。
2023-10-27 23:16:18 9732 14
原创 通透理解FlashAttention与FlashAttention2:全面降低显存读写、加快计算速度
因此,可以确认:在 MQA 中,除了 query 向量还保存着 8 个头,key 和 value 向量都只剩 1 个「公共头」了,这也正好印证了论文中所说的「所有 head 之间共享一份 key 和 value 的参数」所以,上面讲到计算注意力的主要瓶颈是显存访问,因此减少对HBM的读写次数,有效利用更高速的SRAM来进行计算是非常重要的,而GPU有大量的线程来执行某个操作,称为。(需要注意的是,模型训练通常会影响到算子融合的效果,因为为了后向传递计算梯度,通常需要将某些中间结果写入到HBM中)
2023-10-06 20:08:32 14151 31
原创 从零实现带RLHF的类ChatGPT:逐行解析微软DeepSpeed Chat的源码
如此文所述,微软开源的DeepSpeed Chat(简称DSC)实现的不错,会给你一个完整而通透的“PPO算法/RLHF”的代码实现全流程,好的资料可以让你事半功抠完它的关键代码后,你会发现和之前本博客内另一篇写的原理部分都一一对应起来了(ChatGPT技术原理解析,只有懂原理才能更好的理解实现或实际实现,特别是该文的第三部分),而把论文、原理/算法、公式、代码一一对应,可以让你的理解有个质变微软开源的DeepSpeed Chat :一键式RLHF训练,可以用于自己训练ChatGPT中文版。
2023-09-17 10:46:29 6506 7
原创 知识图谱实战导论:从什么是KG到LLM与KG/DB的结合实战
DB-GPT基于 FastChat 构建大模型运行环境,并提供 vicuna 作为基础的大语言模型。此外,通过LangChain提供私域知识库问答能力,且有统一的数据向量化存储与索引:提供一种统一的方式来存储和索引各种数据类型,同时支持插件模式,在设计上原生支持Auto-GPT插件,具备以下功能或能力根据自然语言对话生成分析图表、生成SQL与数据库元数据信息进行对话, 生成准确SQL语句与数据对话, 直接查看执行结果。
2023-09-16 11:22:14 6842
程序员编程艺术第一~三十七章集锦 高清完整PDF版
2013-12-10
微软面试100题系列之高清完整版PDF文档[带目录+标签]by_July
2012-09-20
最新十五个经典算法研究与总结之高清完整PDF文档[带目录+标签]by_July
2012-08-05
结构之法算法之道blog博文集锦第7期CHM文件
2012-07-29
程序员编程艺术第一 ~二十七章(教你如何编程)高清完整PDF版by_July
2012-04-25
读书会·北京第1期之DeepQA框架&Siri;架构PPT
2012-02-13
基于给定的文档生成倒排索引的全部源码
2012-01-10
结构之法算法之道博文集锦最新第五期(July、10.31日制作)
2011-10-31
微软等数据结构+算法面试100题全部答案集锦
2011-10-15
十三个经典算法研究PDF文档[带目录+标签]
2011-07-08
结构之法 算法之道 第一期博文CHM文件集锦[版权所有,侵权必究]
2011-03-06
数学建模10大算法详解+程序源码打包
2011-01-29
[最新答案V0.4版]微软等数据结构+算法面试100题[第41-60题答案]
2011-01-04
红黑树的c实现源码与教程
2011-01-03
[开源分享]推荐一款界面超酷的Pocket PC 掌上电脑[源码下载]
2010-12-08
[珍藏版]微软等数据结构+算法面试100题全部出炉[100题V0.1最终完美版]
2010-12-06
新鲜出炉:微软等数据结构+算法面试100题第81-100题[V0.1版最后20题]
2010-12-05
[最新整理公布][汇总II]微软等数据结构+算法面试100题[第1-80题]
2010-11-20
[汇总I]精选微软等数据结构+算法面试100题[第1-60题]
2010-11-12
[答案V0.2版]精选微软数据结构+算法面试100题[前20题]
2010-11-06
[第二部分]精选微软等公司结构+算法面试100题[41-60题]
2010-11-05
[总结]各大内部排序算法性能比较+程序实现
2010-11-01
[答案V0.1版]精选微软数据结构+算法面试100题[前25题]
2010-10-30
windows程序设计第5版.pdf
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(下)
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(中)
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(上)
2010-10-25
侯捷+深入浅出MFC 2e part5.pdf
2010-10-25
侯捷+深入浅出MFC 2e part4.pdf
2010-10-25
侯捷+深入浅出MFC 2e part3.pdf
2010-10-25
侯捷+深入浅出MFC 2e part2.pdf
2010-10-25
侯捷+深入浅出MFC 2e part1.pdf
2010-10-25
[第一部分]精选微软等公司数据结构+算法经典面试100题[1-40题]
2010-10-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人