- 博客(254)
- 收藏
- 关注
原创 一文通透想颠覆Transformer的Mamba:从SSM、HiPPO、S4到Mamba
如本文开头所说,mamba论文的一作Albert Gu多年来一直在推动SSM的发展他在SSM的基础上,通过此篇论文《》首次提出了结构化状态空间S4(这里有关于S4的更多论文),但这篇论文的可读性比较差当然,作者在YouTube上有一个关于这篇S4论文的精彩解读,比S4论文的可读性提高很多,且本文中也应用了其中的部分PPT截图,但还可以更加通俗易懂。
2023-12-11 12:48:36 152760 236
原创 七月论文审稿GPT第2版:用一万多条paper-review数据微调LLaMA2 7B最终反超GPT4
如此前这篇文章《》中的第三部分所述,对于论文的摘要/总结、对话、翻译、语法检查而言,市面上的学术论文GPT的效果虽暂未有多好,可至少还过得去,而如果涉及到论文的修订/审稿,则市面上已有的学术论文GPT的效果则大打折扣。原因在哪呢?
2023-11-02 21:46:03 11852 8
原创 ChatGPT技术原理解析:从RL之PPO算法、RLHF到GPT4、instructGPT
本篇ChatGPT笔记会全力做到,通俗易懂且循序渐进(尽最大努力让每一个初学者哪怕是文科生都能没有障碍的读懂每一字一句、每一个概念、每一个公式)一方面,对于想了解ChatGPT背后原理和如何发展而来的,逐一阐述从GPT/GPT2/GPT3到强化学习、PPO算法,最后再到instructGPT、ChatGPT、SeqGAN且本文之前,99%的文章都不会把PPO算法从头推到尾,本文会把PPO从零推到尾,按照“RL-策略梯度-重要性采样(重要性权重)-TRPO(增加信任区域和KL散度约束)-PPO”的顺序逐步
2023-01-15 22:01:27 193325 139
原创 程序员面试、算法研究、机器学习、大模型/ChatGPT/AIGC、论文审稿、具身智能、RAG等11大系列集锦
程序员面试、算法研究、编程艺术、红黑树、机器学习5大经典原创系列集锦与总结作者:July--结构之法算法之道blog之博主。时间:2010年10月-2018年5月,一直在不断更新中..出处:http://blog.csdn.net/v_JULY_v。说明:本博客中部分文章经过不断修改、优化,已集结出版成书《编程之法:面试和算法心得》。前言 开博4年有余,...
2020-01-05 20:42:56 752003 501
原创 CNN笔记:通俗理解卷积神经网络
2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北京时,有一个词似乎比“机器学习”更火,那就是“深度学习”。本博客内写过一些机器学习相关的文章,但上一篇技术文章“LDA主题模型”还是写于2014年11月份,毕竟自2015年开始创业做在线教育后,太多的杂事、琐碎事,让我一直想再写点技术性文章但每每恨时间抽不开。然由于公司在不断开机器学习、深度学习等相关的在线课程,耳濡目染中,总会顺带着学习学习。
2016-07-02 22:14:50 834602 400
原创 支持向量机通俗导论(理解SVM的三层境界)
动笔写这个支持向量机是费了不少劲和困难的,原因很简单一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力二者这个东西也不好讲清楚,尽管网上已经有朋友写得不错了(见文末参考链接),但在描述数学公式的时候还是显得不够。得益于同学白石的数学证明,我还是想尝试写一下,希望本文在兼顾通俗易懂的基础上,真真正正能足以成为一篇完整概括和介绍支持向量机的导论性的文章本文在写的过程中,参考了不少资料,包括《支持向量机导论》、《统计学习方法》及网友pluskid的支持向量机系列等等,于此,还是一篇。
2012-06-01 22:48:43 1505544 804
原创 从Fast-UMI到Diff-Control:分别改进刷盘机器人UMI的硬件及其所用的扩散策略
24年9.28日下午,微信上的好友丁研究员和我说我当时(周六)和家人在李自健美术馆,故回复之:帅气,我晚上到家后看下我个人确实准备 这几天仔细研究下,毕竟我们之前也在基于umi/dexcap做二次开发,有很多契合点我深知这种感觉,因为当我司做出一个大模型应用或机器人解决方案,哪怕只是一篇博客时,都渴望和同行做各种深入交流而且正如技术合伙人姚博士所说,“fastumi数据采集方式的改进强,因为我们当时也考虑过t265,但确实是人手不足”
2024-10-01 15:32:54 1192 1
原创 ReKep——李飞飞团队提出的让机器人具备空间智能:基于视觉语言模型GPT-4o和关系关键点约束
ReKep 的一个实例是一个函数,它将关键点数组(记作 k)映射到一个无界的成本,其中表示约束已满足函数实现为一个无状态的 Python 函数,包含对关键点进行的 NumPy [123] 操作,这些操作可能是非线性和非凸的本质上,ReKep 的一个实例编码了关键点之间的一种期望的空间关系,这些关键点可能属于机器人手臂、物体部件和其他代理然而,一个操作任务通常涉及多个空间关系,并且可能具有多个时间上相互依赖的阶段,每个阶段都包含不同的空间关系。
2024-09-18 23:48:37 1908 1
原创 一文通透DeepSeek-V2(改造Transformer的中文模型):详解MoE、GRPO、MLA
成就本文有以下三个因素校长最近开始搞deepseek了吗?刚看了论文,没搞懂MLA那块的cache是怎么算的,我总觉得他的效果应该类似MQA才对,但是反馈是挺好的目前团队项目上的事情太多,然后近期在写那个KAN确实还没来得及看这个deepseek,我近期看下而搞之前——近几天,会先写一下它的论文解读,故本文就来了且一如既往做到,对于几乎每一个主题,都做到本博客万千读者或七月学员所说的:“还是看校长的文章好理解”,如有任何问题或任何不懂的地方,可以随时留言/评论,我会找时间尽快回复。
2024-08-26 21:18:39 3295 2
原创 让AI写论文——全流程全自动的AI科学家:基于大模型提炼idea、写代码、做实验且最终写成论文
熟悉本博客或我司七月的知道,过去一年,在机器人解决方案之外,大模型应用开发团队一直专注通过大模型赋能科研行业,所以在做面向科研论文相关的翻译、审稿、对话、修订(包含语法纠错、润色)、idea提炼等诸多系统(),目前正在逐一上线七月官网8.14这一天,一关注我们的朋友黄总,发我一篇文章《首位AI科学家问世!已独立生成10篇学术论文,还顺手搞了AI审稿人》,并说:“看看你们审稿大模型有什么可以借鉴的”我仔细一看,原来是这篇论文。
2024-08-15 23:30:32 2878
原创 2024自动驾驶(多模态)大模型综述:从DriveGPT4、DriveMLM到DriveLM、DriveVLM
本文主要涉及以下4篇paper的解读(按发表的时间顺序排列)DriveGPT4: Interpretable End-to-end Autonomous Driving via Large Language ModelDriveMLM: Aligning Multi-Modal Large Language Models with Behavioral Planning States for Autonomous DrivingDriveLM: Driving with Graph Visual
2024-08-12 19:00:54 3925 5
原创 微调LLama 3.1——七月论文审稿GPT第5.5版:拿早期paper-review数据集微调LLama 3.1
对于llama3,我们之前已经做了针对llama3 早7数据微调后的测评后来,llama3.1出来后,考虑到性能高于llama3,所以项目组同事青睐、文弱上周做了llama3.1通过早7数据微调后的测评随后,青睐、文弱又分别做了最终,早7数据下,超gpt4 超的不容易;但早4数据下,超gpt4 则很轻松..个人心得是,首先,llama3.1确实是比llama3 更强悍,其次,现在微调一下超过GPT4,已经不是啥新闻了,我自己都疲了,🐶..
2024-08-09 17:13:13 3833 5
原创 SRT——基于模仿学习的手术机器人:来自约翰霍普金斯大学和斯坦福ALOHA团队
7.17,我司七月九周年司庆之际,我机器人方向的技术合伙人姚博士发我一篇文章,这篇文章提道:“约翰霍普金斯大学、斯坦福大学合作的手术机器人 Transformer(Surgical Robot Transformer ,SRT),通过端到端模仿学习实现手术任务自动化。在时间落地时,这个研究基于达芬奇机器人上,实现了自动化:打结、针头操作、软组织操作”姚博士当时评论道:他们的策略就是我july博客内介绍过的ACT和diffusion policy,说明只要数据集足够,很多功能都能实现。
2024-07-28 13:16:24 3850 1
原创 一文速览Llama 3.1——对其92页paper的全面细致解读:涵盖语言、视觉、语音的架构、原理
llama3 刚出来时,其长度只有8K对于包括我司在内的大模型开发者是个小小的缺憾,好在很快,在7.23日,Meta发布了Llama 3.1,长度终于达到了128K这个长度使得可以直接通过我司的paper-review数据集去微调了如此,便有了本文:解读下llama3.1的paper,结果一看92页,好在昨天我司上线了基于大模型的翻译系统,那先翻译一下 快速看下大概 然后慢慢抠。
2024-07-24 12:19:47 15805 5
原创 一文通透TTT:让RNN的隐藏层变成可学习的函数——继mamba之后也想超越Transformer
TTT出来有一段时间了,让我确定要写TTT解读的,是源于我司LLM论文100篇课程群里的一学员辰子说,“校长 最近的TTT考不考虑讲一下”故当时想着:解读完mamba2之后,则解读open-television、我司7方面review微调gemma2,再接下来是TTT、nature审稿微调、序列并行、Flash Attention3..如今虽然mamba2的解读还没完全修订完,但“open-television、我司7方面review微调gemma2”都解读的差不多了,故今天开写TTT。
2024-07-22 21:42:05 3962
原创 UC San Diego的三大机器人:AnyTeleop、Open-TeleVision、Bunny-VisionPro——从RGB相机到VR远程控制机器人
这篇论文的链接,我当时快速看了一遍,还是有价值的一个工作(其应该有受humanplus工作的其他),一直想做下解读来着,无奈过去一周一直在弄mamba2的解读,所以没来得及弄。码器捕捉图像和本体感觉标记的关系,Transformer解码器输出特定块大小的动作序列。手腕的姿态流式传输到服务器。服务器将人类姿态重新定向到机器人,并将关节位置目标。如下图所示,便是TeleVision的远程操作数据收集和学习设置。7.3日,我司大模型机器人(具身智能)线下营群里的一学员发了《左:我们的远程操作系统。
2024-07-12 23:11:20 6919 3
原创 一文通透mamba2「力证Transformer are SSM」:从SSM、半可分矩阵、SMA、SSD到mamba2
实话说,过去一两月一直忙着我司两大类项目的推进所以虽然说mamba2已发布一月有余,但实在是没有一块完整的时间来对其做详尽而细致的解读,而最终促使我来写的最大的动力还是来源于我半年前对mamba1的解读实在是太受欢迎了且影响力巨大然,在我下定决心写本文之前,内心还是有过一阵小纠结的不过还是因为过去十多年写博客的经验,使得自己在面对再难啃的算法都有足够的自信与底气,坚信都可以一步步拆解、一步步抽丝剥茧并清晰易懂的写出来,故本文最终还是来了。
2024-07-03 00:34:02 12091 29
原创 一文速览Gemma及其微调(第5.2版):通过我司七月的早期paper-7方面review数据集微调Gemma2
如此文《》所讲Google作为曾经的AI老大,我司自然紧密关注,所以当Google总算开源了一个gemma 7b,作为有技术追求、技术信仰的我司,那必须得支持一下,比如用我司的paper-review数据集微调试下,彰显一下gemma的价值与威力。
2024-06-29 11:58:11 4340
原创 微调LLama 3——七月论文审稿GPT第5版:拿早期paper-7方面review数据集微调LLama 3
用早期paper-4方面review微调llama2本节微调完之后,自然便可以与以下模型PK(针对哪个情况,则用那个情况的paper,所以评估llama3版本的情况3时,则都统一早期paper)
2024-06-24 17:17:51 3801
原创 康奈尔大学之论文审稿模型Reviewer2及我司七月对其的实现(含PeerRead)
自从我司于23年7月开始涉足论文审稿领域之后,在业界的影响力越来越大,所以身边朋友如发现业界有相似的工作,一般都会第一时间发给我,比如本部分要介绍的康奈尔大学的reviewer2当然,我自己也会各种看类似工作的论文,毕竟同行之间的工作一定会互相借鉴的,我们会学他们,他们看到我们的工作后自然也会受到不小的启发,而在大模型时代一个技术人保持竞争力的最佳方式就两点:保持对最新技术/paper的跟踪,每天各种大量实践/折腾/实验。
2024-06-23 00:09:51 3636 2
原创 人体姿态估计WHAM与手势估计HaMeR——人形机器人背后的关键技术之一
根据arXiv的记录,此篇论文的提交记录为[Submitted on 12 Dec 2023 (v1), last revised 18 Apr 2024 (this version, v2)]如下图所示,WHAM的输入是由可能具有未知运动的相机捕获的原始视频数据,接下来的目标是预测对应的SMPL模型参数序列,以及在世界坐标系中表达的根方向和平移,具体做法是。
2024-06-22 17:39:48 3659 1
原创 HumanPlus(斯坦福人形机器人)的代码解读与复现关键:从HST到HIT、HardWare
本文一开始是属于此文的第四部分,但为避免原文篇幅过长,故把该部分抽取出来独立成文过程中解读斯坦福人形机器人humanplus的代码时,还是充满乐趣的,比如又遇到了熟悉的ppo,想到也算是可谓三者合一、步步为赢了大模型时代,技术更迭速度超过以往任何,而个人认为机器人(具身智能)将是未来几年最大的趋势,包括我司机器人线下营曾一天连报5人(开营后,将邀请一波人加入我司机器人开发队伍),愿与有缘人共同开发机器人。
2024-06-19 10:40:58 4660 9
原创 HumanPlus——斯坦福ALOHA团队开源的人形机器人:融合影子学习技术、RL、模仿学习
今天只是一个平常的日子,不过看到了两篇文章一篇是《半年冒出近百家新公司,「具身智能」也有春天》我看完之后转发到朋友圈,并评论道:让机器人翻一万个后空翻,不如让机器人打好一个螺钉,毕竟在目前阶段 炫酷没有意义,所以我们近期全力为工厂去赋能,解决一个个工业场景期待我司与更多工厂合作,从前期的验证、评估开始另外一篇文章便是之前斯坦福Moblie aloha团队竟然开源推出了他们的人形机器人,虽然我司下半年暂不涉足人形机器人(更多还是解决工厂实际业务场景 怎么把活干好、干漂亮则怎么来,是否人形不重要)
2024-06-16 12:25:12 9307 9
原创 LeRobot——Hugging Face打造的机器人领域的Transformer架构
比如,在这个数据可视化的例子中,它展示了LeRobot是如何在Return(一个SDK和查看器,用于可视化与多模态数据流交互)上运行的,数据集来自Aloha项目(用于异构架构运行时自适应和安全深度学习的软件框架,主要目标是促进深度学习算法在异构低能耗计算平台上的实现,为最佳算法选择、资源分配和部署提供自动化。Cadene 发布了一些由Github上LeRobot库的代码提供的机器人功能的示例,它们都是在真实数据集上训练的。上述两个数据集都是在机器人公司Trossen Robotics的机械臂上收集的。
2024-06-15 00:47:28 3470
原创 DexCap——斯坦福李飞飞团队泡茶机器人:更好数据收集系统的原理解析、源码剖析
2023年7月,我司组建大模型项目开发团队,从一开始的论文审稿,演变成目前的两大产品线论文方面,除了论文审稿之外,目前正在逐一开发论文翻译、论文对话、论文idea提炼、论文修订/润色/语法纠错、论文检索机器人方面,我们1月份开始攻机器人、Q1组建队伍、5月份成功复现UMI和DexCap后,本月(即6月)总算要开始为工厂赋能了(目前已经谈好三个工厂的合作意向)
2024-06-03 12:28:31 6785 9
原创 一文通透想取代MLP的KAN:通俗理解Kolmogorov-Arnold定理和KAN的方方面面
24年5.19,我司七月的「LLM论文100课」里的一学员在课程q群内提到,“最近总是看到KAN,KAN这个概念重要吗?需要了解学习吗?”,我当时回复道:KAN值得学习和了解,咱们课程上 也要讲一下如此,本文也就出来了。
2024-05-20 23:49:21 12804 10
原创 基于大模型的idea提炼与创意生成:从让chatgpt直接生成创意到围绕论文和引用提炼idea之ResearchAgent
对本博客比较熟悉的朋友知道,我司论文项目组正在基于大模型做论文的审稿(含CS英文论文审稿、和金融中文论文审稿)、翻译,且除了审稿翻译之外,我们还将继续做润色/修订、idea提炼(包含论文检索),是一个大的系统,包含完整的链路由于论文项目组已壮大到18人,故目前在并行多个事,且我也针对idea提炼做一下技术探索,本文解析关于idea提炼的两篇论文。
2024-05-06 22:40:25 4317 2
原创 一文速览Llama 3:从Llama 3的模型架构到如何把长度扩展到100万——基于NTK-aware插值
4.19日凌晨正准备睡觉时,突然审稿项目组的文弱同学说:Meta发布Llama 3系列大语言模型了一查,还真是本文以大模型开发者的视角,帮你迅速梳理下LLama的关键特征,并对比上一个版本的LLama2,且本文后续,将更新用我司paper-review数据集微调llama3的训练过程。
2024-04-19 10:45:36 12222 1
原创 七月论文审稿GPT第4.2版:通过15K条paper-review数据微调Llama2 70B(含各种坑)
当我们3月下旬微调完mixtral 8x7B之后,下一个想微调的就是llama2 70B因为之前积攒了不少微调代码和微调经验,所以3月底apple便通过5K的paper-review数据集成功微调llama2 70B,但过程中也费了不少劲考虑到最后的成功固然令人欣喜,但真正让一个人或一个团队快速涨经验的还是那些在训练过程中走过的踩过的各种坑以及走过的各种弯路,所以本文第一部分我会把apple在训练中的遇到各种报错信息而一步步debug、或各种搜Google、搜GitHub的过程都整理出来。
2024-04-18 15:48:23 6186 6
原创 从零实现本地知识库问答——实战基于OCR和文本解析器的新一代RAG引擎:RAGFlow(含源码剖析)
继InfiniFlow于去年年底正式开源 AI 原生数据库 Infinity 之后,InfiniFlow的的端到端 RAG 解决方案 RAGFlow 也于近期正式开源是的,你没看错, 这3个看起来很不性感的地方,恰恰是目前许多 LLM 没有做好的。伴随着长上下文 LLM 的升级,特别是针对长上下文“大海捞针”能力的提升,极大缓解了 RAG 实施中的痛点之一 —— 来自 LLM 自身的问题而另一大问题就是来自 RAG 系统本身,这包含:数据库的问题。多路召回对于 RAG还挺重要的。
2024-04-13 12:02:30 7046 3
原创 提升大模型数据质量的三大要素:找到早期paper且基于GPT摘要出来7方面review(七月论文审稿GPT第4.5/4.6/4.8版)
如本文开头所说,当我们把各种模型都微调一遍之后,发现最终还是得回归到数据上,其中一个便是提高review的质量在我们之前的一系列工作中,我们针对一篇篇论文的多个review做多聚一,且摘要出多个要点,从而,一篇paper 一条review,最后,就可以弄成qa对 去微调开源模型而之前5k 15k条paper-review数据对中的review,就是根据旧prompt 通过GPT3.5 16K摘要出来的,但之前的旧prompt 比较简单,就4个点重要性和新颖性可能被接收的原因可能被拒绝的原因。
2024-04-12 11:05:29 4778 3
原创 Google视觉机器人超级汇总:从RT、RT-2到AutoRT/SARA-RT/RT-Trajectory、RT-H
随着对视觉语言机器人研究的深入,发现Google的工作很值得深挖,比如RT-2想到很多工作都是站在Google的肩上做产品和应用,Google真是科技进步的核心推动力,做了大量大模型的基础设施,服故有了本文,单独汇总Google在机器人领域的重大结果、进展。
2024-04-05 14:20:18 6170 2
原创 七月论文审稿GPT第4版:通过paper-review数据集微调Mixtral-8x7b,对GPT4胜率超过80%
解决方案:训练时使用了--quantization_bit 4 和 --flash_attn True,这里也要使用统一的才行。有些得单独版本对齐,本人使用的是cuda11.8。更多见七月的《大模型商用项目审稿GPT微调实战》推理所需显存为34318MiB。
2024-03-28 00:04:20 3494 3
原创 视频生成Sora的从零复现:从Latte、Open-Sora(含1.0及其升级版)到StreamingT2V
目前比较接近sora的开源路线是:Stable Video Diffusion(关于SVD的介绍请看的第4部分]) + Stable Diffusion3的结构(SD3的详细介绍见的第4部分。
2024-03-19 15:51:36 5456
原创 视觉语言机器人的大爆发:从RT2、VoxPoser、OK-Robot到Figure 01、清华CoPa
Figure 的创始人 Brett Adcock 和 AI 团队的负责人 Corey Lynch 在 X 上解释了此次视频中机器人互动背后的原理此次的突破,由 OpenAI 与 Figure 共同做出。OpenAI 提供负责提供视觉推理和语言理解,而 Figure 的神经网络提供快速、低水平、灵巧的机器人动作机器人所做出的所有行为都是出于已经学习过,内化了的能力,而不是来自远程操作,具体则如下Figure 的机载摄像头以 10hz 的频率拍摄图像。
2024-03-17 00:12:26 5600 4
原创 七月论文审稿GPT第3.2版和第3.5版:通过paper-review数据集分别微调Mistral、gemma
我司由于一直在迭代论文审稿GPT,所以每个星期都在关注各大公司和科研机构推出的最新技术、最新模型而Google作为曾经的AI老大,我司自然紧密关注,所以当Google总算开源了一个gemma 7b,我当即表示必须支持一下,即用我司的paper-review数据集微调试下此外,去年Mistral instruct 0.1因为各种原因导致没跑成功时,我总感觉Mistral应该没那么拉胯,总感觉得多实验几次,所以打算再次尝试下Mistral instruct 0.2。
2024-03-12 17:27:33 3876
原创 学术论文GPT的源码解读与二次开发:从ChatPaper到gpt_academic
ChatPaper的自身定位是全流程加速科研:论文总结+专业级翻译+润色+审稿+审稿回复,因为论文更多是PDF的格式,故针对PDF的对话、总结、翻译,便不可避免的涉及到PDF的解析功能:将BeautifulSoup对象转换为JSON格式的字典,类似于某些开源项目的输出主要步骤:提取文章的标题、作者、发布日期、摘要、部分、引用、图形和公式返回一个包含所有这些信息的字典"""将BeautifulSoup对象转换为JSON格式的函数。
2024-03-06 18:02:36 4202
原创 Google发布Genie硬杠Sora:通过大量无监督视频训练最终生成可交互虚拟世界
Sora 问世才不到两个星期,谷歌的世界模型也来了,能力看似更强大(嗯,看似):它生成的虚拟世界自主可控。
2024-02-29 12:50:41 4269
原创 文生图的最新进展:从一致性模型CMs、LCM、SDXL到Stable Diffusion3、SDXL-Lightning
很明显,OpenAI的首个视频生成模型sora极大程度的点燃了大家对文生图、文生视频的热情,也极大的扩展了大家对AIGC的想象力
2024-02-27 20:19:57 5745 1
原创 视频生成Sora的全面解析:从AI绘画、ViT到ViViT、TECO、DiT、VDT、NaViT等
真没想到,举例视频生成上一轮的集中爆发才过去三个月,没想OpenAI一出手,该领域又直接变天了自打2.16日OpenAI发布sora以来,不但把同时段Google发布的Gemmi Pro 1.5干没了声音,而且网上各个渠道,大量新闻媒体、自媒体(含公号、微博、博客、视频)做了大量的解读,也引发了圈内外的大量关注,很多人因此认为,视频生成领域自此进入了大规模应用前夕,好比NLP领域中GPT3的发布一开始,我还自以为视频生成这玩意对于有场景的人,是重大利好,比如在影视行业的;
2024-02-18 22:49:27 44724 33
程序员编程艺术第一~三十七章集锦 高清完整PDF版
2013-12-10
微软面试100题系列之高清完整版PDF文档[带目录+标签]by_July
2012-09-20
最新十五个经典算法研究与总结之高清完整PDF文档[带目录+标签]by_July
2012-08-05
结构之法算法之道blog博文集锦第7期CHM文件
2012-07-29
程序员编程艺术第一 ~二十七章(教你如何编程)高清完整PDF版by_July
2012-04-25
读书会·北京第1期之DeepQA框架&Siri;架构PPT
2012-02-13
基于给定的文档生成倒排索引的全部源码
2012-01-10
结构之法算法之道博文集锦最新第五期(July、10.31日制作)
2011-10-31
十三个经典算法研究PDF文档[带目录+标签]
2011-07-08
结构之法 算法之道 第一期博文CHM文件集锦[版权所有,侵权必究]
2011-03-06
数学建模10大算法详解+程序源码打包
2011-01-29
[最新答案V0.4版]微软等数据结构+算法面试100题[第41-60题答案]
2011-01-04
红黑树的c实现源码与教程
2011-01-03
[开源分享]推荐一款界面超酷的Pocket PC 掌上电脑[源码下载]
2010-12-08
新鲜出炉:微软等数据结构+算法面试100题第81-100题[V0.1版最后20题]
2010-12-05
[最新整理公布][汇总II]微软等数据结构+算法面试100题[第1-80题]
2010-11-20
[汇总I]精选微软等数据结构+算法面试100题[第1-60题]
2010-11-12
[第二部分]精选微软等公司结构+算法面试100题[41-60题]
2010-11-05
[总结]各大内部排序算法性能比较+程序实现
2010-11-01
[答案V0.1版]精选微软数据结构+算法面试100题[前25题]
2010-10-30
windows程序设计第5版.pdf
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(下)
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(中)
2010-10-25
[极品收藏]Windows 核心编程完整中文pdf版(上)
2010-10-25
侯捷+深入浅出MFC 2e part5.pdf
2010-10-25
侯捷+深入浅出MFC 2e part4.pdf
2010-10-25
侯捷+深入浅出MFC 2e part3.pdf
2010-10-25
侯捷+深入浅出MFC 2e part2.pdf
2010-10-25
侯捷+深入浅出MFC 2e part1.pdf
2010-10-25
[第一部分]精选微软等公司数据结构+算法经典面试100题[1-40题]
2010-10-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人