- 博客(9)
- 资源 (7)
- 收藏
- 关注
转载 SQL Server 2008 R2占用内存越来越大两种解决方法
SQL Server 2008 R2运行越久,占用内存会越来越大。第一种:有了上边的分析结果,解决方法就简单了,定期重启下SQL Server 2008 R2数据库服务即可,使用任务计划定期执行下边批处理:net stop sqlserveragentnet stop mssqlservernet start mssqlservernet start sqlserver
2015-06-30 09:02:05 20961
转载 读取某个文件夹下的所有文件
import java.io.File;import java.io.FileNotFoundException;import java.io.IOException;public class ReadFile { public ReadFile() { } /** * 读取某个文件夹下的所有文件 */ publi
2015-06-28 23:21:54 761
转载 软件系统性能的常见指标
衡量一个软件系统性能的常见指标有:1.响应时间(Response time) 响应时间就是用户感受软件系统为其服务所耗费的时间,对于网站系统来说,响应时间就是从点击了一个页面计时开始,到这个页面完全在浏览器里展现计时结束的这一段时间间隔,看起来很简单,但其实在这段响应时间内,软件系统在幕后经过了一系列的处理工作,贯穿了整个系统节点。根据“管辖区域”不同,响应时间可以细分为:
2015-06-22 23:18:51 25607
原创 Sql server2012中触发器发送http请求
Sql server2012中触发器发送http请求,可以通过创建存储过程,由存储过程发送http请求,触发器生成url参数,调用存储过程的方式。1、存储过程示例alter PROCEDURE P_GET_HttpRequestData( @URL varchar(500), @status int=0 OUT)ASBEGIN DECLARE @object int, @er
2015-06-17 14:23:58 6523
原创 svn: is not known to exist in the repository and is not part o
场景是:改了项目中的某一个目录,然后再提交的时候就报这个错svn: 项目路径 is not known to exist in the repository and is not part o解决办法:1把项目拷贝一份2删除项目(从本地磁盘上删除)3从svn检出4把修改的内容贴进去有更好的办法请留言
2015-06-17 11:02:37 13501 2
转载 SVN 错误中文对照
## Simplified Chinese translation for subversion package# This file is distributed under the same license as the subversion package.## Update to new pot:# msgmerge --update zh_CN.po subve
2015-06-17 08:55:13 7758
转载 还原数据库时,提示因为数据库正在使用,无法获得对数据库的独占访问权!
还原或删除sql server 2008数据库时,经常烩出现:“因为数据库正在使用,所以无法获得对数据库的独占访问权”,终解决方案如下关键SQL语句: ALTER DATABASE [datebase] SET OFFLINE WITH ROLLBACK IMMEDIATE用完之后再ALTER database [datebase] set onlin
2015-06-10 09:53:34 511
转载 sqlcmd 实用工具
sqlcmd 实用工具SQL Server 2014 其他版本 使用 sqlcmd 实用工具,可以在命令提示符处、在 SQLCMD 模式下的“查询编辑器”中、在 Windows 脚本文件中或者在 SQL Server 代理作业的操作系统 (Cmd.exe) 作业步骤中输入 Transact-SQL 语句、系统过程和脚本文件。此实用工具使用 ODB
2015-06-05 00:33:37 1124
转载 sql server 执行上100mb sql sql sql server 无法执行脚本 没有足够的内存继续执行
最近遇到一个问题,在sqlserver的查询分析器里面执行一个超过100MB的数据库脚本,发现老是报“引发类型为“System.OutOfMemoryException”的异常”,上网查了一下,主要是因为.sql的脚本文件过大(一般都超过100M)造成内存无法处理这么多的数据。 解决办法有各种各样,例如: 1、用记事本打开脚本文件,把文件依次剪切成10-15M左右的文本文件
2015-06-05 00:27:41 13036 6
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人