SQL Server 2008R2安装详细教程(附安装包)

许多人都在苦恼如何安装SQL server,或者找不着安装包,那么这篇文章将带您避坑,解决您的烦恼
安装包如下:
云盘链接:
嗨,请点击我!http://pan.baidu.com/s/1_7sQ9Eky2mGogKe4W0A_6Q
提取码:1024

安装步骤如下:

1、下载并解压安装包,找到解压的安装包,双击【setup】

在这里插入图片描述

2、如果出现下图界面,那么就下载并安装此功能,有些电脑是不会出现这个界面的

在这里插入图片描述

3、下载好上述功能后点击【关闭】,便开始安装了

在这里插入图片描述

4、在出现的界面中左边点击【安装】,然后选择第一个操作,如图:

在这里插入图片描述

5、点击【确定】

在这里插入图片描述

6、选择【输入产品密钥】,产品密钥会自动填入的,然后点击【下一步】

在这里插入图片描述

7、勾选【我接受许可条款】,然后点击【下一步】

在这里插入图片描述

8、点击【安装】

在这里插入图片描述

9、点击【下一步】

在这里插入图片描述

10、点击【下一步】

在这里插入图片描述

11、点击【全选】,然后点击【下一步】

注意:此界面出现的路径最好不要去修改
在这里插入图片描述

12、【下一步】

在这里插入图片描述

13、【下一步】

在这里插入图片描述

14、【下一步】

在这里插入图片描述

15、选择【对所有SQL Server服务使用相同账户】

在这里插入图片描述

16、在出现的界面中,账户名选择第二个,然后【下一步】如图:

在这里插入图片描述

17、选择【混合模式】,然后输入密码,并【添加当前用户】,再【下一步】

在这里插入图片描述

18、点击【添加当前用户】,【下一步】

在这里插入图片描述

19、三个【下一步】

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

20、点击【安装】

在这里插入图片描述

21、安装完成后,关闭此界面即可

到这时已经安装好了
在这里插入图片描述

22、在快速启动中找到安装目录,点击 SQL Server Management Studio

在这里插入图片描述

23、连接到服务器,服务器名称填入 . 或者计算机名 在这里插入图片描述

24、运行成功界面

在这里插入图片描述

YOLOV8基于Opset-12导出的ONNX模型,使用TensorRT-8.2.1.8转换模型时,提示以下错误,请问如何修复这个错误?: [06/01/2023-17:17:23] [I] TensorRT version: 8.2.1 [06/01/2023-17:17:23] [I] [TRT] [MemUsageChange] Init CUDA: CPU +323, GPU +0, now: CPU 335, GPU 1027 (MiB) [06/01/2023-17:17:24] [I] [TRT] [MemUsageSnapshot] Begin constructing builder kernel library: CPU 335 MiB, GPU 1027 MiB [06/01/2023-17:17:24] [I] [TRT] [MemUsageSnapshot] End constructing builder kernel library: CPU 470 MiB, GPU 1058 MiB [06/01/2023-17:17:24] [I] Start parsing network model [06/01/2023-17:17:24] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-17:17:24] [I] [TRT] Input filename: /opt/projects/ultralytics/runs/detect/train/weights/best.onnx [06/01/2023-17:17:24] [I] [TRT] ONNX IR version: 0.0.8 [06/01/2023-17:17:24] [I] [TRT] Opset version: 17 [06/01/2023-17:17:24] [I] [TRT] Producer name: pytorch [06/01/2023-17:17:24] [I] [TRT] Producer version: 2.0.0 [06/01/2023-17:17:24] [I] [TRT] Domain: [06/01/2023-17:17:24] [I] [TRT] Model version: 0 [06/01/2023-17:17:24] [I] [TRT] Doc string: [06/01/2023-17:17:24] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-17:17:24] [W] [TRT] onnx2trt_utils.cpp:366: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32. [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:773: While parsing node number 267 [Range -> "/model.28/Range_output_0"]: [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:774: --- Begin node --- [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:775: input: "/model.28/Constant_9_output_0" input: "/model.28/Cast_output_0" input: "/model.28/Constant_10_output_0" output: "/model.28/Range_output_0" name: "/model.28/Range" op_type: "Range" [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:776: --- End node --- [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:779: ERROR: builtin_op_importers.cpp:3352 In function importRange: [8] Assertion failed: inputs.at(0).isInt32() && "For range operator with dynamic inputs, this version of TensorRT only supports INT32!" [06/01/2023-17:17:24] [E] Failed to parse onnx file [06/01/2023-17:17:24] [I] Finish parsing network model [06/01/2023-17:17:24] [E] Parsing model failed [06/01/2023-17:17:24] [E] Failed to create engine from model. [06/01/2023-17:17:24] [E] Engine set up failed
06-02
评论 60
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值