Sql 2005启动不了,报错如下时的解决办法!

解决办法:

开始->programs->MicroSoft SQL Server 2005->Configuration tools->SQL Server Configuration Manager

选择 SQL Server 2005 Network Configuartion-> Protocols for SQL ExpRESS 再 选择 TCP/IP 属性  ,选择IP Addresses

 

IP1 的 IP Address 请确认是 你服务器的 IP地址 ,  如果服务器为本地的话。在网上邻居看一下IP 地址 填上。IP 2 为 127.0.0.1

---------------------------------------------------------------------------------------------------------------

报错如下:
2009-11-04 10:30:08.96 Server      Microsoft SQL Server 2005 - 9.00.1399.06 (Intel X86)
    Oct 14 2005 00:33:37
    Copyright (c) 1988-2005 Microsoft Corporation
    Express Edition on Windows NT 5.1 (Build 2600: Service Pack 2)

2009-11-04 10:30:08.96 Server      (c) 2005 Microsoft Corporation.
2009-11-04 10:30:08.96 Server      All rights reserved.
2009-11-04 10:30:08.96 Server      Server process ID is 1344.
2009-11-04 10:30:08.96 Server      Logging SQL Server messages in file 'c:/Program Files/Microsoft SQL Server/MSSQL.1/MSSQL/LOG/ERRORLOG'.
2009-11-04 10:30:08.96 Server      This instance of SQL Server last reported using a process ID of 1512 at 2009-11-4 10:28:23 (local) 2009-11-4 2:28:23 (UTC). This is an informational message only; no user action is required.
2009-11-04 10:30:08.96 Server      Registry startup parameters:
2009-11-04 10:30:08.96 Server           -d c:/Program Files/Microsoft SQL Server/MSSQL.1/MSSQL/DATA/master.mdf
2009-11-04 10:30:08.96 Server           -e c:/Program Files/Microsoft SQL Server/MSSQL.1/MSSQL/LOG/ERRORLOG
2009-11-04 10:30:08.96 Server           -l c:/Program Files/Microsoft SQL Server/MSSQL.1/MSSQL/DATA/mastlog.ldf
2009-11-04 10:30:08.98 Server      SQL Server is starting at normal priority base (=7). This is an informational message only. No user action is required.
2009-11-04 10:30:08.98 Server      Detected 2 CPUs. This is an informational message; no user action is required.
2009-11-04 10:30:09.48 Server      Using dynamic lock allocation.  Initial allocation of 2500 Lock blocks and 5000 Lock Owner blocks per node.  This is an informational message only.  No user action is required.
2009-11-04 10:30:09.51 Server      Database Mirroring Transport is disabled in the endpoint configuration.
2009-11-04 10:30:09.51 spid4s      Starting up database 'master'.
2009-11-04 10:30:09.60 spid4s      SQL Trace ID 1 was started by login "sa".
2009-11-04 10:30:09.66 spid4s      Starting up database 'mssqlsystemresource'.
2009-11-04 10:30:09.85 spid4s      Server name is '3CND01858/SQLEXPRESS'. This is an informational message only. No user action is required.
2009-11-04 10:30:09.85 spid8s      Starting up database 'model'.
2009-11-04 10:30:09.85 spid4s      Starting up database 'msdb'.
2009-11-04 10:30:09.90 Server      Error: 17190, Severity: 16, State: 1.
2009-11-04 10:30:09.90 Server      FallBack certificate initialization failed with error code: 1.
2009-11-04 10:30:09.90 Server      Warning:Encryption is not available, could not find a valid certificate to load.
2009-11-04 10:30:09.91 Server      Error: 26024, Severity: 16, State: 1.
2009-11-04 10:30:09.91 Server      Server failed to listen on 172.28.57.229 <ipv4> 1433. Error: 0x2741. To proceed, notify your system administrator.
2009-11-04 10:30:09.91 Server      Error: 17182, Severity: 16, State: 1.
2009-11-04 10:30:09.91 Server      TDSSNIClient initialization failed with error 0x2741, status code 0xa.
2009-11-04 10:30:09.91 Server      Error: 17182, Severity: 16, State: 1.
2009-11-04 10:30:09.91 Server      TDSSNIClient initialization failed with error 0x2741, status code 0x1.
2009-11-04 10:30:09.91 Server      Error: 17826, Severity: 18, State: 3.
2009-11-04 10:30:09.91 Server      Could not start the network library because of an internal error in the network library. To determine the cause, review the errors immediately preceding this one in the error log.
2009-11-04 10:30:09.91 Server      Error: 17120, Severity: 16, State: 1.
2009-11-04 10:30:09.91 Server      SQL Server could not spawn FRunCM thread. Check the SQL Server error log and the Windows event logs for information about possible related problems.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 问题描述: 在使用Spark SQL操作Hive,出现了报错,如下所示: ``` Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.hive.ql.exec.Utilities.clearWorkMap()V at org.apache.spark.sql.hive.client.ClientWrapper.<init>(ClientWrapper.scala:204) at org.apache.spark.sql.hive.client.IsolatedClientLoader.createClient(IsolatedClientLoader.scala:271) at org.apache.spark.sql.hive.HiveUtils$.newClientForMetadata(HiveUtils.scala:362) at org.apache.spark.sql.hive.HiveUtils$.newClientForMetadata(HiveUtils.scala:266) at org.apache.spark.sql.hive.HiveSharedState.metadataHive$lzycompute(HiveSharedState.scala:39) at org.apache.spark.sql.hive.HiveSharedState.metadataHive(HiveSharedState.scala:38) at org.apache.spark.sql.hive.HiveSharedState.externalCatalog$lzycompute(HiveSharedState.scala:46) at org.apache.spark.sql.hive.HiveSharedState.externalCatalog(HiveSharedState.scala:45) at org.apache.spark.sql.hive.HiveSessionState.catalog$lzycompute(HiveSessionState.scala:50) at org.apache.spark.sql.hive.HiveSessionState.catalog(HiveSessionState.scala:48) at org.apache.spark.sql.hive.HiveSessionState$$anon$1.<init>(HiveSessionState.scala:63) at org.apache.spark.sql.hive.HiveSessionState.analyzer$lzycompute(HiveSessionState.scala:63) at org.apache.spark.sql.hive.HiveSessionState.analyzer(HiveSessionState.scala:62) at org.apache.spark.sql.execution.QueryExecution.assertAnalyzed(QueryExecution.scala:49) at org.apache.spark.sql.Dataset$.ofRows(Dataset.scala:64) at org.apache.spark.sql.SparkSession.sql(SparkSession.scala:582) ``` 解决方法: 该问题是由于Hive版本与Spark版本不兼容导致的。解决方法如下: 1. 确认Hive版本与Spark版本是否兼容,可以在Spark官网查看版本兼容性。 2. 如果版本不兼容,可以升级或降级Hive版本,或者升级或降级Spark版本。 3. 如果版本兼容,可以尝试重新启动Spark和Hive服务,或者重新编译Spark和Hive。 4. 如果以上方法都无法解决问题,可以尝试使用其他的SQL操作Hive的工具,如Beeline等。 总之,要保证Spark和Hive版本兼容,并且正确配置Spark和Hive的环境,才能避免出现该问题。 ### 回答2: 在使用Spark-SQL操作Hive,常常会遇到一些错误。其中一些常见的错误可能包括: 1. ClassNotFoundException: org.apache.hadoop.hive.ql.metadata.HiveException 这个错误通常表示你的 Spark 集群无法找到 Hive 函数库。可能的解决方案是确认你是否正确安装 Hive 或者使用了正确配置的 Spark 路径: - 如果你没有安装 Hive,你需要从 Hive 下载页面下载Hive 安装。成功安装后,需要将 $HIVE_HOME/lib/hive-exec.jar 添加到 Spark 的 classpath 中(例如通过 spark.driver.extraClassPath 和 spark.executor.extraClassPath 参数来添加)。 - 如果你安装了 Hive,但是仍然出现此错误,你需要检查你的 Spark 是否在使用正确的类路径。可能需要设置 PATH 或者 SPARK_DIST_CLASSPATH 等环境变量。 2. org.apache.spark.SparkException: Exception thrown in awaitResult 如果出现这个错误,通常说明 Spark-SQL 查询需要更多的内存或者计算能力。可能需要调整 Spark-SQL 相关的配置: - 设置 Spark 的执行器内存和执行器核心(例如通过 spark.executor.memory 和 spark.executor.cores 这两个参数),以确保足够的计算资源; - 增加 Spark-SQL 相关的内存限制(例如通过设置 spark.sql.shuffle.partitions、spark.sql.autoBroadcastJoinThreshold、spark.driver.memory 等参数); - 减小查询数据量等其他引起内存不足的原因。 3. Command failed: java.io.IOException: Cannot run program "hadoop" 如果出现这个错误,可能是由于缺少 Hadoop CLI 或者 Hadoop 开发包(Hadoop SDK)。 - 确认你已经安装了 Hadoop CLI 和 Hadoop SDK - 确认 Spark 的 Hadoop 配置和你的集群匹配。具体来说,你需要确保环境变量 HADOOP_HOME 或者 HADOOP_CONF_DIR 指向正确的路径,或者在 Spark 集群初始化正确设置好 Hadoop 配置。 总之,遇到 Spark-SQL 操作 Hive 中的错误,首先需要明确错误的原因,然后根据具体情况采用相应的解决方案。常见的解决方案包括: - 确认 Hive 安装及环境变量设置是否正确; - 调整 Spark-SQL 相关参数以适应查询需求; - 确保 Hadoop CLI 及 Hadoop SDK 是否已正确安装。 ### 回答3: 在使用Spark-SQL操作Hive,可能会遇到一些常见的报错,以下是其中一些问题和可能的解决方案。 1. hive文件丢失或权限不足 有候,您在使用Spark-SQL操作Hive,可能会遇到hive文件丢失或无法访问的权限问题。这可能是由于文件系统权限或文件本身的原因导致的。为了解决这个问题,您应该确保获取足够的权限来访问hive文件,并且检查您的文件系统是否正确。 2. classnotfoundexception:HiveCli 当您使用Spark-SQL操作Hive,您可能会遇到一个类找不到的错误-"classnotfoundexception:HiveCli"。 这是因为hive-jdbc驱动程序文件缺失或未正确设置驱动程序路径所导致的。Solution是安装hive-jdbc驱动程序,并将其正确设置为Spark应用程序的驱动程序路径。 3. NoClassDefFoundError: org/apache/hive/service/cli/thrift/ThriftCLIService 这个错误的原因是由于您的Spark版本与Hive版本不适配,具体来说是Spark版本过高,导致Hive使用的jar包不兼容。解决方法是降低Spark版本或使用Spark程序库的API使用其兼容的Hive版本。 4. MetaException(message: NoSuchObjectException:database not found) 如果您正在尝试使用Spark-SQL查询Hive数据库,并且收到此错误消息,则表示您正在尝试访问不存在的数据库。 解决方法是创建一个名为该数据库的数据库或检查查询中是否存在语法错误。 5. Spark-SQL执行查询失败 Spark-SQL执行查询失败往往是由于应用程序逻辑或数据源的不足所致。解决方法包括检查您的查询语句是否正确设置,处理空值和异常情况,以及监视应用程序和集群资源以提高性能。 为了避免上述报错,您应该确保在使用Spark-SQL操作Hive之前做好准备工作,包括检查应用程序和数据源的兼容性,设置正确的驱动程序路径,并提供足够的资源来处理您的查询。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值