RAGAS

评价指标

一、 Faithfulness 忠诚度

(生成的答案是否真的可以从召回文本中被infer出来,答案应基于给定的上下文。这个可以确保检索到的上下文可以作为生成答案的理由。)

衡量生成的答案与给定上下文的事实一致性。它是根据答案和检索到的上下文计算得出的。分值范围在 (0,1) 之间,越高越好。

如果答案中的主张可以从上下文c(q)中推断出来,那么答案as(q)就忠实于上下文c(q)。为了估计忠实度,首先使用LLM提取一组语句S(as(q)),这一步的目的是将较长的句子分解成较短且重点更突出的断言

在此步骤中使用了以下提示:

中文:问题结合答案生成陈述,从context中判断陈述是否属于context

"""\

给出一个问题和答案,根据给定答案中的每个句子创建一个或多个陈述

问题:阿尔伯特·爱因斯坦是谁?他最出名的是什么?

答案:他是一位出生于德国的理论物理学家,被公认为有史以来最伟大和最有影响力的物理学家之一。

他以发展相对论而闻名,也为量子力学理论的发展做出了重要贡献。

陈述:纳尔伯特·爱因斯坦出生于德国。阿尔伯特·爱因斯坦最著名的是他的相对论。

问题:氯化镉是微溶于这种化学物质的,它又叫什么?

答案:酒精。

陈述:氯化镉在酒精中微溶。

问题:沙胡尔和吉辛是同一国籍的吗?

答案:他们来自不同的国家。

陈述:沙胡尔和吉辛来自不同的国家。

问题:{问题}。

答案:{答案}。

陈述:\n"""

英文:

"""\

Given a question and answer, create one or more statements from each sentence in the given answer.

question: Who was Albert Einstein and what is he best known for?

answer: He was a German-born theoretical physicist, widely acknowledged to be one of the greatest and most influential physicists of all time. He was best known for developing the theory of relativity, he also made important contributions to the development of the theory of quantum mechanics.

statements:\nAlbert Einstein was born in Germany.\nAlbert Einstein was best known for his theory of relativity.

question: Cadmium Chloride is slightly soluble in this chemical, it is also called what?

answer: alcohol

statements:\nCadmium Chloride is slightly soluble in alcohol.

question: Were Shahul and Jithin of the same nationality?

answer: They were from different countries.

statements:\nShahul and Jithin were from different countries.

question:{question}

answer: {answer}

statements:\n"""

"""

Prompt: 自然语言推理。

考虑给定的上下文和下面的陈述,然后确定它们是否得到上下文中存在的信息的支持。在得出结论之前,对每个陈述提供简短的解释(是/否)。

以给定格式在结尾处按顺序为每一项陈述提供最终结论。

不要偏离指定的格式。

Context: 约翰是Standford大学的一名学生。

他正在攻读计算机科学学位。

这学期他选修了几门课程,包括数据结构、算法和数据库管理。

约翰是一个勤奋的学生,他花了大量的时间学习和完成作业。

他经常在图书馆里呆到很晚,以便做他的项目。

statements:

  1. 约翰主修生物学。

  2. 约翰正在上一门人工智能的课程。

  3. 约翰是个很用功的学生。

  4. 约翰有一份兼职工作。

  5. 约翰对计算机编程感兴趣。

Answer:

  1. 约翰主修生物学。

Explanation: 约翰的专业被明确提及为计算机科学。没有任何信息表明他主修生物学。

Verdict:不是。

  1. 约翰正在上一门关于人工智能的课程。

Explanation: 上下文提到了John目前正在注册的课程,没有提到人工智能。因此,不能推断约翰正在学习人工智能课程。

Verdict:不是。

  1. 约翰是个用功的学生。

Explanation: context中写道,他花了大量时间学习和完成作业。此外,它还提到他经常在图书馆熬夜做他的项目,这意味着他的奉献精神。

Verdict:是的。

  1. 约翰有一份兼职工作。

Explanation: 上下文中没有关于约翰有一份兼职工作的信息。因此,不能推断约翰有一份兼职工作。

Verdict: 不是。

  1. 约翰对计算机编程感兴趣。

Explanation: 上下文说明John正在攻读计算机科学学位,这意味着他对计算机编程感兴趣。

Verdict: 是的。

对每一项陈述的最终裁决顺序为:否。不是的。是。不是的。是。

context: \n{context}。

statements: \n{statements}。

Answer:

"""

"""

Prompt: Natural language inference

Consider the given context and following statements, then determine whether they are supported by the information present in the context.Provide a brief explanation for each statement before arriving at the verdict (Yes/No). Provide a final verdict for each statement in order at the end in the given format. Do not deviate from the specified format.

Context:\nJohn is a student at XYZ University. He is pursuing a degree in Computer Science. He is enrolled in several courses this semester, including Data Structures, Algorithms, and Database Management. John is a diligent student and spends a significant amount of time studying and completing assignments. He often stays late in the library to work on his projects.

statements:\n1. John is majoring in Biology.\n2. John is taking a course on Artificial Intelligence.\n3. John is a dedicated student.\n4. John has a part-time job.\n5. John is interested in computer programming.\n

Answer:

  1. John is majoring in Biology.

Explanation: John's major is explicitly mentioned as Computer Science. There is no information suggesting he is majoring in Biology. Verdict: No.

  1. John is taking a course on Artificial Intelligence.

Explanation: The context mentions the courses John is currently enrolled in, and Artificial Intelligence is not mentioned. Therefore, it cannot be deduced that John is taking a course on AI. Verdict: No.

  1. John is a dedicated student.

Explanation: The prompt states that he spends a significant amount of time studying and completing assignments. Additionally, it mentions that he often stays late in the library to work on his projects, which implies dedication. Verdict: Yes.

  1. John has a part-time job.

Explanation: There is no information given in the context about John having a part-time job. Therefore, it cannot be deduced that John has a part-time job. Verdict: No.

  1. John is interested in computer programming.

Explanation: The context states that John is pursuing a degree in Computer Science, which implies an interest in computer programming. Verdict: Yes.

Final verdict for each statement in order: No. No. Yes. No. Yes.

context:\n{context}

statements:\n{statements}

Answer:

"""

例子:

Question: 法国在哪里,首都是哪里?

Answer: 法国位于西欧,其首都是巴黎。

Context: 法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。

Statement:[法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。]

Statement:[其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。]

如果答案中提出的所有主张都可以从给定的上下文中推断出来,则生成的答案被认为是可信的。为了计算这一点,首先从生成的答案中识别一组声明。然后,将这些声明中的每一项与给定的上下文进行交叉检查,以确定是否可以从给定的上下文中推断出它。忠诚度分数由以下公式得出:

 

# 批量大小为 10 的忠实度度量 from ragas.metrics.faithfulness import Faithfulness faithfulness = Faithfulness(batch_size = 10) # Dataset({ # features: ['question','contexts','answer'], # num_rows: 25# }) dataset: Dataset results = faithfulness.score(dataset)

二、 Answer Relevance 答案相关性

(生成的答案和问题的相关性得分,具体表现为是否完整、冗余地回答了问题,不考虑真实性,基本思想是LLM根据生成的答案反生成问题,然后对比原始问题和生成的问题相似度,以此判断Q和A的相关性

"""

为给定答案生成问题

Answer: PSLV-C56任务计划于2023年7月30日(星期日) IST时间06:30 / UTC时间01:00发射。

它将在印度安得拉邦斯里赫里戈塔的萨蒂什·达万航天中心发射。

Question: PSLV-C56任务的预定发射日期和时间是什么时候,从哪里发射?

Answer::{Answer:}

Question:

"""

ENGLISH

"""

Generate question for the given answer.

Answer:\nThe PSLV-C56 mission is scheduled to be launched on Sunday, 30 July 2023 at 06:30 IST / 01:00 UTC. It will be launched from the Satish Dhawan Space Centre, Sriharikota, Andhra Pradesh, India

Question: When is the scheduled launch date and time for the PSLV-C56 mission, and where will it be launched from?

Answer:{answer}

Question:

"""

然后,利用OpenAI API提供的文本嵌入-ada-002模型获取所有问题的嵌入。对于每个qi,计算与原始问题q的相似度(q,qi),即相应嵌入之间的余弦值。然后计算出问题q的答案相关性得分AR:

该指标评估生成的答案与初始问题或指令的一致性。

评估指标“答案相关性”重点评估生成的答案与给定提示的相关程度。不完整或包含冗余信息的答案将获得较低分数。该指标使用 questionanswer 计算,值范围在 0 到 1 之间,其中分数越高表示相关性越好。

当答案直接且适当地解决原始问题时,该答案被视为相关。重要的是,我们对答案相关性的评估不考虑事实而是对答案缺乏完整性或包含冗余细节的情况进行惩罚。为了计算这个分数,LLM会被提示多次为生成的答案生成适当的问题,并测量这些生成的问题与原始问题之间的平均余弦相似度。基本思想是,如果生成的答案准确地解决了最初的问题,LLM应该能够从答案中生成与原始问题相符的问题。

例子:

Question: 法国在哪里,首都是哪里?

Low relevance answer: 法国位于西欧。

High relevance answer: 法国位于西欧,巴黎是其首都。(反生成问题)

 

from ragas.metrics import AnswerRelevancy from langchain.embeddings import HuggingFaceEmbeddings embeddings = HuggingFaceEmbeddings('BAAI/bge-base-cn') answer_relevancy = AnswerRelevancy(embeddings=embeddings) # init_model to load models usedanswer_relevancy.init_model() # Dataset({ # features: ['question','answer'], # num_rows: 25# }) dataset: Dataset results = answer_relevancy.score(dataset)

三、 Context Precision 上下文精度

(计算召回的真正有用的text占总的recall text的比值,当上下文段落过长时,LLMs在利用上下文方面的效率往往较低,尤其是对于上下文段落中间提供的信息。有实验验证的。)|S| 是Q和C的Similarity,类似vec search

该指标衡量检索到的上下文的精度,根据 questioncontexts 计算。值落在 (0, 1) 范围内,值越高表示精度越高。

理想情况下,检索到的上下文应专门包含解决所提供查询的基本信息。为了计算这个,我们首先通过识别检索到的上下文中与回答给定问题相关的句子来估计 |S| 的值。最终得分由以下公式确定:

"""

请从所提供的上下文中摘录相关句子,回答以下问题。

如果没有找到相关的句子,或者如果您认为问题不能从给定的上下文中得到回答,则返回短语“信息不足”。

在提取候选句子时,不允许对给定上下文中的句子进行任何更改。

question:{question}

context:\n{context}

candidate sentences:

"""

例子:

Question: 法国的首都是哪里?

High context precision: 法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。 总句数:2

有效句子:2

比值:2 / 2 =1

Low context precision: 法国位于西欧,涵盖中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。该国还以其葡萄酒和精致的美食而闻名。拉斯科的古代洞穴壁画、里昂的罗马剧院和广阔的凡尔赛宫都证明了其丰富的历史。

总句数:4

有效句子:2

比值:2 / 4 = 0.5

"""\

Please extract relevant sentences from the provided context that is absolutely required answer the following question. If no relevant sentences are found, or if you believe the question cannot be answered from the given context, return the phrase "Insufficient Information". While extracting candidate sentences you're not allowed to make any changes to sentences from given context.

question:{question}

context:\n{context}

candidate sentences:\n"""

 

from ragas.metrics import ContextPrecision context_precision = ContextPrecision( model_name="cross-encoder/nli-deberta-v3-xsmall" ) # run init models to load the models usedcontext_precision.init_model() # Dataset({ # features: ['question','contexts'], # num_rows: 25# }) dataset: Dataset results = context_precision.score(dataset)

四、 Context Recall 上下文召回

上下文召回衡量检索到的上下文与带注释的答案(被视为基本事实)的一致程度。它是根据 ground truthretrieved context 计算的,值范围在 0 到 1 之间,值越高表示性能越好。

为了根据真实答案估计上下文召回,分析真实答案中的每个句子以确定它是否可以归因于检索到的上下文。在理想情况下,真实答案中的所有句子都应归因于检索到的上下文。

上下文召回率的计算公式如下:

(GT means Ground Truth)

"""

给出一个上下文和一个答案,分析答案中的每个句子,并分类该句子是否可以归因于给定的上下文。

在得出结论之前,要分步骤和有道理地思考。

context:阿尔伯特·爱因斯坦(1879年3月14日-1955年4月18日)是一位出生于德国的理论物理学家,被广泛认为是有史以来最伟大和最有影响力的科学家之一。

他以发展相对论而闻名,也对量子力学做出了重要贡献,因此是现代物理学在20世纪头几十年完成的对自然的科学理解的革命性重塑的核心人物。

他的质能当量公式E=mc2源于相对论,被称为“世界上最著名的方程”。

他获得了1921年诺贝尔物理学奖,以表彰他对理论物理的贡献,特别是他对光电效应规律的发现,这是量子理论发展的关键一步。

他的工作也因其对科学哲学的影响而闻名。

1999年,英国《物理世界》杂志对全球130位著名物理学家进行了一项民意调查,结果显示,爱因斯坦被评为有史以来最伟大的物理学家。

他的智力成就和独创性使爱因斯坦成为天才的代名词。

answer:阿尔伯特·爱因斯坦生于1879年3月14日,是德国出生的理论物理学家,被广泛认为是有史以来最伟大和最有影响力的科学家之一。

他获得了1921年诺贝尔物理学奖,以表彰他对理论物理学的贡献。他在1905年发表了4篇论文。1895年爱因斯坦移居瑞士。

classification

  1. 阿尔伯特·爱因斯坦生于1879年3月14日,是德国出生的理论物理学家,被广泛认为是有史以来最伟大和最有影响力的科学家之一。上下文中清楚地提到了爱因斯坦的出生日期。所以[归因于]

  2. 他获得了1921年诺贝尔物理学奖,以表彰他对理论物理的贡献。准确的句子出现在给定的上下文中。所以[归因于]

  3. 他在1905年发表了4篇论文。鉴于当时的背景,文章中没有提到他写的论文。所以[非归因于]

  4. 爱因斯坦于1895年移居瑞士。在特定的背景下,没有支持这一点的证据。所以[非归因于]

分析

总ground_truths句子数: 4

可归因于上下文的句子数 :2

比值:2 / 4 = 0.5

context:{context}

answer:{ground_truth}

classification:

"""

"""

Given a context, and an answer, analyze each sentence in the answer and classify if the sentence can be attributed to the given context or not.

Think in steps and reason before coming to conclusion.

context: Albert Einstein (14 March 1879 – 18 April 1955) was a German-born theoretical physicist,widely held to be one of the greatest and most influential scientists of all time. Best known for developing the theory of relativity, he also made important contributions to quantum mechanics, and was thus a central figure in the revolutionary reshaping of the scientific understanding of nature that modern physics accomplished in the first decades of the twentieth century. His mass–energy equivalence formula E = mc2, which arises from relativity theory, has been called "the world's most famous equation". He received the 1921 Nobel Prize in Physics "for his services to theoretical physics, and especially for his discovery of the law of the photoelectric effect", a pivotal step in the development of quantum theory. His work is also known for its influence on the philosophy of science. In a 1999 poll of 130 leading physicists worldwide by the British journal Physics World, Einstein was ranked the greatest physicist of all time. His intellectual achievements and originality have made Einstein synonymous with genius.

answer: Albert Einstein born on 14 March 1879 was German-born theoretical physicist, widely held to be one of the greatest and most influential scientists of all time. He received the 1921 Nobel Prize in Physics "for his services to theoretical physics. He published 4 papers in 1905. Einstein moved to Switzerland in 1895

classification

  1. Albert Einstein born on 14 March 1879 was German-born theoretical physicist, widely held to be one of the greatest and most influential scientists of all time. The date of birth of Einstein is mentioned clearly in the context. So [Attributed]

  2. He received the 1921 Nobel Prize in Physics "for his services to theoretical physics. The exact sentence is present in the given context. So [Attributed]

  3. He published 4 papers in 1905. There is no mention about papers he wrote in given the context. So [Not Attributed]

  4. Einstein moved to Switzerland in 1895. There is not supporting evidence for this in the given the context. So [Not Attributed]

context:{context}

answer:{ground_truth}

classification:

"""

例子:

Question: 法国在哪里,首都是哪里?

Ground truth: 法国位于西欧,其首都是巴黎。

High context recall: 法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。

Low context recall: 法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。该国还以其葡萄酒和精致的美食而闻名。拉斯科的古代洞穴壁画、里昂的罗马剧院和广阔的凡尔赛宫都证明了其丰富的历史。(相关性不足)

 

from ragas.metrics import ContextRecall context_recall = ContextRecall( batch_size=10 ) # Dataset({ # features: ['contexts','ground_truths'], # num_rows: 25# }) dataset: Dataset results = context_recall.score(dataset)

Your task is to formulate a question from given context satisfying the rules given below:

  1. The question should be fully answered from the given context.

  2. The question should be framed from a part that contains non-trivial information.

  3. The answer should not contain any links.

  4. The question should be of moderate difficulty.

  5. The question must be reasonable and must be understood and responded to by humans.

  6. Do not use phrases that 'provided context', etc in the question

context:

你的任务是从给定的上下文中制定一个问题,满足下面给出的规则:

这个问题应该从给定的上下文中得到充分的回答。

问题应该从包含非平凡信息的部分中构建。

答案不应包含任何链接。

这个问题应该是中等难度的。

这个问题必须是合理的,必须被人类理解和回答。

不要在问题中使用“提供上下文”等短语

上下文:

五、Valid Information 有效信息比

召回文本中与ground_truths相关的部分与总的context句子数的比值

"""

  1. 根据提供的一个上下文和一个标准答案,根据语义完整性判断出上下文中的每一个句子,并计算出句子的总数。

  2. 分类每一个句子是否可以推导出标准答案。

  3. 但是每一个句子不是一定要推导出全部的标准答案,只要能推导出部分标准答案,就把该句子标记为<有效句子>。

  4. 计算出有效句子的占整个上下文的比值,最后返回这个比值,必须精确地计算出这个值。

  5. 在得出结论之前,要分步骤和有道理地思考。

示例如下:

###

上下文:法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。该国还以其葡萄酒和精致的美食而闻名。拉斯科的古代洞穴壁画、里昂的罗马剧院和广阔的凡尔赛宫都证明了其丰富的历史。

答案:法国位于西欧,其首都是巴黎。

上下文句子总数:4句

有效句子:法国位于西欧,拥有中世纪城市、高山村庄和地中海海滩。其首都巴黎以其时装屋、卢浮宫等古典艺术博物馆和埃菲尔铁塔等古迹而闻名。

有效句子是2句,上下文的总句子数是4句,所以有效句子/总句子=2/4=0.5

###

示例结束,你的任务如下:

context:{context}

ground_truths:{ground_truths}

上下文句子总数:

"""

Valid_information = Context sentences that can infer GT / Total number of sentences in Context

六、Aspect Critique 自定义评估

(对生成的答案有害性和正确性进行评估)

其目的是根据预定义的方面(例如 harmlessnesscorrectness )评估提交。此外,用户可以灵活地定义自己的方面,以便根据自己的具体标准评估提交内容。方面批评的输出是二进制的,指示提交是否与定义的方面一致。该评估是使用“答案”作为输入来执行的。

LLM 评估员内部的批评根据所提供的方面评估提交的内容。 Ragas Critiques 提供了一系列预定义的方面,例如正确性、有害性等(请参阅 SUPPORTED_ASPECTS 以获取完整列表)。如果您愿意,您还可以创建自定义方面来根据您的独特要求评估提交内容。

strictness 参数在保持预测中一定程度的自我一致性方面发挥着至关重要的作用,理想范围通常在 2 到 4 之间。需要注意的是,从方面评价中获得的分数是二元的,并且由于它们的不连续性,对最终的 Ragas 分数没有贡献。

SUPPORTED_ASPECTS = [ harmfulness, maliciousness, coherence, correctness, conciseness, ] SUPPORTED_ASPECTS = [危害性、恶意性、连贯性、正确性、简洁性,]

Example

 

# 用自定义定义评估 from ragas.metrics.critique import conciseness # Dataset({ # features: ['question','answer'], # num_rows: 25# }) dataset: Dataset # Define your critique from ragas.metrics.critique import Aspect Critiquemy_critique = AspectCritique(name="my-critique", definition="生成的内容对儿童安全吗?", strictness=2) results = my_critique.score(dataset)

Reference

https://mp.weixin.qq.com/s/TrXWXkQIYTVsS1o4IZjs9w

https://docs.ragas.io/en/latest/concepts/metrics/faithfulness.html

https://github.com/explodinggradients/ragas/blob/main/docs/howtos/integrations/langchain.ipynb

Langsmith还在waitlist

https://github.com/explodinggradients/ragas/blob/main/docs/howtos/integrations/langsmith.ipynb

使用Llama_index

https://github.com/explodinggradients/ragas/blob/main/docs/howtos/integrations/llamaindex.ipynb

["ICC 传感器保养 雷达传感器位于车辆前部。为保持 ICC 系统正常运行,请务必遵守以下 规定: • 始终保持传感器区域清洁。• 请勿敲击或损坏传感器周围的区域。• 请勿贴上标签(包括透明材料)或在传 感器附近安装附件。这可能会导致失效 或故障。• 请勿在传感器区域附近安装金属物体 (金属网罩等)。这可能会导致失效或故 障。• 请勿更改,移除或涂抹前保险杠。在改装或恢复前保险杠前,建议您前往东风 日产专营店。摄像头传感器位于车内后视镜上方。为保持系统的正常运行并防止系统故障,请 务必遵守以下规定: • 务必保持风挡清洁。• 不要在摄像头单元附近粘贴标签(包括 透明物)或安装附件。• 请勿在仪表板上放置反光材料,如白纸 或镜子。太阳光的反射可能会对摄像头 单元检测车道标线的能力产生不利影 响。• 不要撞击或损坏摄像头单元周围的区 域。请勿触摸摄像头镜头或取下摄像头 单元上的螺丝。如果摄像头单元因事故而损坏,建议联系东 风日产专营店。转向辅助 警告 未遵循有关正确使用转向辅助的警告和说明 可能会导致严重伤亡事故。• 转向辅助不能替代正确的驾驶程序,也 不能用于纠正粗心、疏忽或心不在焉的 驾驶。转向辅助不会总使车辆转向,使 其保持在车道内。它不是为防止失控而 设计的。驾驶员需要时刻保持警惕,安 全驾驶,使车辆始终位于行车道内并随 时掌控车辆。• 由于转向辅助存在性能限制,因此不要 仅仅依赖于系统。转向辅助无法在所有 的行驶条件、交通状况、天气状况和路 况中都起作用。务必安全驾驶,注意车 辆的操作,并适当地手动控制车辆。• 转向辅助适用于状况良好的快速路、高 速公路或具有柔和(中等)曲线的城市 高速公路。为避免发生事故,请勿在本 地、非高速公路或非城市高速公路上使 用此系统。', '关闭发动机,重新起动发动机,并再次设置 ICC 系统。如果无法设置 ICC 系统,或指示 灯保持亮起,则可能出现故障。虽然可以继 续正常驾驶,但应检查 ICC 系统。建议您前 往东风日产专营店进行此项维修。起动与驾驶 5-67ICC 传感器保养 雷达传感器位于车辆前部。为保持 ICC 系统正常运行,请务必遵守以下 规定: • 始终保持传感器区域清洁。• 请勿敲击或损坏传感器周围的区域。• 请勿贴上标签(包括透明材料)或在传 感器附近安装附件。这可能会导致失效 或故障。• 请勿在传感器区域附近安装金属物体 (金属网罩等)。这可能会导致失效或故 障。• 请勿更改,移除或涂抹前保险杠。在改装或恢复前保险杠前,建议您前往东风 日产专营店。摄像头传感器位于车内后视镜上方。为保持系统的正常运行并防止系统故障,请 务必遵守以下规定: • 务必保持风挡清洁。• 不要在摄像头单元附近粘贴标签(包括 透明物)或安装附件。• 请勿在仪表板上放置反光材料,如白纸 或镜子。太阳光的反射可能会对摄像头 单元检测车道标线的能力产生不利影 响。• 不要撞击或损坏摄像头单元周围的区 域。请勿触摸摄像头镜头或取下摄像头 单元上的螺丝。如果摄像头单元因事故而损坏,建议联系东 风日产专营店。转向辅助 警告 未遵循有关正确使用转向辅助的警告和说明 可能会导致严重伤亡事故。• 转向辅助不能替代正确的驾驶程序,也 不能用于纠正粗心、疏忽或心不在焉的 驾驶。转向辅助不会总使车辆转向,使 其保持在车道内。它不是为防止失控而 设计的。驾驶员需要时刻保持警惕,安 全驾驶,使车辆始终位于行车道内并随 时掌控车辆。• 由于转向辅助存在性能限制,因此不要 仅仅依赖于系统。转向辅助无法在所有 的行驶条件、交通状况、天气状况和路 况中都起作用。务必安全驾驶,注意车 辆的操作,并适当地手动控制车辆。"]

['雷达传感器位于车辆前部。\\n为保持 ICC 系统正常运行,请务必遵守以下\\n规定:\\n• 始终保持传感器区域清洁。\\n• 请勿敲击或损坏传感器周围的区域。\\n• 请勿贴上标签(包括透明材料)或在传\\n感器附近安装附件。这可能会导致失效\\n或故障。\\n• 请勿在传感器区域附近安装金属物体\\n(金属网罩等)。这可能会导致失效或故\\n障。\\n• 请勿更改,移除或涂抹前保险杠。\\n在改装或恢复前保险杠前,建议您前往东风\\n日产专营店。\\n摄像头传感器位于车内后视镜上方。\\n为保持系统的正常运行并防止系统故障,请\\n务必遵守以下规定:\\n• 务必保持风挡清洁。\\n• 不要在摄像头单元附近粘贴标签(包括\\n透明物)或安装附件。\\n• 请勿在仪表板上放置反光材料,如白纸\\n或镜子。太阳光的反射可能会对摄像头\\n单元检测车道标线的能力产生不利影\\n响。\\n• 不要撞击或损坏摄像头单元周围的区\\n域。请勿触摸摄像头镜头或取下摄像头\\n单元上的螺丝。\\n如果摄像头单元因事故而损坏,建议联系东\\n风日产专营店。']

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值