EVAL RUN · 評估報告 回到執行

#75 兩項目評估報告

auto-24fe348e-r1-053958474 production-baseline 產製於 05月16日 12:25

I. VITAL SIGNS

各項目健康度概覽

項目一: 知識庫精準度 (10 cases)

各維度品質分 · 覆蓋率
找對資料 召回
retrieval
70.0%
[40.0% – 100.0%] · n=10
F1 12.7% · 相關率 30.0% · 精確 7.0%
10 / 10 適用
不亂編造 平均
faithfulness
100.0%
[100.0% – 100.0%] · n=10
10 / 10 適用
答得到位 平均
answer_quality
95.3%
[91.0% – 99.0%] · n=10
10 / 10 適用

項目二: 情境調用與完成 (10 cases)

各維度品質分 · 覆蓋率
走對流程 召回
scenario
80.0%
[50.0% – 100.0%] · n=10
F1 80.0% · 召回 80.0% · 精確 80.0%
10 / 10 適用
用對工具 召回
tool_usage
50.0%
[16.7% – 83.3%] · n=6
F1 50.0% · 召回 50.0% · 精確 66.7%
6 / 10 適用
答得到位 平均
answer_quality
77.3%
[61.3% – 91.7%] · n=10
10 / 10 適用
II. RUN ECONOMICS

本次 Run 的 LLM 成本概覽

Judge 總成本(USD) $0.0339 76 次 judge 呼叫
Judge 總 Token 數 249,898 輸入 237,302 · 輸出 12,596
LLM 成本來源追蹤狀態
來源 追蹤狀態 數值 備註
Eris Case Generator 已追蹤 $0.0718
513,064 tokens · 278 calls
案例生成階段 LLM 呼叫(sampler / info_held / validator / kb_matcher / response_rules judge)— Round 8 起 CostTracker 自動寫入 EvalCaseGeneration 對應欄位
Eris LLM Judge 已追蹤 $0.0339
249,898 tokens
EvalJudgement 表記錄真實 OpenAI usage(faithfulness / answer_quality / retrieval_relevance 三類 judge)
Neptune Bot Inference 受阻 Neptune unified_llm.tool_calling_stream streaming 模式下 final chunk 未帶 usage(OpenAI stream_options.include_usage 未啟用),導致 metadata.usage 全 0。Eris 端無法從 chat response 重建。Fix 在 Neptune team 的 tracking ticket 內。
UserSimulator 尚未實作 UserSimulator multi-turn LLM 呼叫目前 Eris 沒寫追蹤;這部分要新增 service + 在 simulator client 裡寫入 token 紀錄
Judge 次數 Input Output Cost
忠實度(faithfulness) 28 94,396 5,786 $0.0155
回答品質(answer_quality) 30 113,988 6,147 $0.0138
檢索相關性(retrieval_relevance) 18 28,918 663 $0.0047
III. ACTIONABLE FINDINGS

優先處理項目

依「最低分 sub-metric」排序的 worst-3 case,標示出此 run 中最該優先檢視的 scenario × 維度組合。每筆同時列出實際觸發低分的 sub-metric 名稱,方便定位是 KB 漏洞、工具排序問題、還是規則違反。

  1. 01
    穿桌 / 理線孔安裝詢問 檢索
    0.0% n=2 最低 sub_metric: knowledges_source_recall
  2. 02
    產品查詢 檢索
    0.0% n=1 最低 sub_metric: knowledges_source_precision
  3. 03
    產品查詢 工具使用
    0.0% n=1 最低 sub_metric: tools_precision
IV. DEEP DIVE

全段詳細數據

兩項目評估報告

  • EvalRun: #75(suite #42 auto-24fe348e-r1-053958474
  • Target: #1 production-baseline
  • Cases: 30(N=1, attempts=30/30)
  • Generated: 2026-05-16T12:25:24+08:00

本報告含兩個獨立評估項目。項目一 評估 bot 進入「知識與產品查詢」fallback 後的撈取 + 回答能力;項目二 評估 bot 跨全 enabled scenarios 的 routing → tool → answer 三段 funnel 健康度。


項目一: 知識庫精準度

評估範圍 (prerequisite: 進對 scenario)

  • 進對 scenario 的 attempts: 10 / 30 (33.3%)
  • 只對這些 attempts 算 retrieval + answer
  • 沒進對 scenario 的 attempts → 排除(routing 失敗不該污染 KB 訊號)

Per-scenario 評估

Scenario qualifying / total attempts retrieval_relevance answer_correctness
知識與產品查詢 10 / 10 ⚪ 51.6% ✅ 100.0%

待修方向(worst-3)

  1. 知識與產品查詢 × retrieval_relevance = 51.6% — retrieval 略低 — 看 LLM relevance vs topic_match 哪邊弱
  2. 知識與產品查詢 × answer_correctness = 100.0% — 回答內容有問題 — 細看 hallucination_rate vs answer_quality 哪邊低

項目二: 情境調用與完成

整體 funnel(全 scenarios 加總)

Stage Pass count % of total
Total attempts 20 100.0%
Step 1: scenario_routing 9 45.0%
Step 2: + tool_calling 9 45.0%
Step 3: + answer 6 30.0%

Per-scenario funnel

Scenario (n_attempts) Step 1 (routing) Step 2 (tool) Step 3 (answer) end-to-end
FAQ查詢 (1) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%)
early_return (9) ❌ 0/9 (0.0%) ❌ 0/9 (0.0%) ❌ 0/9 (0.0%) ❌ 0/9 (0.0%)
力值調整問題 (2) ✅ 2/2 (100.0%) ✅ 2/2 (100.0%) ✅ 2/2 (100.0%) ✅ 2/2 (100.0%)
產品查詢 (1) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%)
知識與產品查詢 (1) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%)
穿桌 / 理線孔安裝詢問 (3) ✅ 3/3 (100.0%) ✅ 3/3 (100.0%) ⚪ 2/3 (66.7%) ⚪ 2/3 (66.7%)
螢幕支架相容性查詢 (1) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%)
螢幕支架與螢幕的相容性 (1) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%)
訂單查詢 (1) ✅ 1/1 (100.0%) ✅ 1/1 (100.0%) ❌ 0/1 (0.0%) ❌ 0/1 (0.0%)

Drop-off 最大的 5 個 scenario

  1. FAQ查詢 drop at step1 (-100.0pp)
  2. early_return drop at step1 (-100.0pp)
  3. 產品查詢 drop at step1 (-100.0pp)
  4. 螢幕支架相容性查詢 drop at step3 (-100.0pp)
  5. 訂單查詢 drop at step3 (-100.0pp)

Audit

Reproduce combined report: bin/rails runner "puts Eval::EvaluationReport.call(run: EvalRun.find(75))" Or fetch each item separately:

  • bin/rails runner "puts Eval::KbAccuracyReport.call(run: EvalRun.find(75))"
  • bin/rails runner "puts Eval::ScenarioFunnelReport.call(run: EvalRun.find(75))"

Per-Scenario × Per-Dim — Run #75

Suite: BenQ Arm Chatbot (bulk R1) · scenarios: 9 · dims: 5 · populated cells: 41/45

Scenario Scenario Tool Retrieval Faith AnsQ
FAQ查詢 0.0% (n=1) 0.0% (n=1) 66.7% (n=1) 33.3% (n=1)
early_return 0.0% [0.0–0.0] (n=9) 0.0% (n=1) 62.5% [25.0–100.0] (n=8) 100.0% [100.0–100.0] (n=7) 91.5% [85.9–96.7] (n=9)
力值調整問題 100.0% [100.0–100.0] (n=2) 0.0% [0.0–0.0] (n=2) 50.0% [0.0–100.0] (n=2) 100.0% [100.0–100.0] (n=2)
產品查詢 0.0% (n=1) 0.0% (n=1) 0.0% (n=1) 83.3% (n=1) 83.3% (n=1)
知識與產品查詢 100.0% [100.0–100.0] (n=11) 100.0% [100.0–100.0] (n=11) 70.0% [40.0–100.0] (n=10) 100.0% [100.0–100.0] (n=11) 94.2% [89.4–98.5] (n=11)
穿桌 / 理線孔安裝詢問 100.0% [100.0–100.0] (n=3) 0.0% [0.0–0.0] (n=2) 100.0% [100.0–100.0] (n=3) 86.7% [66.7–100.0] (n=3)
螢幕支架相容性查詢 100.0% (n=1) 0.0% (n=1) 0.0% (n=1) 0.0% (n=1) 33.3% (n=1)
螢幕支架與螢幕的相容性 100.0% (n=1) 100.0% (n=1) 100.0% (n=1) 83.3% (n=1) 100.0% (n=1)
訂單查詢 100.0% (n=1) 100.0% (n=1) 100.0% (n=1) 73.3% (n=1)

Worst-3 cells (lowest primary score)

  1. 穿桌 / 理線孔安裝詢問 × Retrieval · 0.0% (n=2) · lowest sub_metric: knowledges_source_recall
  2. 產品查詢 × Retrieval · 0.0% (n=1) · lowest sub_metric: knowledges_source_precision
  3. 產品查詢 × Tool · 0.0% (n=1) · lowest sub_metric: tools_precision