Skip to main content

Arize Phoenix 101 AI LLM 评估:调试入门

·1 min

什么是 arize-phoenix #

Arize Phoenix 是一个开源的可观测性 (Observability) 库,专为大语言模型 (LLM) 应用的实验、评估和故障排除而设计。它可以帮助 AI 工程师和数据科学家监测 LLM 的行为、分析模型性能、可视化请求流,并追踪问题以优化 AI 相关应用。此外,Phoenix 还支持数据可视化和性能评估,便于改进和优化模型。

安装 arize-phoenix 环境 #

首先,使用 pip 安装 arize-phoenix 及相关依赖项:

pip install arize-phoenix
pip install -q openinference-instrumentation-openai openai

安装完成后,可以运行以下命令启动 Phoenix 服务器:

phoenix serve

运行后,你可以在 http://localhost:6006 访问 Phoenix 的 UI 界面。

alt text
alt text

代码示例 #

python

以下是一个使用 arize-phoenix 进行 LLM 监控的示例:

import os
from phoenix.otel import register
import openai
from openinference.instrumentation.openai import OpenAIInstrumentor

# 注册 OpenTelemetry Tracer Provider
tracer_provider = register(
  project_name="your-next-llm-project1",
  endpoint="http://localhost:6006/v1/traces"
)

# 启用 OpenAI 监控
OpenAIInstrumentor().instrument(tracer_provider=tracer_provider)

os.environ["OPENAI_API_KEY"] = "YOUR OPENAI API KEY"
# client = openai.OpenAI()

# 创建 OpenAI 客户端,使用 OpenRouter 代理,
# 当然这里可以用DeepSeek
client = openai.OpenAI(
    base_url="https://openrouter.ai/api/v1",
)

# 发送请求并打印回复
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "Write a haiku."}],
)
print(response.choices[0].message.content)

运行效果

运行上述代码后,你可以在 Phoenix UI 界面查看 LLM 请求的日志和可视化数据,如下图所示:

alt text

结论 #

Arize Phoenix 提供了一个强大的 LLM 可观测性解决方案,使开发者能够更轻松地监控和调试 LLM 应用。通过结合 OpenTelemetry,它可以帮助团队优化 API 请求,分析模型性能,并提高 AI 系统的透明度。如果你正在构建 LLM 相关的应用,Arize Phoenix 是一个值得尝试的工具!

参考: #