5. 数据处理工作流


项目背景

你们的客服团队每天会收到大量客户反馈,需要对这些反馈进行情感分析、分类和统计,生成每日反馈报告。

需求分析

  • 输入:客户反馈文本列表。
  • 对每条反馈进行情感分析(正面/中性/负面)。
  • 提取每条反馈的关键词和主题。
  • 统计各类情感的数量和比例。
  • 生成结构化的分析报告。

详细步骤

第一步:创建工作流应用。

进入「工作室」,点击「创建应用」→ 选择「工作流」→ 命名为"客户反馈分析器"。

第二步:配置开始节点。

定义输入变量:feedbacks(段落类型),用于接收客户反馈文本(每条反馈用换行分隔)。

第三步:添加「代码执行」节点,将文本拆分为列表。

feedbacks = inputs["feedbacks"]
feedback_list = [f.strip() for f in feedbacks.split("\n") if f.strip()]
return {"feedback_list": feedback_list, "total_count": len(feedback_list)}

第四步:添加「迭代」节点。

feedback_list 传入迭代节点,对每条反馈执行以下子流程:

  • LLM 节点:分析情感(正面/中性/负面)、提取关键词、归纳主题。要求输出 JSON 格式。

第五步:添加「代码执行」节点,统计分析结果。

results = inputs["iteration_results"]
positive = sum(1 for r in results if r["sentiment"] == "正面")
neutral = sum(1 for r in results if r["sentiment"] == "中性")
negative = sum(1 for r in results if r["sentiment"] == "负面")
total = len(results)
return {
    "positive": positive,
    "neutral": neutral,
    "negative": negative,
    "total": total,
    "positive_rate": f"{positive/total*100:.1f}%",
    "negative_rate": f"{negative/total*100:.1f}%"
}

第六步:添加 LLM 节点生成分析报告。

将统计数据和原始分析结果传给 LLM,让它生成一份完整的分析报告。

第七步:添加「输出」节点。

第八步:测试并发布。

优化建议

  • 对于大量反馈数据,可以使用触发器定时执行(如每天凌晨 1 点自动运行)。
  • 在迭代节点中使用较快的模型(如 GPT-3.5)以降低成本和提升速度,最后生成报告时再用更强的模型。
  • 可以将分析结果通过 HTTP 请求节点自动发送到 Slack 或企业微信。
  • 持续收集分析数据,可以用于发现客户反馈的长期趋势。