随着医疗大模型与智能问诊系统广泛部署,模型提出的初步诊断建议是否合理、安全、合规成为核心问题。传统SFT训练数据往往未考虑医疗伦理与诊疗流程,容易出现“过度诊断”或“处理不当”的情况。为推动模型从输出内容的正确性向推荐行为的合理性进化,本数据集聚焦“诊断建议是否适当”这一任务,结合人类专家打分与理由说明构建RLHF训练样本,帮助模型学会控制风险、优化诊疗路径。
字段 | 类型 | 描述 |
---|---|---|
文件名 | string | 文件名 |
prompt | string | 涉及疫苗、用药、症状、自我管理等常见问题 |
output | string | 模型初步答复,尝试解释设备问题及其潜在关联 |
human_feedback | number | 反映回答的正确性、安全性与指导合理性 |
rationale | string | 指出回答中的问题或亮点,用于监督学习或奖励模型生成机制优化 |
项目 | 内容 |
---|---|
授权类型 | CC-BY-NC-SA 4.0(非商业署名共享) |
商业使用 | 需申请专属订阅或授权合同(支持按月/按调用次数收费) |
隐私与脱敏 | 无PII,无真实公司名,模拟场景均符合行业标准 |
合规体系 | 中国《数据安全法》 / 欧盟GDPR / 企业数据可访问日志支持 |
让数据提供商通过发布请求来找到你