【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成医术专家

【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成医术专家

系列篇章💥

No.文章
1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术
2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流
3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破
4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源
5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型
6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题
7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破
8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元
9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型
10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合
11【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化
12【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF
13【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频
14【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元
15【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴
16【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分
17【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性
18【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型
19【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品
20【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90%
21【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度
22【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时)
23【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作
24【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型
25【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家

目录


前言

随着人工智能技术的飞速发展,大型语言模型(LLMs)在各个领域展现出了强大的潜力。然而,在医学领域,由于其对准确性和可靠性的极高要求,如何让LLMs具备精准的医学推理能力成为了一个亟待解决的问题。MedReason项目的出现,为这一挑战提供了一个创新的解决方案。它通过结合知识图谱和链式推理(Chain-of-Thought, CoT),显著提升了LLMs在医学问答和推理任务中的表现。本文将详细介绍MedReason的技术原理、主要功能、性能表现以及应用场景,并通过实际部署案例,展示如何快速使用这一强大的医学推理引擎。

一、项目概述

MedReason是由美国加州大学圣克鲁斯分校(UC Santa Cruz)、加拿大不列颠哥伦比亚大学(University of British Columbia)、新加坡南洋理工大学(Nanyang Technological University)等机构联合推出的一个医学推理数据集。该项目旨在通过知识图谱(Knowledge Graphs)引导的方式,为大型语言模型(LLMs)生成高质量的医学推理步骤,从而提升其在医学领域的推理能力和准确性。MedReason利用结构化的医学知识图谱,将临床问答对转换为逻辑推理链,生成详细的逐步解释,并通过监督微调(SFT)显著提升了模型在多个医学基准测试中的表现,尤其是在复杂临床场景中。其最佳模型MedReason-8B在多个医学问答基准测试中达到了最先进的性能,为医学AI的实际应用提供了重要支持。

在这里插入图片描述

二、技术原理

MedReason的核心技术原理是通过知识图谱(KG)为LLMs的推理过程提供事实基础和逻辑指导。以下是其技术原理的详细解析:

(一)医学实体提取与映射

MedReason首先利用大型语言模型(LLM)从问题和答案中提取医学实体,并将这些实体映射到知识图谱中的节点。这一过程分为三个阶段:

  1. 文本嵌入与相似度计算:使用文本嵌入模型对每个实体进行编码,并计算其与知识图谱中节点嵌入的相似度,生成候选匹配列表。
  2. 精确匹配:如果候选列表中存在与实体完全匹配的节点,则直接选择该节点。
  3. 相似度匹配与LLM选择:如果未找到精确匹配且相似度超过预设阈值(如0.85),则选择最相似的节点;如果仍未找到合适的节点,则由LLM根据上下文和实体名称选择最相关的节点。

(二)路径搜索与修剪

在知识图谱中,MedReason搜索连接问题和答案实体的最短路径,以确保推理路径的简洁性和逻辑性。同时,利用LLM修剪与当前问题无关的路径,保留最相关的推理路径。这一过程不仅确保了推理的逻辑性,还避免了不必要的复杂性。

(三)链式推理(CoT)生成

基于筛选后的推理路径,MedReason指导LLM生成基于医学事实的链式推理(CoT)解释。每一步推理都与知识图谱中的医学知识保持一致,确保推理的准确性和可解释性。此外,MedReason还实施了质量过滤机制,通过验证生成的CoT是否能正确回答问题,系统性地剔除低质量的样本,从而确保数据的高质量。

三、主要功能

MedReason的主要功能是为LLMs生成高质量的医学推理数据,从而提升其在医学领域的推理能力和准确性。具体功能如下:

(一)生成高质量医学推理数据

MedReason能够将临床问答对转换为逻辑推理链,确保每一步推理都有可靠的医学知识支撑。通过知识图谱的引导,生成的推理路径不仅逻辑连贯,而且符合临床逻辑和循证医学原则。

(二)提升模型性能

通过监督微调(SFT),MedReason显著提升了LLMs在医学问答和推理任务中的表现。实验表明,使用MedReason进行微调的模型在多个医学基准测试中表现显著提升,尤其是在复杂临床场景中。

(三)确保医学准确性

MedReason通过专家验证和质量过滤机制,确保生成的推理路径在医学上准确且连贯。此外,其基于知识图谱的生成方式也避免了LLMs常见的“幻觉”问题,确保了推理的可靠性。

(四)支持多种医学任务

MedReason适用于多种医学问答和推理任务,包括诊断、治疗计划和医学知识验证。其生成的推理路径可以为医生提供决策支持,也可以用于医学教育和研究。

四、性能表现

MedReason在多个医学基准测试中的表现显著优于现有的LLMs和医学推理模型。以下是其性能表现的关键点:

(一)监督微调(SFT)效果显著

实验表明,使用MedReason数据进行监督微调的模型在多个医学基准测试中表现显著提升。例如,MedReason-8B在MedBullets基准测试中的表现超过了现有的最先进的医学推理模型Huatuo-o1-8B,平均准确率提升了4.2%。

在这里插入图片描述

(二)复杂临床场景表现优异

MedReason在处理复杂临床问题时表现出色。例如,在MedBullets和MedXpert等挑战性基准测试中,MedReason-8B的性能提升尤为显著,分别提升了8.8%和5.2%。这表明MedReason能够有效处理复杂的医学推理任务,为实际临床应用提供了有力支持。

在这里插入图片描述

五、应用场景

MedReason的应用场景广泛,涵盖了医学问答系统、辅助诊断工具、医学教育与培训以及医学研究与知识发现等多个领域。以下是具体的应用场景:

(一)医学问答系统

MedReason可以用于开发智能医学问答系统,帮助医生、医学生和患者快速获取准确的医学信息。其生成的详细推理路径可以为用户提供清晰的解释,增强用户对答案的信任度。

(二)辅助诊断工具

在临床实践中,MedReason可以作为辅助诊断工具,帮助医生分析患者的症状和病史,生成可能的诊断建议。通过提供基于医学事实的推理路径,MedReason能够为医生提供决策支持,提高诊断的准确性和效率。

(三)医学教育与培训

MedReason可以用于医学教育和培训,帮助医学生和医学从业者通过实际案例学习复杂的医学推理过程。其生成的推理路径可以作为教学材料,帮助学生更好地理解和掌握医学知识。

(四)医学研究与知识发现

MedReason还可以用于医学研究,帮助研究人员探索新的医学知识和治疗方法。通过分析生成的推理路径,研究人员可以发现潜在的医学关系和知识,为医学研究提供新的思路和方向。

六、快速使用

(一)模型训练

使用 MedReason 数据的简单监督微调 (SFT) 提高了 LLM 的医学推理能力。在 8-GPU 上微调模型:

# based on Huatuo-o1-8B accelerate launch --config_file ./configs/deepspeed_zero3.yaml \ --num_processes 8\ --num_machines 1\ --machine_rank 0\ --deepspeed_multinode_launcher standard ./src/model_training/SFT.py \ --model_path FreedomIntelligence/HuatuoGPT-o1-8B \ --data_path /path/to/your/data \ --n_epochs 3\ --experiment_name huatuo_o1_medreason_8B \ --base_model Llama # based on DeepSeek-distilled-Llama-8B accelerate launch --config_file ./configs/deepspeed_zero3.yaml \ --num_processes 8\ --num_machines 1\ --machine_rank 0\ --deepspeed_multinode_launcher standard ./src/model_training/SFT.py \ --model_path deepseek-ai/DeepSeek-R1-Distill-Llama-8B \ --data_path /path/to/your/data\ --n_epochs 3\ --experiment_name distilled_llama_medreason_8B \ --base_model Llama 

(二)模型评估

1. 模型部署

在开始评估之前,您需要先安装 Sglang。安装完成后,使用以下命令在 8 个 GPU 上部署要测试的模型:

# 部署模型log_num=0model_name=UCSC-VLAA/MedReason-8B port=28${log_num}35CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 python -m sglang.launch_server \ --model-path $model_name\ --port $port\ --mem-fraction-static 0.8\ --dp 8\ --tp 1> sglang${log_num}.log 2>&1&

部署完成后,模型将准备好进行评估。

2. 模型评估

部署完成后,您可以运行以下代码进行模型评估。我们使用允许模型自由响应的提示,这可以确保提取的结果始终可靠,并广泛涵盖预期范围。如果您需要更精确地提取答案,可以启用更严格的提示(--strict_prompt)。

# 运行评估log_num=0task_folder=MedReason-8B-results model_name=UCSC-VLAA/MedReason-8B port=28${log_num}35eval_file=./eval_data/medbullets_op4.jsonl python ./src/evaluation/eval.py \ --model_name $model_name\ --eval_file $eval_file\ --port $port\ --strict_prompt \ --batch_size 1000\ --max_new_tokens 2000\ --task_folder $task_folder

3. 停止服务

评估完成后,执行以下命令停止 Sglang 服务并释放 GPU 内存:

# 停止 Sglang 服务pkill -f sglang pkill -f multiprocessing.spawn 

(三)模型推理

以下是一个简单的推理示例,展示如何使用MedReason-8B模型回答医学问题:

from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained('UCSC-VLAA/MedReason-8B',torch_dtype="auto",device_map="auto", use_safetensors=True) model.eval() tokenizer = AutoTokenizer.from_pretrained('UCSC-VLAA/MedReason-8B', trust_remote_code=True, padding_side='left') input_text ="How to stop a cough?" messages =[{"role":"user","content": input_text}] inputs = tokenizer(tokenizer.apply_chat_template(messages, tokenize=False,add_generation_prompt=True), return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=2048)print(tokenizer.decode(outputs[0], skip_special_tokens=True))

七、结语

MedReason通过结合知识图谱和链式推理,为大型语言模型在医学领域的应用提供了一个创新的解决方案。它不仅显著提升了模型的医学推理能力,还确保了推理过程的准确性和可解释性。MedReason的出现为医学AI的发展带来了新的机遇,也为未来的医学研究和临床应用提供了坚实的基础。

八、项目地址

  • GitHub仓库:https://github.com/UCSC-VLAA/MedReason
  • HuggingFace模型库:https://huggingface.co/collections/UCSC-VLAA/medreason
  • arXiv技术论文:https://arxiv.org/pdf/2504.00993

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(ZEEKLOG博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Read more

解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

🐇明明跟你说过:个人主页 🏅个人专栏:《深度探秘:AI界的007》 🏅 🔖行路有良友,便是天堂🔖 目录 一、引言 1、什么是Docker 2、什么是Ollama 二、准备工作 1、操作系统 2、镜像准备 三、安装 1、安装Docker 2、启动Ollama 3、拉取Deepseek大模型 4、启动Deepseek  一、引言 1、什么是Docker Docker:就像一个“打包好的App” 想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题: * “这个软件需要 Python 3.8,但我只有 Python 3.6!

By Ne0inhk
深挖 DeepSeek 隐藏玩法·智能炼金术2.0版本

深挖 DeepSeek 隐藏玩法·智能炼金术2.0版本

前引:屏幕前的你还在AI智能搜索框这样搜索吗?“这道题怎么写”“苹果为什么红”“怎么不被发现翘课” ,。看到此篇文章的小伙伴们!请准备好你的思维魔杖,开启【霍格沃茨模式】,看我如何更新秘密的【知识炼金术】,我们一起来解锁更加刺激的剧情!友情提醒:《《《前方高能》》》 目录 在哪使用DeepSeek 如何对提需求  隐藏玩法总结 几个高阶提示词 职场打工人 自媒体创作 电商实战 程序员开挂 非适用场地 “服务器繁忙”如何解决 (1)硅基流动平台 (2)Chatbox + API集成方案 (3)各大云平台 搭建个人知识库 前置准备 下载安装AnythingLLM 选择DeepSeek作为AI提供商 创作工作区 导入文档 编辑  编辑 小编寄语 ——————————————————————————————————————————— 在哪使用DeepSeek 我们解锁剧情前,肯定要知道在哪用DeepSeek!咯,为了照顾一些萌新朋友,它的下载方式我放在下面了,拿走不谢!  (1)

By Ne0inhk
【AI大模型】DeepSeek + 通义万相高效制作AI视频实战详解

【AI大模型】DeepSeek + 通义万相高效制作AI视频实战详解

目录 一、前言 二、AI视频概述 2.1 什么是AI视频 2.2 AI视频核心特点 2.3 AI视频应用场景 三、通义万相介绍 3.1 通义万相概述 3.1.1 什么是通义万相 3.2 通义万相核心特点 3.3 通义万相技术特点 3.4 通义万相应用场景 四、DeepSeek + 通义万相制作AI视频流程 4.1 DeepSeek + 通义万相制作视频优势 4.1.1 DeepSeek 优势 4.1.2 通义万相视频生成优势 4.2

By Ne0inhk
【DeepSeek微调实践】DeepSeek-R1大模型基于MS-Swift框架部署/推理/微调实践大全

【DeepSeek微调实践】DeepSeek-R1大模型基于MS-Swift框架部署/推理/微调实践大全

系列篇章💥 No.文章01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力04【DeepSeek开发入门】DeepSeek API 开发初体验05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)06【DeepSeek开发入门】Function Calling 函数功能应用实战指南07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器10【DeepSeek部署实战】基于Ollama快速部署Dee

By Ne0inhk