Deepseek在药企研发领域的本地化部署和应用场景.pptx
Deepseek在药企研发领域的本地
化部署和应用场景
2025年03月;
01大模型的发展阶段和deepseek
02Deepseek-R1在药企的本地化部署
03芽仔与Deepseek-R1对接
04AI融入智慧芽生物医药产品;
资料来源:中文大模型基准测评2024年度报告(2025.01.08);
Deepseek出圈引爆全行业的原因?
?基础能力:进入推理模型阶段,跻身全球第一梯队
?推理能力跃升:DeepSeek大模型核心技术突破,实现复杂推理任务的精准处理与高效执行,覆盖多模态场景应用。
?国际竞争力对标:模型综合性能跃居全球第一梯队,技术指标与国际顶尖水平(如GPT系列、Claude等)直接对标,奠定国产大模型的行业标杆地位。
?加分项:开源、低成本、国产化;
Deepseek对行业产生巨大影响
?打破垄断:R1版以低成本和开源特性打破以往头部企业垄断局面。
?价格优势:DeepSeek-R1的API定价仅为行业均价的1/10,推动了中小型企业低成本接入AI,对各个行业产生了积极影响。
?创新:重新定义了芯片和算力对大模型的影响。
?Deepseek的三种使用方式:在软件系统中调用官方API、模型微调、直接使用。;
01大模型的发展阶段和deepseek
02Deepseek-R1在药企的本地化部署
03芽仔与Deepseek-R1对接
04AI融入智慧芽生物医药产品;
Deepseek-R1在药企的本地化部署;
?个人部署:Ollma框架适合个人用户私有化本地部署,但在多用户并发场景下性能衰减明显。
?企业部署:推荐使用Transformers来快速验证模型能力,使用vLLM框架借助PagedAttention技术实现24倍于Transformers的吞吐量实现大模型的高效推理,针对不同企业场景,则提供不同的企业级部署方案。
?其他方式:近期出现的KTransformers、Unsloth等多套低成本动态量化模型的DeepSeek部署解决方案。目前暂不够成熟。
?vLLM部署简单,更适合中小型企业做大模型推理部署,对于大型企业,可以使用配置较为复杂的TensorRT框架。
资料来源:AI肖睿团队,北京大学-DeepSeek原理与落地应用;
Deepseek-R1满血版模型部署方案
?DeepSeekR1模型就成了很多应用场景下的当务之急。受限于DeepSeekR1671B(6710亿参数)的模型规模,通常
情况下部署DeepseekR1满血版模型需要1200G左右显存(考虑百人内并发情况),需要双节点8卡H100服务器才能运行(总成本约在260万-320万左右),即便是INT4半精度下,也至少需要490G显存,需要单节点8卡H100服务器才能运行。
?为了实现低成本DeepSeekR1模型的高性能部署,目前大多数方案都采用了牺牲模型推理速度的策略。使用
CPU+GPU混合推理的方式,将一部分推理计算转移到CPU上,降低GPU的负载。由于CPU并不适合深度学习计算,导致模型整体推理速度较慢。;
Deepseek-R1部署方案简介;
01大模型的发展阶段和deepseek
02Deepseek-R1在药企的本地化部署
03芽仔与Deepseek-R1对接
04AI融入智慧芽生物医药产品;
Deepseek出圈引爆全行业:仍有幻觉问题,例如出现专利号需要查证;
为什么需要RAG?;;
芽仔与Deepseek-R1对接;
芽仔与Deepseek-R1对接:分子设计场景,问阳性药与靶蛋白的结合;
芽仔与Deepseek-R1对接:分子设计场景,问阳性药与靶蛋白的结合
问题:根据PDB库和智慧芽数据库的信息,给出药物BMS986278和;
分子设计场景:智能体agent一键式生成分子动力学模拟图
解决方案:自主设计的新分子通过智能体agent快速完成分子对接的过程
?从PDB数据库下载带有hit分子的靶蛋白结构(PDBID:3wzm),提取A链,移除水分子,作为起点。
?通过与GROMACSCopilot对话,要求其搭建体系,构建小分子力场、建立复合物拓扑、溶解、平衡等步骤后,进行1ns的正式模拟。
?对轨迹移除PBC,根据蛋白质进行旋转平移对齐,最后输出RMSF,并且对