常见的测量系统分析(MSA).ppt
文本预览下载声明
Go-No Go 数据模式 人为因素主导,情况复杂 统计模型多种多样 统计学上各家争鸣,尚无定论 实践中采用何种形式,取决于实例与统计模型的接近程度 对于以“是”和“不是”为计数基础的定性数据,其 GRR考察的概念是与定量数据一样的。但方法上完全不同. 定性数据测量系统的能力取决于操作员判断的有效性,即将“合格”判断成合格,将“不合格”判断成不合格的程度. 计数型测量系统能力分析方法示例 以下为判断所用的指标 有效性 Effectiveness(E) - 即判断“合格”与“不合格”的准确性 E= 实际判断正确的次数/可能判断正确的机会次数. 漏判的几率 Probability of miss(P-miss) - 将“不合格”判为合格的机会 P(miss)=实际漏判的次数 / 漏判的总机会数. 误判的几率 Probability of false alarm(P-FA) - 将“合格”判为不合格的机会. P(false alarm)=实际误判次数 / 误判的总机会数. 偏倚 Bias(B) - 指漏判或误判的偏向. B=P(false alarm) / P(miss) B=1, 无偏倚 B1, 偏向误判 B1, 偏向漏判 样品大小的规定 样品的选择 由专家或可作标准的人员选定样品 1/3 合格 1/3 不合格 1/3 模糊 (50% 接近合格, 50% 接近不合格) 随机地给操作员检验. 实例: 由主管选取14 个样品(其中 8 个合格, 6 个不合格) 三个操作员对每个样品测三次 记录中 A= 接受(accept), R= 拒收(reject) 计算判断的指标 检验结果总结 测量系统好坏的判据 E, P(FA), P(miss) and B Kappa--如果不知道标准样品 Kappa 用来分析操作者之间的一致性, 但不说明真实的对错 Kappa=(Pobserved-Pchance)/(1-Pchance) Pobserved为操作员实际判断一致的比例 =(Pass Pass+Fail Fail)/总的检验次数 Pchance 为在随机状态下操作员判断一致的机会 =[(Pass Pass+Fail Pass)*(Pass Pass+Pass Fail]/总检验次数之平方+[(Pass Fail+Fail Fail)*(Fail Pass+Fail Fail)]/总的检验次数之方 对于两个操作员 例如两个检验员目测12来料样品 样品 1 2 3 4 5 6 7 8 9 10 11 12 QC1 P P P P P F P P P F P F QC2 P P P F P F P P P F P F P代表合格, F代表不合格 Pass Fail Pass 8 0 Fail 1 3 Pobserved=(8+3)/12=11/12 Pchance=[(8+0)*(8+1)]/144 +[(1+3)*(0+3)]/144 =7/12 Kappa=(11-7)/(12-7)=0.9 一般要求Kappa 大于0.75, 小于0.4则表示很差 THANK YOU ! 造成重复性的可能原因 零件内部(抽样样本):形状、位置、表面光度、锥度、样本的一致性 仪器内部:维修、磨损、设备或夹具的失效、质量或保养不好 标准内部:质量、等级、磨损 方法内部:作业准备、技巧、归零、固定、夹持、点密度的变差 评价人内部:技巧、位置、缺乏经验、操作技能或培训、意识、疲劳 造成重复性的可能原因(续) 环境内部:对温度、湿度、振动、清洁的小幅度波动 错误的假设—稳定,适当的操作 缺乏稳健的仪器设计或方法,一致性不好 量具误用 失真(量具或零件)、缺乏坚固性 应用—零件数量、位置、观测误差(易读性、视差) 精确度:再现性 测量系统中操作员产生的变异 基于不同操作者的测量数据,按操作员分组,通过组平均值的差来估。 应扣除量具的因素(组内变差) 比测量系统总变差小 Inspector A Master Value Inspector B Inspector C Inspector A Inspector B Inspector C 再现性:指不同的人在对同种特性进行测量时产生的变差 造成再现性误差的潜在原因 零件之间(抽样样本):使用相同的仪器、操作者和方法测量A、B、C零件类型时的平均差异 仪器之间:在相同零件、操作者和环境下使用A、B、C仪器测量的平均值差异。注意:在这种情况下,再现性误差通常还混有方法和/或操作者的误差。 标准之间:在测量过程中,不同的设定标准的平均影响。 造成再现性误差的潜在原因(续)
显示全部