软件测试人员绩效考核详细.docx
- 文档编号:30165610
- 上传时间:2023-08-05
- 格式:DOCX
- 页数:17
- 大小:49.96KB
软件测试人员绩效考核详细.docx
《软件测试人员绩效考核详细.docx》由会员分享,可在线阅读,更多相关《软件测试人员绩效考核详细.docx(17页珍藏版)》请在冰豆网上搜索。
软件测试人员绩效考核详细
1、测试团队绩效考核
绩效评估的的客体:
是个体成员还是整个团队。
●Pascerellayer认为,团队绩效评价应以成员个人完成工作的状况为基本依据,理由是激励只能作用于个人而不是群体;技能的提高和行为的改进最终必须落实到个人。
若仅考核团队绩效,个体的努力得不到充分的肯定,就容易造成社会懒散现象,即个体由于参加团队工作,其工作效率比自己单独工作时的效率反而大大降低。
此现象一旦在组织中蔓延开来,不仅会影响组织绩效,还会毒害组织文化。
同时,由于绩效考核与薪酬及个人价值的实现相联系,因此,在团队中,能力高的成员倾向于对个人绩效的考核,从而得到更高的认可和报酬。
●Zingheim和Schuster则认为对个人的考评应考虑团队的整体绩效,因为团队的成功很大程度上依赖于团队成员间的团结合作,理解支持,若评估集中于个体层面,会导致个人主义盛行,忽视团队的协作精神,阻碍信息、技能的共享和绩效的提高,降低团队工作的优势。
●因此在实际操作中,企业往往采取一种折中的方法,即按一定比例兼顾团队和个人两个层面的绩效考核。
从目前的研究来看,还没有一种很好的办法可以科学地确定这个比例。
但是,如果从团队性质的差异、团队所处的阶段等方面来考虑,那么至少可以确定考核的天平是更向个体的一极偏还是更向团体的一极偏。
绩效考核的内容:
结果、行为还是能力。
对于绩效内涵存在着三种不同的观点,即“绩效是结果”、“绩效是行为”和“绩效是能力”。
Bernardin将绩效定义为“在特定的时间内,由特定的工作职能活动产生的产出记录,工作绩效的总和相当于关键和必要工作职能中等绩效的总和(或平均值)”,这是“绩效是结果”的典型观点。
Murphy等人将绩效定义为“一套与组织或个体所工作的组织单位的目标相关的行为”。
近年来,以能力作为绩效的观点得到了广泛的使用,这是以评估个体所拥有的完成某项工作所具备的知识和能力的方式。
伴随着这三种观点的诞生和发展,绩效考核大致经历了基于结果、基于行为以及基于能力的三个考核发展过程。
?
虽然这三种观点相互区别,且都是在否定前者的基础之上产生的,但是,如果不带入特定的环境,特定的组织,及组织发展的特定时期,那么三者之间并不存在绝对的优劣。
如果组织下达的目标非常清晰,基于结果的绩效考核是最容易实施,也最有效;相反,如果目标模糊,无法准确衡量其结果,这种考核方式就会失效。
基于能力的考核方式理论上是从战略管理的角度出发,最具有激励效果和长期效应,最有利于组织不断发展,但在实际操作中却很难达到效果。
因为能力是无形的,它依附于个体,既受主观因素的控制,也受各方面客观因素的影响,很难用标准化的方法衡量个体的能力,即使是方法对组织期望成员所具有的能力和特质作出了解释,但这些解释仍是描述性模糊语言,在实际操作中仍然难以做到真正的科学公正。
基于行为的绩效考核方法通过考核员工为实现既定的结果所必须做出的行为来实现对结果的控制,由于行为必然是建立在某种能力基础之上的,并且行为比能力更具有外显性和可测性,因此一定程度上,该方法兼顾了组织目标和个人能力。
但是,绩效考核中容易出现目标置换的现象,一味对行为测评会导致成员将行为作为目标,进而影响实际目标的实现。
因此,无论哪种考核方式,都有其适用的条件和要求,不存在一种绝对好的方法。
基于项目团队生命周期的绩效考核:
●孵化诞生期:
这是指团队形成前到团队正式形成的一个阶段,是选择合适的项目成员组成团队的时期。
→考核的客体是个人。
团队的首要任务是筛选项目组成员,根据项目目标的要求,选择最为合适的人选组成团队,所以考核的对象是个人。
→考核的重点是能力。
从项目团队成立的目的来看,它一般是为了开发一种新产品或者提供一项新的服务,因此对成员的知识技能要求较高,需要成员具有较高的技术水平和知识储备以及不断学习和创新的能力。
同时,成立项目团队,意在发挥团队快速响应和凝聚集体智慧的优势,更加需要团队成员间的相互合作相互支持,所以需要较为系统地考核成员的协调合作能力,包括,对团队其它成员工作任务的认识、口头交流、个人成长、问题解决、责任承担、领导技能等等。
因此,在选择项目团队成员的时候,通过对被选者专业技能、基本素质当然也包括过去的工作经历和背景等各方面的考核,最终确定较为合适的人选。
●成长期:
这是团队正式形成之后,团队工作逐渐步入正轨,团队成员开始通过个人努力和彼此的合作共同在所研究的项目上获得初步的成就。
→考核的客体是团队。
团队成立之初,成员合作的意识还没有形成,工作的独立性较强,此时的工作重点应该是营造一种信任、关怀、相互支持的合作氛围。
同时,项目也刚刚起步,没有取得实质性的进展,个人的贡献还无法准确衡量,在这种情况下,如果过多地衡量个人绩效,特别是个人产出绩效,不仅不利于合作精神的培养,也会由于准确性不高而使成员产生不公平感,从而对团队工作形成抵触情绪。
注重团队整体绩效的考核,可以向整个团队成员传递这样一个信息,即必须注重团队的整体效率,共同开发团队能力。
同时,对团队绩效的考核还可以提高团队成员对自己团队的自豪感和所有感,并不断提高其认同感和归属感。
→考核的重点是行为。
刚刚进入一个新的团队,如果此前没有进行过合作,成员之间会由于陌生感而信任度较低,彼此在沟通和交流上存在困难,需要相当一段时间的磨合,工作进度也很缓慢。
如果不通过有意识的加强合作意识的培养,难么磨合期就会较长,从而影响目标的实现。
因此在项目团队进入成长期时,绩效考核的重点应该放在对团队成员行为的考核之上。
绩效考核不仅仅是一种过程的监督和事后的衡量,更是一种对员工行为进行引导的方式。
作为一种信息的传播途径,通过评估的本身,反馈以及与薪酬的联系,以直接或间接的方式告诉被考核者,组织鼓励什么样的行为、反对什么样的行为,从而引导和鼓励成员采用更加积极的态度和行为,主动参与团队工作,加强团队成员之间的合作和学习,使项目团队尽快度过磨合期,向着一个良性的方向发展。
●成熟期:
进入成熟期,团队工作进展顺利,项目取得关键性的突破,团队成员自由沟通,合作意识加强。
→考核的客体是个人。
此时应该加大对个人绩效考核的比重。
因为项目已经取得一定的突破,目标接近实现,团队成员的成果和贡献相对比较清晰,可以较为准确的衡量,需要对其加以肯定。
如果仍然只是停留于对团队绩效的整体考核,并以此为基础进行利益分配,个体会逐渐产生不公平感,因为随着项目工作的深入开展和目标的逐步实现,个人由于态度、能力、技术支持等诸多方面的差异,贡献度的差距会逐步扩大,客观上会有成员的贡献大于其它人,如果不及时加以肯定和认可,那么就会挫伤这一部分核心成员的积极性。
→考核的重点是结果。
成熟期的团队首要任务是推动工作进展,以保证最终成果的实现。
由于既有的工作方式已经基本形成,合作沟通的氛围已经建立,如果仍然强调对个体行为的考核,会使成员将大部分的注意力投入到日常的工作行为和方式之上。
事实上,鼓励行为的本身并不是目的,关键是行为带来的结果,合作和交流是团队的基本工作手段,但手段不能代替目的,项目及时高效地完成才是项目团队的存在目的。
如果不以任务为导向而长期进行行为考核,容易使个体忽视目标和结果,影响工作的效率,例如,过分的注重沟通和交流,造成决策时议而不决,贻误时机,或者意见趋中,成员过分尊重群体意见,不愿表达自己突破性的想法和思路。
●衰退期:
项目目标已经基本实现,团队即将解散,此时需要对整个项目团队作一个综合的评估。
→考核的客体兼顾个人和团队。
进入衰退期,绩效考核一方面需要通过对项目团队的整体绩效作出评估,以考核项目的完成情况;另一方面,也需要对团队成员绩效作出公正科学的总结,这不仅决定成员能否取得公平的报酬,也是其进入另一个团队的基础。
→考核的重点主要是个人的综合绩效以及团队的产出。
项目团队任务明确,业绩是团队成立的最终目的,因此在项目团队解散之际,需要对目标的实现情况作一个综合评估,以此判断项目的成功与否。
对个人也需要做一个总体的评价,尤其是产出和能力的评估,组织需要对此进行备案,成为以后的项目团队选择成员的重要根据。
2、测试人员绩效考核
考核基于测试过程进行,因此必须在过程结束之后才能进行。
由于工程是分布提交测试的,每月可以根据实际情况进行月考核,工程结束后或任务结束后再统一考核。
按照传统测试周期,测试过程分为:
测试计划、测试设计和测试执行三个方面进行。
测试计划属于测试经理的范畴。
测试人员主要是测试设计和测试执行。
测试人员的绩效考核包括多个方面:
●工作态度。
包括工作责任心和工作积极性。
●工作职责与期望达成度(注意:
在工作安排前需求明确对应测试工程师的工作职责和对测试工程师的期望值,这里的工作职责一般是和管理相关的工作职责内容)。
●工作内容考核。
→参与软件开发过程的工作内容考核,比如参与需求和设计的评审,就需要对需求的理解上,对需求提出问题的质量上等作出评价。
→参与测试文档的准备工作,如测试用例等,需要通过评审测试文档来考核测试人员的能力。
如评审测试用例的质量,对需求的覆盖程度,可理解和执行等方面来判段测试人员的能力。
→执行测试的工作,需要从测试人员所发现的问题对测试人员进行评价。
包括发现问题是复杂的还是简单的,是隐藏较深的,还是一些表面的问题。
包括问题的书写上进行评价,问题的书写是否详细清晰,开发人员可以再现,还是含糊其词,不明所以。
一个问题是否写多遍等。
→测试结果缺陷残留,对于已经发布的产品,从用户反馈问题考核测试人员的绩效,但是这个可能需要的时间比较长;对于不同版本的测试,可从版本的漏检进行统计。
→测试人员的沟通能力考核,包括缺陷在开发工程师中沟通的达成率和拒绝率。
●工作效率与工作质量考核。
→测试设计中工作效率相关指标:
△文档产出率:
这项指标值主要为测试用例文档页数除于编写文档的有效时间获得。
用于考察测试人员测试用例文档的生产率大小。
公式:
∑测试用例文档页数(页)/∑编写测试用例文档有效时间(小时)
参考指标:
根据项目汇总得出平均在1.14页/小时左右,高于此值为优,低于此值为差。
△用例产出率:
这项指标值主要为上述指标值的补充,用于考察测试人员测试用例产出率大小。
测试文档页数可能包含的冗余信息较多,因此要查看文档中测试用例的多少。
方法是测试用例文档中测试用例编号总和数除于编写文档的有效时间。
公式:
∑测试用例数(个)/∑编写测试用例文档有效时间(小时)
参考指标:
平均4.21个用例/小时
●测试设计中工作质量相关指标:
→需求覆盖率:
计算测试用例总数之和除于与之一一对应的功能点数之和,主要查看是否有功能点遗漏测试的情况。
公式:
∑测试用例数(个)/∑功能点(个)
参考指标:
100%。
如果连功能指标都不能满足100%覆盖,起码说明测试不充分。
这个指标收集起来相当困难,如果存在需求跟踪矩阵或者测试管理工具能把用例与需求一一对应就容易得多。
注意:
有的功能是难于测试的,那么未能覆盖到的需求要综合分析,明确是测试人员遗漏?
还是无法测试?
这需要放入问题跟踪表中进行后续跟踪;另外,有的功能点包含的信息较多或者有的用例包含几个功能点,这时只能把重复的功能点或重复用例按一个计,难于区分的要做说明。
→文档质量:
测试用例进行评审和同行评审发现的缺陷数,或者将此缺陷数除于文档页数算出比率。
此指标考察测试人员文档编写的质量如何。
公式:
∑缺陷数(评审和同行评审)(个)/∑测试用例文档页数(页)
参考指标:
由于评审是发现的缺陷数是不固定的,因此,这个指标没有可供参考的数值。
如果缺陷数大小不能直接用于比较就使用缺陷/页方式进行横向对比。
→文档有效率:
使用测试用例文档进行测试时发现的系统测试缺陷数除于此文档页数。
用于考察文档是由有效的指导了测试工作。
公式:
∑缺陷数(系统测试)(个)/∑测试用例文档页数(页)
参考指标:
平均2.18个缺陷/页
注意:
如果存在测试人员在测试时创建新文档用于辅助测试时应包含这一部分。
→用例有效率:
使用测试用例发现的全部缺陷除于测试用例数总和。
这一指标是上一指标的补充指标,用于考察用例质量是否较高
公式:
∑缺陷数(系统测试)(个)/∑测试用例数(个)
参考指标:
平均0.59个缺陷/用例,也就是说,每执行两个用例才得到1个缺陷,各工程有所不同,可以自己实践一下
→评审问题数:
是否存在对需求理解、系统架构设计、系统设计等方面引起争议的问题。
体现出测试人员发现问题的深入层次,有利于产品质量的提高。
●测试执行中工作效率相关指标:
→执行效率:
利用测试用例文档页数除于此次系统测试执行的时间总和(不包含用例文档编写时间)。
补充指标方法是用例的个数除于此次系统测试的时间总和。
用于获得工作中测试人员每小时执行测试的速度。
公式:
∑测试用例文档页数(页)/∑执行系统测试的有效时间(小时)
∑测试用例数(个)/∑执行系统测试的有效时间(小时)
参考指标:
平均0.53页/小时,1.95个用例/小时。
即测试人员每小时执行半页测试用例或者每小时执行2个测试用例。
通过横向比较,容易知道那位成员的执行效率较高。
注意:
执行效率高的不代表测试质量也高,甚至执行效率和测试质量成反比,所以后面工作质量的指标会补充这一部分的偏离。
实际结果表明,用例执行效率高的成员,其缺陷发现率往往偏低,考核如果不将此纳入进来也可以将其作为测试改进的一项重要数据进行收集。
→进度偏离度:
检查计划时间和实际时间的进度,方法是计划时间差额减去实际时间差额除于实际工时总和,用于考察测试人员进度情况,监控测试是否按照日程进行,是否满足了工程的进度要求。
公式:
∑(计划开始时间-实际开始时间)+∑(计划结束时间-实际结束时间)/总工时
参考指标:
15%进度偏离是个相对的指标,可能偏离了20个工作日,但是对于一个长达半年时间的测试而言偏离天数比上整体测试所需天数不足15%,可能偏离了3个工作日,但是对于一个只有1星期时间的测试已经超过了整个测试阶段所需天数的60%。
注意:
计算时分子分母要保持一致,即开始或结束时间已经去除了非工作日时间,则总工时也要去除非工作日时间。
因为制定计划时是根据每个公司的工作日来制定的,也就是说,考虑了非正常工作日的日程。
测试进度也是考核很重要的一步,如果没有进度保证,所有的测试都存在风险,第一种方法是测试人员可以采用自下而上的方式向测试经理报告计划用时,这种方式风险比较少,个人根据自己能力大小确定,但是缺点是存在测试人员虚报可能性。
另一种方法是测试经理进行估算后分配工作日程,这时估算是很重要的前提,除了依赖于测试经理的经验外,对评估结果进行同行评审是很客观可取的方法。
→缺陷发现率:
测试人员各自发现的缺陷数总和除于各自所花费的测试时间总和。
由于执行效率不能足够代表测试人员是否认真工作,那么,每小时发现的缺陷数就是重要的考核指标,你的工作可以通过这项指标得到反馈。
公式:
∑缺陷数(系统测试)(个)/∑执行系统测试的有效时间(小时)
参考指标:
平均1.1个缺陷/小时假使有位测试人员没有达到1小时发现1个缺陷,那么,除非产品质量高、模块较小,否则,就是他的缺陷发现能力不如其他测试人员。
当然,详细分类中可以根据发现重要缺陷的多少来定义缺陷发现能力。
●测试执行中工作质量相关指标:
→缺陷数:
为了更客观度量,考虑到bug的严重性、技术难度、产品类型、模块稳定性等因素影响,不是用“所发现的bug数量”,而是用“所获得的bugvalue(缺陷值)”来度量,公式被定义为:
Bug_value=(P0_Bug_Number×1.6+P1_Bug_Number×1.4+P2_Bug_Number×0.7+P3_Bug_Number×0.3)×Wd×Ws×Wt
其中:
P0_Bug_Number:
致命的(fatal)缺陷数量;P1_Bug_Number:
严重的(critical)缺陷数量;P2_Bug_Number:
一般的(major/normal)缺陷数量;P3_Bug_Number:
次要的(minor)缺陷数量
Wd:
技术难度系数,如Database,EnterpriseServer,Java难度系数大,发现Bug不容易,Wd可以定在1.5–5.0
Ws:
稳定性系数,全新模块,Bug比较多,发现缺陷比较容易;版本越高,越稳定。
Ws可以定在0.5–1.0,假如以version10.0为1.0,Version1.0=1/100,Version2.0=4/10,Version3.0=9/100,…,,Version8.0=64/100,Version8.0=81/100
Wt:
产品类型系数,可根据实际情况和历史数据来判断。
Wt也可以和Wd合并为一个系数。
→有效缺陷数/率:
被拒绝和删除的缺陷数总和,或者被拒绝和删除的缺陷数总和除于缺陷总数。
这项指标用于考察测试人员发现的、被确认为缺陷的缺陷数高低或者百分比,数和比率越低测试质量越高。
公式:
∑缺陷数(系统测试中被拒绝和删除的)(个)
∑缺陷数(系统测试中被拒绝和删除的)(个)/∑缺陷数(系统测试)(个)
参考指标:
平均21.9%(测试人员发现的每100个缺陷中平均有22个缺陷不被开发组确认、认为不是“缺陷”或者错误录入缺陷)。
有效缺陷比率容易给出,但是有效缺陷数具体数据要根据项目情况,无法给出可参考的数值。
注意:
这项指标可能有不正确的情况,假使缺陷被拒绝和被删除的原因不是因为测试人员误操作和需求理解等自身错误引起,而是系统本身不能实现或者数据错误引起的,那么就要考虑剔除这部分。
对于测试人员发现系统框架根本性的、初始化参数设置错误引发的、错误数据、错误环境等而开发人员因无法修正、可以通过改变环境而无需修改程序、重新导入数据、再次发布从而拒绝或删除的缺陷,应给予此测试人员奖励。
→严重缺陷率:
这个比例用于弥补缺陷发现率的不足。
主要是根据严重程度分类的缺陷数比全部缺陷或者有效缺陷数。
一般而言,每个公司基本把缺陷严重程度分为严重、一般和微小,或者更细(通常等级数为奇数)。
另外,可以对缺陷严重程度进行折算(严重:
一般:
微小=1:
3:
5)通过折算可以得出权重,然后在计算测试人员分值。
公式:
∑严重/一般/微小/∑缺陷数
∑严重/一般/微小/∑有效缺陷数
参考指标:
严重~10%一般~70%微小~20%。
当测试人员发现的缺陷中严重错误比率越高,说明测试质量相对就好,通常严重程度缺陷数的分布呈正态分布。
→模块缺陷率:
这个指标主要是根据一个单独测试模块的缺陷数除于模块本身功能点数得出来的。
假使一个模块是单独测试的话,很容易可以和其他模块进行指标横向对比,参照对应的测试人员,得出所测试模块的缺陷数,可以考察测试人员测试水平,也为开发考核提供数据。
公式:
∑缺陷数(系统测试(个)/功能点(个)
∑缺陷数(系统测试(个)/子功能点(个)
参考指标平均3.74个缺陷/功能点1个缺陷/子功能点
注意:
有些功能点没有子功能点,计算子功能点时要进行说明。
→遗漏缺陷率:
发布后的线上故障,现阶段测试相关的故障主要都是因为测试遗漏,有遗漏就说明我们的测试还是效率不高,可以改进。
公式:
∑遗漏缺陷数/(∑遗漏缺陷数+∑遗漏版本发现缺陷数)
→Bug发现的时间点,bug曲线的收敛性,理想的效率高的模式应该是前多后少,慢慢收敛的,如果前期bug非常少,后期却发现大量bug,那我们的前期效率就有问题。
→缺陷定位和可读性:
可读性内容包括Bug描述的规范性,分优秀、良好、普通与不合格,描述是否清晰,问题定位的附件是否完备等。
如果一个测试人员只会通过页面将现象表达出来,而无法定位这种现象是有什么引起的,或者无法定位该缺陷到底错在何处,那么可以判定测试人员只是做了简单的表面测试,并没有对所发现问题进行分析定位。
●对技术组(性能自动化和环境)测试人员效率的度量:
→自动化测试的引入和使用是否合理,不是每个项目都适合做自动化的,自动化并不能保证效率的提高,用5个小时开发的自动化脚本来替代3个小时的手工测试并不合算,自动化测试需要评审,按照项目的大小不同,必要的情况下才引入自动化测试。
→自动化测试,特别是性能测试结束之后,我们要分析部分测试结果,测试结果的分析水平,也可以作为衡量测试效率的一个指标。
●对测试项目负责人的效率的度量:
→测试是否提早介入项目,例如FRD阶段就介入,越早介入,越有利于测试,使测试人员更加熟悉整个项目,使问题早暴露,提高整体效率。
→开发提交测试的时候,标准是否合理,把关是否严格,如果开发的质量不行,坚决要退回,不然会影响测试的效率和进度。
→测试计划阶段,评价测试计划的合理性,包括任务细化,细化的程度是否合理,任务顺序,资源安排,任务分配合理,风险预估等等。
→项目结束后,评价项目进行阶段中负责人的跟进情况,特殊情况处理,风险触发之后的处理,资源协调,信息收集,共享,沟通,配合等等。
●测试管理。
→计划质量:
测试计划的评审缺陷数或比率,可以与其他同类型项目或数据库平均指标进行对比。
∑缺陷数(评审和同行评审)(个)/∑测试计划文档页数(页)
→成本质量:
成本度量主要放在工作量这块。
因为无论涉及工资还是奖金,都要和工作量挂上关系。
成本质量主要是对测试活动的计划工作量总和比上实际的工作量数值总和。
对测试人员考核的进度偏离已经考虑了进度因素,而工作量涉及的是成本因素。
公式:
∑测试活动计划工作量(估算人日)/∑测试活动的实际工作量(人日)
参考指标:
原则上不能偏离计划的±15%~±20%。
实际上,这个指标是对成本的一种度量。
对于一个大的项目来说,估算值往往差距非常大,阶段统计时可能有±500%!
!
这时调整计划是很必要的,在最终阶段取考虑计算平均估算值。
一个测试经理必须对完成任务的成本进行有效控制。
这两项指标是相对容易量化的部分,而需要添加其他量化指标需要综合考虑由项目经理和测试部部门经理给出标准,例如管理用时比率(整个项目测试期间管理时间占整个项目测试总时间)、系统整体缺陷数与其他同类型项目或数据库平均指标进行对比等等。
●考核具体方法:
→将各项指标进行汇总分析,得出总和表格,根据测试人员各项指标大小进行排行榜制作,如列出1、2、3、4名。
→确定阶段涉及的权重。
例如将测试设计和测试执行权重各为50%。
其中,工作效率占40%(即占所在阶段20%),工作质量占60%(即占所在阶段30%)。
→确定每类指标的分值,然后每类指标达到平均标准给100%,达不到或者超过根据80%~120%比率给分。
→将比分统计出来后进行综合评定,必要的话增加一些调整系数。
→最好将定性分析纳入进来,采用问卷调查和项目经理评分制度给出定性指标分数,建议这部分权重不要超过10%~15%以保证测试考核的可度量性。
→当所有考核分数给出之后,提醒一点的是,既然做了考核,就必须公开这些结果,而且考核具有导向型,不要让考核误导了对质量工作的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 软件 测试 人员 绩效考核 详细