软件测试结果及分析报告.docx
- 文档编号:4184532
- 上传时间:2022-11-28
- 格式:DOCX
- 页数:9
- 大小:17.79KB
软件测试结果及分析报告.docx
《软件测试结果及分析报告.docx》由会员分享,可在线阅读,更多相关《软件测试结果及分析报告.docx(9页珍藏版)》请在冰豆网上搜索。
软件测试结果及分析报告
软件测试结果及分析报告
密级
普通
类型
技术类
***系统测试结果及分析报告报告
文件状态:
[]草稿
[√]正式发布
[]正在修改
文件标识:
测试部
当前版本:
V1.0
作者:
完成日期:
2009-9-16
1
概述
1.1项目名称
项目全称:
项目简称:
用英文大写字母、数字及连接符表示,格式为客户缩写+连接符+项目缩写,位数不超过8位。
如LS-IAS。
1.2编写目的
说明这份测试分析报告的具体编写目的,指出预期的阅读范围。
1.3项目背景
客户背景、业务背景概要描述。
该软件的任务提出者、开发者、用户及安装此软件实际环境,指出测试环境与实际运行环境之间可能存在的差异以及这些差异对测试结果的影响。
1.4定义
列出本文件中用到的专问术语的定义和外文首字母组词的原词组。
1.5产品发布标准
软件功能、性能达到用户要求,连续48小时新bug数量少于3个,才能进入准备发布和收尾阶段。
其他标准。
1.6参考资料
列出要用到的参考资料,如:
本项目的经核准的计划任务书或合同、上级机关的批文;
属于本项目的其他已发表的文件;
本文件中各处引用的文件、资料,包括所要用到的软件开发标准。
列出这些文件的标题、文件编号、发表日期和出版单位,说明能够得到这些文件资料的来源。
2测试情况概要
2.1测试环境
操作系统
IE情况
杀毒软件
其他安装程序或是软件
是否测试(是√否×)
备注
Windows-2000-Professional-SP4-CN-32
Windows-XP-Professional-CN-32
IE6.0
√
Windows-XP-Professional-FT-32
Windows-XP-Professional-EN-32
Windows-XP-Professional-CN-64
Windows-XP-Professional-EN-64
Windows-2003-Server-CN-32
IE7.0
√
Windows-2003-Server-EN-32
Windows-2003-Server-CN-32-域
Windows-2003-Server-CN-64
Vista-Home-Basic-CN-32
Vista-Home-Basic-EN-32
Vista-Business-CN-32
Vista-Business-CN-64
Vista-Business-EN-64
Vista-Ultimate-CN-32
Windows7-CN-32
Windows-2008-Server-Standard-SP1-CN-32
……
2.2测试内容
2.2.1主要功能测试内容
编号
功能点
子功能
测试方法
测试工具
备注
2.2.2主要性能测试内容
测试项
测试方法
测试工具
备注
服务器CPU实用率
性能测试
LoadRunner9.0
服务器内存使用率
性能测试
LoadRunner9.0
吞吐量
性能测试
LoadRunner9.0
响应时间
性能测试
LoadRunner9.0
2.2.3用户界面测试
检查项
WindowsXPSP3-CN-32
IE6.0
是否测试(是√否×)
窗口切换、移动、改变大小时正常吗?
√
√
√
各种界面元素的文字正确吗?
(如标题、提示等)
√
√
√
各种界面元素的状态正确吗?
(如有效、无效、选中等状态)
√
√
√
各种界面元素支持键盘操作吗?
√
√
√
各种界面元素支持鼠标操作吗?
√
√
√
对话框中的缺省焦点正确吗?
√
√
√
数据项能正确回显吗?
√
√
√
对于常用的功能,用户能否不必阅读手册就能使用?
√
√
√
执行有风险的操作时,有“确认”、“放弃”等提示吗?
√
√
√
操作顺序合理吗?
√
√
√
按钮排列合理吗?
√
√
√
导航帮助明确吗?
√
√
√
提示信息规范吗?
√
√
√
2.2.4安全性测试
检查项
是否测试(是√否×)
系统有超时限制吗?
(如标题、提示等)
√
相关的重要信息写进了日志吗?
能有效跟踪他们吗?
×
传输信息加密了吗?
传过来的信息完整吗?
×
3测试结果分析
3.1功能测试
编号
功能点
子功能
是否测试(是√否×)
是否通过
(通过或是不通过)
备注
3.2性能测试
测试目标:
按照用户需求,使用新疆系统的用户实际在50用户左右,为了对系统进行更有效的压力测试,模拟了100个用户并发,相应时间小于10s.
测试环境:
局域网,与服务器的连接速度为100M,客户机的连接速度为10/100M.
测试内容:
典型操作中的用户登录和信息上报
设计思想:
用户并发登陆,反复操作,以检查系统长期稳定性。
测试工具:
Loadrunner9.0
网络协议:
http/https协议
场景详细:
3.3用户界面测试
检查项
WindowsXPSP3-CN-32
IE6.0
是否通过(通过或不通过)
窗口切换、移动、改变大小时正常吗?
各种界面元素的文字正确吗?
(如标题、提示等)
各种界面元素的状态正确吗?
(如有效、无效、选中等状态)
各种界面元素支持键盘操作吗?
各种界面元素支持鼠标操作吗?
对话框中的缺省焦点正确吗?
数据项能正确回显吗?
对于常用的功能,用户能否不必阅读手册就能使用?
执行有风险的操作时,有“确认”、“放弃”等提示吗?
操作顺序合理吗?
按钮排列合理吗?
导航帮助明确吗?
提示信息规范吗?
3.4安全性测试
检查项
是否测试(是√否×)
是否通过(通过或是不通过)
系统有超时限制吗?
(如标题、提示等)
相关的重要信息写进了日志吗?
能有效跟踪他们吗?
传输信息加密了吗?
传过来的信息完整吗?
3.5能力
陈述经测试证实了的本软件的能力包括功能、性能,与项目需求分析文档的符合性如何。
如果所进行的测试是为了验证一项或几项特定性能要求的实现,应提供这方面的测试结果与要求之间的比较,并确定测试环境与实际运行环境之间可能存在的差异对能力的测试所带来的影响。
3.6缺陷和限制
陈述经测试证实的软件缺陷和限制,说明每项缺陷和限制对软件性能的影响,并说明全部测得的性能缺陷的累积影响和总影响,可能的话,对每项缺陷提出改进建议。
3.7测试情况统计分析
3.7.1测试用例质量
测试用例需求覆盖率=被验证到的需求数量/总的需求数量(需求)
测试用例的编写效率的公式是:
测试用例个数/编写测试用例的有效时间
测试用例设计质量=∑有效缺陷数(系统测试)(个)/∑设计测试用例数(个)
3.7.2测试质量
测试覆盖率=至少被执行一次的测试用例数/应执行的测试用例总数
1级bug率的公式为:
1级bug数/发现bug总数
2级bug率的公式为:
2级bug数/发现bug总数
3级bug率的公式为:
3级bug数/发现bug总数
3.7.3代码质量
百行代码bug率=(bug数/代码行数)*100%,其中bug数=1级BUG*5+2级BUG*2+3级BUG
具体研发人员的百行代码bug率=(bug数/代码行数)*100%,其中bug数=1级BUG*5+2级BUG*2+3级BUG
4测试资源消耗
总结测试工作的资源消耗数据,如工作人员的水平级别数量、机时消耗等。
5发布建议
针对项目目前的测试状况进行分析,说明该项软件的开发是否已达到预定目标,能否交付使用,给出是否发布该版本的建议
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 软件 测试 结果 分析 报告