はじめに 1 |
ソフトウェアの品質に影響を与える36の要因 5 |
1. 高いソフトウェア品質レベルの達成 15 |
2. 能動的,受動的,名目的ソフトウェア品質組織 34 |
3. 報告された欠陥のエージング 39 |
4. 誤修正 42 |
5. 誤ったテストケース 44 |
6. Baldrige賞 48 |
7. ソフトウェア品質計測の障壁 50 |
8. ベストインクラスの品質結果 53 |
9. ソフトウェア品質改善のケーススタディ 55 |
10. ソフトウェア欠陥の種類 69 |
11. ソフトウェア品質要員の認証 84 |
12. クリーンルーム開発 85 |
13. クライアント/サーバの品質 91 |
14. ソフトウェア品質要員の報酬レベル 95 |
15. 複雑度分析および測定 97 |
16. 構成管理 105 |
17. コスト見積とソフトウェア品質 108 |
18. 品質コスト 116 |
19. 欠陥あたりのコスト 119 |
20. 徐々に増大するユーザ要求とソフトウェア品質 124 |
21. ソフトウェア品質の米国平均の現状 127 |
22. データ品質とデータ尺度 131 |
23. 顧客およびユーザによる欠陥発見率 133 |
24. 欠陥予防手法 134 |
25. 欠陥予防および欠陥除去における産業間差異 137 |
26. 欠陥除去率 140 |
27. 欠陥修復率 147 |
28. 欠陥の埋込み 150 |
29. 欠陥重度レベル 152 |
30. 欠陥追跡 153 |
31. デミング賞 156 |
32. ソフトウェア品質要員の人口調査 157 |
33. DoD品質標準 159 |
34. ダウンサイジングとソフトウェア品質 159 |
35. ソフトウェア品質の経済的および競合的価値 159 |
36. 欠陥多発モジュール 162 |
37. ヨーロッパのソフトウェア品質イニシアティブ 164 |
38. 正規の設計およびコードインスペクション 175 |
39. ファンクションポイント尺度とソフトウェア品質 180 |
40. ファンクションポイントによるソフトウェア品質見積の概算 194 |
41. ソフトウェア品質データの欠落 197 |
42. 世界的な品質レベル 198 |
43. 「十分に良い」品質の誤謬 201 |
44. 大規模なベータテスト 206 |
45. IEEE品質標準 207 |
46. ISO9001-9004の認証 209 |
47. 日本のソフトウェア品質アプローチ 214 |
48. ジョイントアプリケーション設計(JAD) 222 |
49. キビアートグラフ 225 |
50. Microsoftの品質手法 226 |
51. 複数リリースの品質測定 232 |
52. オブジェクト指向の品質レベル 235 |
53. 直交欠陥報告(ODR) 245 |
54. アウトソーシングと受託ソフトウェアの品質レベル 246 |
55. プロジェクト管理とソフトウェア品質 255 |
56. プロトタイピングとソフトウェア品質 260 |
57. 品質保証部門 267 |
58. 品質保証ツール量 271 |
59. 品質定義 278 |
60. 品質見積ツール 283 |
61. 訴訟および保証にかかわる品質要因 285 |
62. 品質機能展開(QFD) 287 |
63. 品質後進企業 289 |
64. 品質計測 291 |
65. ラピッドアプリケーション開発(RAD)とソフトウェア品質 296 |
66. 信頼性とソフトウェア品質 300 |
67. 再利用性とソフトウェア品質 302 |
68. リスク分析計画とソフトウェア品質 320 |
69. スケジュールプレッシャとソフトウェア品質 322 |
70. SEIの成熟度モデルとソフトウェア品質 326 |
71. 6シグマ品質レベル 341 |
72. テスト 342 |
73. 総合的品質管理(TQM) 367 |
74. 利用性研究室 368 |
75. 顧客満足度 369 |
76. 2000年問題 372 |
要約および結論 373 |
文献 375 |
索引 381 |
訳者紹介 387 |
はじめに 1 |
ソフトウェアの品質に影響を与える36の要因 5 |
1. 高いソフトウェア品質レベルの達成 15 |
2. 能動的,受動的,名目的ソフトウェア品質組織 34 |
3. 報告された欠陥のエージング 39 |
4. 誤修正 42 |