Müller / Hörmann / Dittmann | Automotive SPICE® in der Praxis | E-Book | sack.de
E-Book

E-Book, Deutsch, 418 Seiten

Müller / Hörmann / Dittmann Automotive SPICE® in der Praxis

Interpretationshilfe für Anwender und Assessoren
aktualisierte und erweiterte Auflage
ISBN: 978-3-86491-998-5
Verlag: dpunkt
Format: PDF
Kopierschutz: 1 - PDF Watermark

Interpretationshilfe für Anwender und Assessoren

E-Book, Deutsch, 418 Seiten

ISBN: 978-3-86491-998-5
Verlag: dpunkt
Format: PDF
Kopierschutz: 1 - PDF Watermark



Automotive SPICE ist ein ISO/IEC 15504-kompatibles, speziell auf die Automobilbranche zugeschnittenes Assessmentmodell. Die Herausforderung bei der Einführung und Umsetzung von Automotive SPICE besteht darin, das Modell auf eine konkrete Projekt- und Unternehmenssituation anzuwenden und in diesem Kontext richtig zu interpretieren. Dieses Buch gibt die dafür notwendigen Interpretations- und Bewertungshilfen und unterstützt dabei, Prozessverbesserung Automotive SPICE-konform zu betreiben. Nach einem Überblick werden Struktur und Bestandteile des Automotive SPICE-Modells in kompakter Form dargestellt, u.a. die seit Version 3.0 wesentlichen Schlüsselkonzepte wie die Trennung in Systemebene und Domänen (Software, Hardware, Mechanik) sowie die Traceability und Applikationsparameter. An einer praxisgerechten Auswahl von 24 Automotive SPICE-Prozessen werden jeweils Zweck, Basispraktiken und Arbeitsprodukte eines Prozesses im Detail erläutert. Der Buchaufbau entspricht der Struktur des Modells, sodass die Interpretationshilfen leicht?dem jeweiligen Abschnitt des Modells zugeordnet werden können. Das Buch richtet sich in erster Linie an Praktiker, die bereits über ISO/IEC 15504-Grundlagenwissen verfügen und Hilfestellung für die Umsetzung von Automotive SPICE in der Praxis suchen. Die 2. Auflage wurde auf Automotive SPICE v3.0 aktualisiert und ergänzt um aktuelle Themen wie praxistaugliche Assessments gemäß intacs?-?Anforderungen, agile Entwicklung und funktionale Sicherheit nach ISO 26262.

Dipl.-Ing. Markus Müller ist Director Operations und Partner bei KUGLER MAAG CIE GmbH und verantwortlich für den operativen Betrieb. Er berät seit vielen Jahren namhafte Unternehmen sehr erfolgreich in Prozessverbesserung und agiler Entwicklung, überwiegend in der Automobilindustrie. Markus Müller ist auch 'Project Management Professional' entsprechend der Zertifizierung PMI sowie Scrum Master und SAFe Program Consultant (Scaled Agile Framework). Außerdem ist er intacsTM ISO/IEC 15504 Principal Assessor, bildet seit vielen Jahren Assessoren aus und leitet seit fast 20 Jahren Assessments. Neben vielen Assessments hat er das bis dato größte bekannte Organisationsassessment nach Automotive SPICE durchgeführt. Zudem ist er Co-Autor mehrerer Bücher und Vortragender auf Konferenzen und Veranstaltungen. Dr. Klaus Hörmann ist Principal und Partner bei KUGLER MAAG CIE GmbH und seit vielen Jahren schwerpunktmäßig in der Automobilindustrie tätig. Er leitet Verbesserungsprojekte und führt Assessments, Appraisals, CMMI-, Automotive SPICE- und Projektmanagement-Trainings sowie Assessoren-Trainings und -Coaching durch. Dr. Klaus Hörmann ist intacsTM-zertifizierter Principal Assessor, intacsTM-zertifizierter Instructor (Competent Level), Scrum Master, CMMI Institutezertifizierter SCAMPI Lead Appraiser und CMMI Instructor. Er ist ehrenamtlich bei intacs tätig und leitet die Arbeitsgruppe 'Exams' und ist (Co-)Autor mehrerer Fachbücher. Dipl.-Ing. Lars Dittmann ist bei der Volkswagen AG Marke VW PKW für den Betrieb und fachlichen Support der mobilen Aftersales Onlinedienste verantwortlich. Er baute u.a. das Software-Assessmentsystem des Konzerns auf und leitete die Software-Qualitätssicherung des Konzerns. Mit seiner jahrelangen Erfahrung als intacsTM ISO/IEC 15504 Principal Assessor beteiligt er sich aktiv an der Erweiterung der SPICE-Methodik auf neue Domains. Dipl.-Inform. Jörg Zimmer ist seit vielen Jahren bei der Daimler AG tätig. Dort leitete er übergreifende Software-Qualitätsprojekte und interne Prozessverbesserungsprojekte. Er war Mitglied des VDAArbeitskreises 13 sowie Sprecher der HIS-Arbeitsgruppe Prozessassessment. Er ist Mitbegründer des Software-Qualitätsmanagementsystems des Konzerns und im Rahmen der aktiven Mitgliedschaft der AUTOSIG-Gruppe mitverantwortlich für die initiale Erstellung von Automotive SPICE. Aktuell ist er in der Powertrain-Entwicklung für den Inhouse-Softwareentwicklungsprozess verantwortlich. Er ist intacsTM ISO/IEC 15504 Principal Assessor.
Müller / Hörmann / Dittmann Automotive SPICE® in der Praxis jetzt bestellen!

Weitere Infos & Material


1;Geleitwort;5
2;Vorwort;7
3;Vorwort zur 1. Auflage;9
3.1;Zum Aufbau des Buches:;9
4;Inhaltsübersicht;11
5;Inhaltsverzeichnis;13
6;1 Einführung und Überblick;21
6.1;1.1 Einführung in die Thematik;21
6.2;1.2 Überblick über die in der Automobilentwicklung relevanten Modelle;22
6.3;1.3 intacsTM (International Assessor Certification Scheme);23
6.3.1;Abb. 1–1 Die intacs-Assessoren- und -Instruktorenstufen;24
6.3.2;Abb. 1–2 Organisatorische Trennung der Definition des Ausbildungssystems von der Zertifizierung (inkl. Prüfung) der Assessoren und der Durchführung der Trainings;25
6.4;1.4 Automotive SPICE: Struktur und Bestandteile;26
6.4.1;Abb. 1–3 Die zwei Dimensionen von Automotive SPICE (in Anlehnung an Figure 1 und Figure 3 in [Automotive SPICE]);27
6.4.2;1.4.1 Die Prozessdimension;28
6.4.2.1;Abb. 1–4 Aufbau eines Prozesses in Automotive SPICE;28
6.4.3;1.4.2 Die Reifegraddimension;29
6.4.3.1;Abb. 1–5 Die sechs Levels;29
6.4.3.2;Abb. 1–6 Die Prozessattribute;30
6.5;1.5 Umsetzungsaspekte: Tipps für eine nachhaltige Prozessverbesserung;31
6.5.1;Ausreichend Zeit einplanen – Erfolgsfaktor Zeit;31
6.5.2;Interne Schlüsselkollegen ausreichend einbinden – Erfolgsfaktor Erfahrung;32
6.5.3;Beschluss zur Prozessverbesserung – Erfolgsfaktor Management;32
6.5.4;Umfang und Reihenfolge der Prozessverbesserung – Erfolgsfaktor Umfang;33
6.5.4.1;Abb. 1–7 Zusammenhang von Zeit und Qualität/Performance bei Prozessverbesserungen;33
6.5.5;Transferarbeit zu den Mitarbeitern – Erfolgsfaktor Tooling & Kommunikation;34
6.5.6;Feedbackmechanismus – Erfolgsfaktor Feedback;34
6.5.7;Nachweis des Erfolgs – Erfolgsfaktor Messgrößen;35
6.5.8;Aufsetzen der Prozessverbesserung – Erfolgsfaktor Change Management;35
7;2 Interpretationen zur Prozessdimension;37
7.1;Abb. 2–1 Automotive SPICE-Prozesse und -Prozessgruppen;38
7.2;Das V-Modell als zentrales Leitbild der technischen Prozesse;39
7.2.1;Abb. 2–2 Das V-Modell als zentrales Leitbild (in Anlehnung an Figure D.2 in [Automotive SPICE]);40
7.3;Im V-Modell verwendete Begriffe »Element«, »Komponente«, »Modul« und »Bestandteil«;40
7.3.1;Abb. 2–3 Verwendete Begriffe im V-Modell (in Anlehnung an Figure D.3 in [Automotive SPICE]);41
7.4;2.1 ACQ.4 Lieferantenmanagement;41
7.4.1;2.1.1 Zweck;41
7.4.2;2.1.2 Basispraktiken;43
7.4.2.1;Abb. 2–4 Beispielstruktur einer Offene-Punkte-Liste (OPL);45
7.4.2.2;Erfahrungsbericht;46
7.4.2.3;Erfahrungsbericht;47
7.4.3;2.1.3 Ausgewählte Arbeitsprodukte;48
7.4.3.1;02-01 Vereinbarung;48
7.4.3.2;13-01 Abnahmeprotokoll;48
7.4.3.3;13-09 Besprechungsprotokoll;48
7.4.3.4;13-14 Fortschrittsstatusbericht;48
7.4.3.5;13-16 Änderungsantrag;49
7.4.3.6;13-19 Reviewaufzeichnungen;49
7.4.4;2.1.4 Besonderheiten Level 2;49
7.4.4.1;Zum Management der Prozessausführung;49
7.4.4.2;Zum Management der Arbeitsprodukte;49
7.5;2.2 SPL.2 Releasemanagement;49
7.5.1;2.2.1 Zweck;49
7.5.1.1;Exkurs: Musterphasen in der Automobilindustrie;50
7.5.2;2.2.2 Basispraktiken;51
7.5.3;2.2.3 Ausgewählte Arbeitsprodukte;56
7.5.3.1;08-16 Releaseplan;56
7.5.3.2;WP 11-03 Produktrelease-Information;56
7.5.4;2.2.4 Besonderheiten Level 2;57
7.5.4.1;Zum Management der Prozessausführung;57
7.5.4.2;Zum Management der Arbeitsprodukte;57
7.6;2.3 SYS.1 Anforderungserhebung;57
7.6.1;2.3.1 Zweck;57
7.6.2;2.3.2 Basispraktiken;59
7.6.3;2.3.3 Ausgewählte Arbeitsprodukte;64
7.6.3.1;13-21 Änderungsaufzeichnung;64
7.6.3.2;17-03 Stakeholder-Anforderungen;64
7.6.3.2.1;Abb. 2–5 Beispiel der Struktur eines Anforderungsdokuments in Anlehnung an [ISO/IEC/IEEE 29148];65
7.6.4;2.3.4 Besonderheiten Level 2;65
7.6.4.1;Zum Management der Prozessausführung;65
7.6.4.2;Zum Management der Arbeitsprodukte;66
7.7;2.4 SYS.2 Systemanforderungsanalyse;66
7.7.1;2.4.1 Zweck;66
7.7.1.1;Exkurs: »System«;67
7.7.1.1.1;Abb. 2–6 Was ist das System?;68
7.7.1.1.2;Abb. 2–7 Verfeinerung von Anforderungen über die verschiedenen Ebenen;68
7.7.2;2.4.2 Basispraktiken;69
7.7.2.1;Abb. 2–8 Schematische Struktur der Anforderungsspezifikation;69
7.7.3;2.4.3 Ausgewählte Arbeitsprodukte;75
7.7.3.1;13-22 Traceability-Aufzeichnung;75
7.7.3.2;17-08 Schnittstellenanforderungen;76
7.7.3.3;17-12 Systemanforderungsspezifikation;76
7.7.4;2.4.4 Besonderheiten Level 2;77
7.7.4.1;Zum Management der Prozessausführung;77
7.7.4.2;Zum Management der Arbeitsprodukte;77
7.8;2.5 SYS.3 Systemarchitekturdesign;77
7.8.1;2.5.1 Zweck;77
7.8.1.1;Abb. 2–9 Beispiel einer statischen Systemarchitektur für ein Radio-Navigationssystem (oberste Ebene);78
7.8.1.2;Abb. 2–10 Beispiel einer tieferen Beschreibungsebene einer statischen Systemarchitektur;78
7.8.2;2.5.2 Basispraktiken;79
7.8.2.1;Abb. 2–11 Beispiel Entscheidungsmatrix;82
7.8.3;2.5.3 Ausgewählte Arbeitsprodukte;84
7.8.3.1;04-06 Systemarchitektur;84
7.8.3.2;13-22 Traceability-Aufzeichnung;84
7.8.3.3;17-08 Schnittstellenanforderungen;84
7.8.4;2.5.4 Besonderheiten Level 2;85
7.8.4.1;Zum Management der Prozessausführung;85
7.8.4.2;Zum Management der Arbeitsprodukte;85
7.9;2.6 SYS.4 Systemintegration und Systemintegrationstest;85
7.9.1;2.6.1 Zweck;85
7.9.2;2.6.2 Basispraktiken;86
7.9.2.1;Abb. 2–12 Schema einer mehrstufigen Systemintegration;87
7.9.3;2.6.3 Ausgewählte Arbeitsprodukte;92
7.9.3.1;08-50 Testspezifikation;92
7.9.3.2;08-52 Testplan;92
7.9.3.3;11-06 System;92
7.9.3.4;13-22 Traceability-Aufzeichnung;92
7.9.3.5;13-50 Testergebnis;92
7.9.4;2.6.4 Besonderheiten Level 2;92
7.9.4.1;Zum Management der Prozessausführung;92
7.9.4.2;Zum Management der Arbeitsprodukte;92
7.10;2.7 SYS.5 Systemtest;93
7.10.1;2.7.1 Zweck;93
7.10.2;2.7.2 Basispraktiken;93
7.10.3;2.7.3 Ausgewählte Arbeitsprodukte;95
7.10.3.1;08-50 Testspezifikation;95
7.10.3.2;08-52 Testplan;95
7.10.3.3;13-50 Testergebnis;96
7.10.4;2.7.4 Besonderheiten Level 2;96
7.11;2.8 SWE.1 Softwareanforderungsanalyse;96
7.11.1;2.8.1 Zweck;96
7.11.2;2.8.2 Basispraktiken;97
7.11.2.1;Exkurs: Beispielmethode Hazard and Operability Study (HAZOP);100
7.11.2.1.1;Abb. 2–13 Beispiel einer HAZOP-Tabelle;100
7.11.3;2.8.3 Ausgewählte Arbeitsprodukte;102
7.11.3.1;13-22 Traceability-Aufzeichnung;102
7.11.3.2;17-08 Schnittstellenanforderungen;102
7.11.3.3;17-11 Softwareanforderungsspezifikation;102
7.11.4;2.8.4 Besonderheiten Level 2;102
7.12;2.9 SWE.2 Softwarearchitekturdesign;103
7.12.1;2.9.1 Zweck;103
7.12.2;2.9.2 Basispraktiken;104
7.12.2.1;Abb. 2–14 Beispiel einer Softwarearchitektur auf oberster Beschreibungsebene (Quelle: intacs);105
7.12.3;2.9.3 Ausgewählte Arbeitsprodukte;110
7.12.3.1;04-04 Softwarearchitektur;110
7.12.3.2;13-22 Traceability-Aufzeichnung;110
7.12.3.3;17-08 Schnittstellenanforderungen;110
7.12.4;2.9.4 Besonderheiten Level 2;110
7.12.4.1;Zum Management der Prozessausführung;110
7.12.4.2;Zum Management der Arbeitsprodukte;110
7.13;2.10 SWE.3 Softwarefeinentwurf und Softwaremodulerstellung;111
7.13.1;2.10.1 Zweck;111
7.13.2;2.10.2 Basispraktiken;113
7.13.3;2.10.3 Ausgewählte Arbeitsprodukte;118
7.13.3.1;04-05 Softwarefeinentwurf;118
7.13.3.2;11-05 Softwaremodul;119
7.13.3.3;13-22 Traceability-Aufzeichnung;119
7.13.4;2.10.4 Besonderheiten Level 2;119
7.13.4.1;Zum Management der Prozessausführung;119
7.13.4.2;Zum Management der Arbeitsprodukte;119
7.14;2.11 SWE.4 Softwaremodulverifikation;120
7.14.1;2.11.1 Zweck;120
7.14.1.1;Exkurs: Einheitliche Verifikations- und Teststrategie – Korrespondenz der realen Prozesse zu Automotive SPICE-Prozessen;120
7.14.2;2.11.2 Basispraktiken;122
7.14.3;2.11.3 Ausgewählte Arbeitsprodukte;127
7.14.3.1;08-50 Testspezifikation;127
7.14.3.2;08-52 Testplan;128
7.14.3.3;13-50 Testergebnis;128
7.14.3.4;13-22 Traceability-Aufzeichnung;128
7.14.3.5;13-25 Verifikationsergebnisse;128
7.14.4;2.11.4 Besonderheiten Level 2;128
7.14.4.1;Zum Management der Prozessausführung;128
7.14.4.2;Zum Management der Arbeitsprodukte;129
7.14.4.2.1;Exkurs: Testdokumentation nach ISO/IEC/IEEE 29119-3;129
7.15;2.12 SWE.5 Softwareintegration und Softwareintegrationstest;131
7.15.1;2.12.1 Zweck;131
7.15.2;2.12.2 Basispraktiken;132
7.15.2.1;Abb. 2–15 Integrationsreihenfolge bei einer Bottom-up-Strategie;133
7.15.2.2;Fallbeispiel: Softwareintegration eines Projekts bei der XY AG;139
7.15.3;2.12.3 Ausgewählte Arbeitsprodukte;140
7.15.3.1;01-03 Softwarebestandteil;140
7.15.3.2;01-50 Integrierte Software;140
7.15.3.3;08-50 Testspezifikation;140
7.15.3.4;08-52 Testplan;140
7.15.3.5;13-22 Traceability-Aufzeichnung;140
7.15.3.6;13-50 Testergebnis;140
7.15.3.7;17-02 Build-Liste;140
7.15.4;2.12.4 Besonderheiten Level 2;140
7.15.4.1;Zum Management der Prozessausführung;140
7.15.4.2;Zum Management der Arbeitsprodukte;141
7.16;2.13 SWE.6 Softwaretest;141
7.16.1;2.13.1 Zweck;141
7.16.2;2.13.2 Basispraktiken;142
7.16.2.1;Exkurs: Kurzer Überblick über Testmethoden;144
7.16.2.1.1;Abb. 2–16 Testmethoden und Integrationsstufen;145
7.16.2.2;Exkurs: Einige Methoden zur Ableitung von Testfällen;145
7.16.3;2.13.3 Ausgewählte Arbeitsprodukte;146
7.16.3.1;08-50 Testspezifikation;146
7.16.3.2;08-52 Testplan;146
7.16.3.3;13-50 Testergebnis;146
7.16.4;2.13.4 Besonderheiten Level 2;146
7.16.4.1;Zum Management der Prozessausführung;146
7.16.4.2;Zum Management der Arbeitsprodukte;147
7.17;2.14 SUP.1 Qualitätssicherung;147
7.17.1;2.14.1 Zweck;147
7.17.1.1;Generische Praktiken GP 2.2.1 und 2.2.4;147
7.17.1.2;SUP.1 Qualitätssicherung;147
7.17.1.3;SUP.2 Verifikation;147
7.17.1.4;Verifikationsaktivitäten in den Engineering-Prozessen;148
7.17.1.5;SUP.4 Gemeinsame Reviews;148
7.17.2;2.14.2 Basispraktiken;149
7.17.2.1;Abb. 2–17 Beispiel eines QS-Berichts an das Management: Abarbeitungsstatus von QS-Befunden und Prozesskonformitätsrate (PKR);154
7.17.3;2.14.3 Ausgewählte Arbeitsprodukte;156
7.17.3.1;08-13 Qualitätssicherungsplan;156
7.17.3.2;13-07 Problemaufzeichnung;156
7.17.3.3;13-18 Qualitätsaufzeichnung;157
7.17.3.3.1;Abb. 2–18 Beispiel einer Qualitätsaufzeichnung (Titelseite);157
7.17.3.3.2;Abb. 2–19 Schema einer Qualitätsaufzeichnung (Maßnahmenseite);157
7.17.3.4;14-02 Liste der Korrekturaktionen;157
7.17.4;2.14.4 Besonderheiten Level 2;158
7.17.4.1;Zum Management der Prozessausführung;158
7.17.4.2;»Qualitätssicherung der Qualitätssicherung«;158
7.18;2.15 SUP.2 Verifikation;159
7.18.1;2.15.1 Zweck;159
7.18.1.1;Abb. 2–20 Überblick Qualitätssicherungmethoden;159
7.18.2;2.15.2 Basispraktiken;160
7.18.3;2.15.3 Ausgewählte Arbeitsprodukte;165
7.18.3.1;13-07 Problemaufzeichnung;165
7.18.3.2;13-25 Verifikationsergebnis;165
7.18.3.3;14-02 Liste der Korrekturaktionen;165
7.18.3.4;19-10 Verifikationsstrategie;165
7.18.4;2.15.4 Besonderheiten Level 2;165
7.18.4.1;Zum Management der Prozessausführung;165
7.18.4.2;Zum Management der Arbeitsprodukte;166
7.19;2.16 SUP.4 Gemeinsame Reviews;166
7.19.1;2.16.1 Zweck;166
7.19.2;2.16.2 Basispraktiken;168
7.19.2.1;Abb. 2–21 Beispiel eines Reviewprozesses;170
7.19.3;2.16.3 Ausgewählte Arbeitsprodukte;172
7.19.3.1;13-19 Reviewaufzeichnungen;172
7.19.3.1.1;Abb. 2–22 Beispielstruktur eines Review Log;173
7.19.4;2.16.4 Besonderheiten Level 2;173
7.19.4.1;Zum Management der Prozessausführung;173
7.19.4.2;Zum Management der Arbeitsprodukte;173
7.20;2.17 SUP.8 Konfigurationsmanagement;174
7.20.1;2.17.1 Zweck;174
7.20.2;2.17.2 Basispraktiken;175
7.20.2.1;Abb. 2–23 Auszug aus einer realen Liste von KM-Elementen;177
7.20.2.2;Abb. 2–24 Verschiedene Ebenen von Baselines;181
7.20.3;2.17.3 Ausgewählte Arbeitsprodukte;183
7.20.3.1;01-00 Konfigurationselement;183
7.20.3.2;08-04 Konfigurationsmanagementplan;184
7.20.3.3;13–08 Baseline;184
7.20.3.3.1;Abb. 2–25 Beispielgliederung eines KM-Plans;185
7.20.3.4;16-03 Konfigurationsmanagementbibliothek (auch: Konfigurationsmanagement- Repository);185
7.20.4;2.17.4 Besonderheiten Level 2;186
7.20.4.1;Zum Management der Prozessausführung;186
7.20.4.2;Zum Management der Arbeitsprodukte;186
7.21;2.18 SUP.9 Problemmanagement;186
7.21.1;2.18.1 Zweck;186
7.21.1.1;Abb. 2–26 Beispiel für Problemstatus;188
7.21.2;2.18.2 Basispraktiken;188
7.21.2.1;Abb. 2–27 Beispiel einer Problem- oder Änderungsmeldung;191
7.21.2.2;Abb. 2–28 Beispiel eines Problemklassifizierungsschemas;192
7.21.2.3;Abb. 2–29 Beispiel für Problem- und Abarbeitungsverfolgung über die Zeit;195
7.21.3;2.18.3 Ausgewählte Arbeitsprodukte;196
7.21.3.1;08-27 Problemmanagementplan;196
7.21.3.2;13-07 Problemaufzeichnung;196
7.21.3.3;15-01 Analysebericht bzw. 15-05 Bewertungsbericht;197
7.21.3.4;15-12 Problemstatusbericht;197
7.21.4;2.18.4 Besonderheiten Level 2;197
7.21.4.1;Zum Management der Prozessausführung;197
7.21.4.2;Zum Management der Arbeitsprodukte;198
7.22;2.19 SUP.10 Änderungsmanagement;199
7.22.1;2.19.1 Zweck;199
7.22.2;2.19.2 Basispraktiken;200
7.22.2.1;Abb. 2–30 Beispiel für den Status von Änderungsanträgen;201
7.22.3;2.19.3 Ausgewählte Arbeitsprodukte;204
7.22.3.1;08-28 Änderungsmanagementplan;204
7.22.3.2;13-16 Änderungsantrag;204
7.22.3.3;13-21 Änderungsaufzeichnung;204
7.22.4;2.19.4 Besonderheiten Level 2;205
7.23;2.20 MAN.3 Projektmanagement;205
7.23.1;2.20.1 Zweck;205
7.23.2;2.20.2 Basispraktiken;206
7.23.2.1;Abb. 2–31 Beispiel: Auszug aus der Funktionsliste eines Spurhalteassistenzsystems;208
7.23.2.2;Exkurs: Verteilte Funktionsentwicklung und Integrationsstufen;209
7.23.2.2.1;Abb. 2–32 Beispiel für einen Projektlebenszyklus eines Steuergeräteentwicklungsprojekts;210
7.23.2.3;BP 5: Ermittle, überwache und passe die Projektschätzungen und Ressourcen an. Definiere und pflege die Aufwands- und Ressourcenschätzungen basierend auf den Projektzielen, Projektrisiken, Motivation und Grenzen und passe diese an.;213
7.23.2.3.1;Abb. 2–33 Beispiel für technische Ressourcenplanung;214
7.23.2.3.2;Abb. 2–34 Prinzip der rollierenden Planung;217
7.23.2.3.3;Abb. 2–35 Arten von Projektbesprechungen und Fortschrittreviews;220
7.23.3;2.20.3 Ausgewählte Arbeitsprodukte;221
7.23.3.1;08-12 Projektplan;221
7.23.3.2;Beispielgliederung eines Projektplans für ein großes Projekt;222
7.23.3.2.1;13-16 Änderungsantrag;223
7.23.3.2.2;14-06 Terminplan;223
7.23.3.2.3;14-09 Projektstrukturplan;223
7.23.3.2.4;15-06 Projektfortschrittsbericht;224
7.23.3.2.4.1;Abb. 2–36 Beispiel eines aggregierten Projektfortschrittsberichts für höhere Managementebenen;224
7.23.4;2.20.4 Besonderheiten Level 2;225
7.23.4.1;Zum Management der Prozessausführung;225
7.23.4.2;Zum Management der Arbeitsprodukte;225
7.24;2.21 MAN.5 Risikomanagement;225
7.24.1;2.21.1 Zweck;225
7.24.2;2.21.2 Basispraktiken;227
7.24.2.1;Abb. 2–37 Überblick Risikomanagementaktivitäten;230
7.24.2.2;Abb. 2–38 Beispiel einer Risikoportfoliodarstellung;231
7.24.2.3;Abb. 2–39 Beispiel von Schadensklassen für terminliche Auswirkungen;231
7.24.3;2.21.3 Ausgewählte Arbeitsprodukte;234
7.24.3.1;Risikoliste;234
7.24.3.2;Beispielhafter Aufbau einer Risikoliste;234
7.24.4;2.21.4 Besonderheiten Level 2;235
7.24.4.1;Zum Management der Prozessausführung;235
7.24.4.2;Zum Management der Arbeitsprodukte;235
7.25;2.22 MAN.6 Messen;235
7.25.1;2.22.1 Zweck;235
7.25.1.1;»You can’t control, what you can’t measure!« (Tom DeMarco);235
7.25.1.1.1;Exkurs: Goal/Question/Metric-(GQM-)Methode;236
7.25.1.1.1.1;Abb. 2–40 GQM-Methode;237
7.25.2;2.22.2 Basispraktiken;238
7.25.2.1;Abb. 2–41 Beispiel einer grafischen Auswertung zur Metrik »Funktionalitätszuwachs«;242
7.25.2.2;Abb. 2–42 Beispiel eines Projekt-Cockpit-Charts (Quelle: [Hörmann et al. 2006]);243
7.25.3;2.22.3 Ausgewählte Arbeitsprodukte;245
7.25.3.1;03-03 Benchmarking-Daten;245
7.25.3.2;03-04 Kundenzufriedenheitsdaten;246
7.25.3.3;Beispiel einer Metrikspezifikation;246
7.25.3.3.1;Abb. 2–43 Spezifikation der Metrik »Funktionalitätszuwachs«;247
7.25.3.4;07-01 Kundenzufriedenheitsbefragung;248
7.25.3.5;07-02 Feldbeobachtung;248
7.25.3.6;07-08 Service-Level-Messung;248
7.25.4;2.22.4 Besonderheiten Level 2;248
7.25.4.1;Zum Management der Prozessausführung;248
7.25.4.2;Zum Management der Arbeitsprodukte;248
7.26;2.23 PIM.3 Prozessverbesserung;249
7.26.1;2.23.1 Zweck;249
7.26.2;2.23.2 Basispraktiken;250
7.26.2.1;Abb. 2–44 Anwendung der Scrum-Methode auf das Change Management in der Organisation (Quelle: Kugler Maag Cie);255
7.26.2.2;Abb. 2–45 Prozessarchitektur und Tailoring in größeren, verteilten Organisationen;256
7.26.3;2.23.3 Ausgewählte Arbeitsprodukte;257
7.26.3.1;08-29 Verbesserungsplan;257
7.26.3.2;15-16 Verbesserungsmöglichkeit;257
7.26.4;2.23.4 Besonderheiten Level 2;257
7.26.4.1;Zum Management der Prozessausführung;257
7.26.4.2;Zum Management der Arbeitsprodukte;257
7.27;2.24 REU.2 Wiederverwendungsmanagement;258
7.27.1;2.24.1 Zweck;258
7.27.2;2.24.2 Basispraktiken;259
7.27.3;2.24.3 Ausgewählte Arbeitsprodukte;263
7.27.3.1;08-17 Wiederverwendungsplan;263
7.27.3.2;15-07 Bericht zur Bewertung der Wiederverwendung;264
7.27.4;2.24.4 Besonderheiten Level 2;264
7.27.4.1;Zum Management der Prozessausführung;264
7.27.4.2;Zum Management der Arbeitsprodukte;264
7.28;2.25 Traceability und Konsistenz in Automotive SPICE;265
7.28.1;2.25.1 Einleitung;265
7.28.2;2.25.2 Grundgedanken;265
7.28.2.1;Abb. 2–46 Horizontale und vertikale Traceability;266
7.29;2.26 Applikationsparameter in Automotive SPICE;271
7.29.1;Abb. 2–47 ISO-26262-Sicht auf Parameter (Quelle: ISO 26262-6, Annex C);271
7.29.2;2.26.1 Ausgewählte Arbeitsprodukte;274
7.29.2.1;WP 01-51 Applikationsparameter;274
8;3 Interpretationen zur Reifegraddimension;275
8.1;3.1 Struktur der Reifegraddimension;275
8.1.1;3.1.1 Levels und Prozessattribute;275
8.1.2;3.1.2 Indikatoren für die Reifegraddimension;276
8.1.2.1;Abb. 3–1 Elemente der Reifegraddimension;277
8.2;3.2 Wie werden Levels gemessen?;277
8.2.1;Abb. 3–2 Ermittlung des Levels mithilfe des »process capability level model«;279
8.3;3.3 Erweiterungen der ISO/IEC 33020;279
8.3.1;Abb. 3–3 Veranschaulichung der Bewertungsmethode R1;281
8.3.2;Abb. 3–4 Veranschaulichung der Bewertungsmethoden R2 und R3;281
8.3.3;Abb. 3–5 Vertikale Aggregation;282
8.4;3.4 Die Levels;283
8.4.1;3.4.1 Level 0 (»Unvollständiger Prozess«);283
8.4.2;3.4.2 Level 1 (»Durchgeführter Prozess«);283
8.4.2.1;Prozessausführung (PA 1.1);283
8.4.2.1.1;Abb. 3–6 Beurteilung von PA 1.1;284
8.4.2.1.2;Abb. 3–7 Bewertungsbeispiele für PA 1.1;285
8.4.3;3.4.3 Level 2 (»Gemanagter Prozess«);286
8.4.3.1;Abb. 3–8 Prozessattribute und generische Praktiken von Level 2;287
8.4.3.2;PA 2.1 Management der Prozessausführung;287
8.4.3.3;GP 2.1.1: Ermittle die Ziele für die Prozessausführung.;288
8.4.3.3.1;Abb. 3–9 Kommunikationsplan;296
8.4.3.4;PA 2.2 Management der Arbeitsprodukte;297
8.4.3.5;GP 2.2.2: Definiere Anforderungen an die Dokumentation und Lenkung von Arbeitsprodukten. Anforderungen an die Dokumentation und Lenkung von Arbeitsprodukten werden definiert. Diese können beinhalten:;299
8.4.4;3.4.4 Level 3 (»Etablierter Prozess«);302
8.4.4.1;Abb. 3–10 Prozessattribute und generische Praktiken von Level 3;303
8.4.4.2;PA 3.1 Prozessdefinition;304
8.4.4.2.1;Abb. 3–11 Prozessarchitektur nach dem EITVOX-Modell;305
8.4.4.2.2;Exkurs: Tailoring von Prozessen;306
8.4.4.2.2.1;Abb. 3–12 Tailoring-Tabelle;307
8.4.4.2.2.2;Abb. 3–13 Beispiel für Rollenbeschreibung Softwareprojektleiter;310
8.4.4.3;PA 3.2 Prozessanwendung;313
8.4.4.4;GP 3.2.1: Setze einen definierten Prozess um, der die kontextspezifischen Anforderungen bezüglich der Nutzung des Standardprozesses erfüllt. Der definierte Prozess wird adäquat ausgewählt und/oder aus dem Standardprozess zurechtgeschnitten. Die K...;314
8.4.5;3.4.5 Level 4 (»Vorhersagbarer Prozess«);318
8.4.5.1;Abb. 3–14 Level 4 – vorhersagbares Prozessverhalten;319
8.4.5.2;Abb. 3–15 Prozessattribute und generische Praktiken von Level 4;320
8.4.6;3.4.6 Level 5 (»Innovativer Prozess«);321
8.4.6.1;Abb. 3–16 Level 5 – quantitative Prozessoptimierung;321
8.4.6.2;Abb. 3–17 Prozessattribute und generische Praktiken von Level 5;323
8.5;3.5 Zusammenhang von Prozess- und Reifegraddimension;323
8.5.1;Abb. 3–18 Abhängigkeiten zwischen Prozessen und Prozessattributen;324
9;4 Automotive SPICE-Assessments;325
9.1;4.1 Assessments – Überblick und Grundlagen;325
9.2;4.2 Phasen, Aktivitäten und Dauer des Assessmentprozesses;326
9.2.1;Abb. 4–1 Überblick über Phasen und Aktivitäten des Assessmentprozesses;326
9.2.2;Assessmentvorbereitung;327
9.2.3;Assessmentdurchführung;327
9.2.4;Assessmentabschluss;328
9.2.5;Wie lange dauert ein Assessment?;329
9.3;4.3 Rollen im Assessmentprozess;329
9.4;4.4 Komplexe Assessments;330
9.4.1;Abb. 4–2 Von intacs definiertes OMM für Automotive SPICE;331
9.4.2;Abb. 4–3 Anforderungen an die Maturity Levels in Form von geforderten Capability Levels für bestimmte Prozessmengen;332
9.4.3;Wie werden die zu untersuchenden Projekte ausgewählt?;332
9.4.3.1;Abb. 4–4 Definition der Assessmentklassen;333
9.4.4;Werden OMAs anerkannt?;334
10;5 Funktionale Sicherheit und Automotive SPICE;335
10.1;5.1 Überblick funktionale Sicherheit und ISO 26262;335
10.1.1;IEC 61508;336
10.1.2;ISO 26262;336
10.1.2.1;Abb. 5–1 Sicherheitslebenszyklus der ISO 26262;336
10.1.2.2;Abb. 5–2 ISO 26262-Überblick [ISO 26262];337
10.1.3;ASIL;338
10.1.4;ISO/IEC 15504-10;338
10.2;5.2 Vergleich von ISO 26262 und Automotive SPICE;339
10.2.1;Abb. 5–3 Überlappung von Automotive SPICE und ISO 26262;339
10.3;5.3 Unterschiede zwischen ISO 26262 und Automotive SPICE;340
10.3.1;5.3.1 Unterschiede im Scope der Standards;340
10.3.2;5.3.2 Unterschiede in den Levels;341
10.3.2.1;Abb. 5–4 Unterstützung der ISO-26262-Umsetzung durch Automotive SPICE;342
10.3.3;5.3.3 Unterschiede in den Aktivitäten und Rollen;342
10.3.4;5.3.4 Unterschiede in den Arbeitsprodukten;343
10.3.5;5.3.5 Unterschiede in den Methodenanforderungen;343
10.3.5.1;Abb. 5–5 Beispiel einer Methodentabelle der ISO 26262 (Auszug aus der [ISO 26262], Teil 4, Tabelle 3);344
10.3.6;5.3.6 Unterschiede in den Unabhängigkeitsanforderungen;344
10.4;5.4 Kombination von Automotive SPICE-Assessments und funktionalen Safety-Audits;345
10.4.1;Abb. 5–6 Überlappung der Evaluierungsmethoden (Quelle [Dold et al. 2014]);346
10.4.2;5.4.1 Kombination von Automotive SPICE-Assessment und Safety-Audit;346
10.4.2.1;Abb. 5–7 Überlappung von Automotive SPICE-Assessment und Safety-Audit im Detail (Quelle [Dold et al. 2014]);347
10.4.2.2;Abb. 5–8 Kombinierte Methode Automotive SPICE-Assessment und Safety-Audit (Quelle [Dold et al. 2014]);347
10.4.3;5.4.2 Weitere zu beachtende Aspekte;348
10.4.3.1;Teamzusammensetzung;348
10.4.3.2;Modellergänzungen;348
10.4.3.2.1;Abb. 5–9 Beispiel für FS-Ergänzungen;348
10.4.3.2.2;Abb. 5–10 Evaluierungen entlang des Sicherheitslebenszyklus;349
10.5;5.5 Zusammenfassung ISO 26262 und Automotive SPICE;350
11;6 Agilität und Automotive SPICE;351
11.1;6.1 Warum sich mit Agilität und Automotive SPICE beschäftigen?;352
11.1.1;Beispiele aus der Automobilindustrie;353
11.2;6.2 Was bedeutet »Agilität in Automotive« ?;354
11.2.1;Abb. 6–1 Übersicht und Klassifizierung von »agilen« Begriffen;355
11.2.2;6.2.1 Was macht eine agile Entwicklung aus?;355
11.2.2.1;Die 12 Prinzipien agiler Softwareentwicklung;356
11.2.3;6.2.2 »Agile in Automotive (AiA)«: Welche agilen Methoden und Praktiken werden in der Automobilentwicklung aktuell eingesetzt?;357
11.2.3.1;Domänen und eingesetzte Methoden;357
11.2.3.2;Disziplinen und Projektphasen;357
11.2.3.3;Häufige Integration;358
11.2.3.4;Sprint-Dauer, Sprint-Umfang;358
11.2.3.5;AiA-Team-Setup;358
11.2.3.6;Retrospektiven und Demos;359
11.2.3.7;User Stories;359
11.2.3.8;Agile Skalierung;359
11.2.4;6.2.3 Welche Herausforderungen werden demnächst angegangen ?;360
11.2.4.1;Exkurs: Continuous Integration;360
11.2.4.1.1;Abb. 6–2 Ablauf von Continuous Integration;361
11.3;6.3 Wie bringt man Agilität und Automotive SPICE zusammen?;362
11.3.1;6.3.1 Grundsätzliches;362
11.3.1.1;Mögliches Mapping;362
11.3.1.1.1;Abb. 6–3 Abdeckung des HIS Scope Level 1 durch typische agile Praktiken;363
11.3.2;6.3.2 Was sind die kritischen Punkte in der Praxis?;363
11.3.2.1;Generell: Die Implementierung der Automotive SPICE-Arbeitsprodukte;364
11.3.2.1.1;Abb. 6–4 Beispiel einer agilen Entwicklungsumgebung;365
11.3.2.2;Agile Vorausplanung und Automotive SPICE;365
11.3.2.3;Einbettung agiler Teams in das Gesamtprojekt;365
11.3.2.3.1;Abb. 6–5 Schnittstellen der Planungswerkzeuge zur Projektverfolgung;366
11.3.2.4;Qualitätssicherung;366
11.3.2.5;Anforderungsmanagement und Traceability;367
11.3.2.6;Softwarearchitektur;368
11.3.2.7;Continuous Integration und Test;369
11.3.2.8;Unterstützende Prozesse;369
11.3.2.9;Einbindung weiterer Disziplinen;369
11.3.2.9.1;Abb. 6–6 Synchronisation und Integrationsebenen unterschiedlicher Zyklenlängen;370
11.3.3;6.3.3 Konkrete praktische Lösungsbeispiele;370
11.3.3.1;Definition of Done (DoD);371
11.3.3.1.1;Abb. 6–7 Auszüge aus einer DoD auf Teamebene;371
11.3.3.2;Agile Vorausplanung und Automotive SPICE;372
11.3.3.2.1;Abb. 6–8 Product Backlog mit verschiedenen Planungsebenen;372
11.3.3.3;Continuous Integration und Testebenen;373
11.3.3.3.1;Abb. 6–9 Continuous Integration und automatisierte Testebenen;374
11.4;6.4 Agilität, Automotive SPICE und funktionale Sicherheit;375
11.5;6.5 Zusammenfassung Agilität und Automotive SPICE;376
12;Anhang;377
13;A Beispiele zu Assessmentplanung und Assessmentdokumentation;379
13.1;A.1 Fall 1: Einfaches Projektassessment Tier-1-Lieferant;379
13.1.1;A.1.1 Beispiel eines Assessmentplans;379
13.1.1.1;Allgemeine Angaben zum Assessment;379
13.1.2;A.1.2 Beispiel einer Assessmentagenda bis Level 3;381
13.1.2.1;Abb. A–1 Beispielagenda;382
13.1.3;A.1.3 Beispielstruktur eines Assessmentberichts;383
13.1.4;A.1.4 Beispielbewertung eines Prozesses inklusive Dokumentation;383
13.1.4.1;Bewertung der Indikatoren und Beschreibung der Evidenzen;383
13.1.4.1.1;Abb. A–2 Beispielbewertung;384
13.1.5;A.1.5 Beispiel: Auszug aus der Liste der analysierten Evidenzen/Dokumente;385
13.2;A.2 Fall 2: Komplexes Projektassessment, mehrere Instanzen;385
13.2.1;A.2.1 Beispiel: Planung der Prozessinstanzen pro Prozess;386
13.2.1.1;Abb. A–3 Assessmentplanung und Abdeckung eines komplexen Assessments;387
13.2.2;A.2.2 Beispiel: Assessmentagenda;388
13.2.2.1;Abb. A–4 Auszug aus Agenda eines komplexen Assessments;388
13.2.3;A.2.3 Beispiel: Konsolidierungs- und Aggregationsregeln;389
14;B Übersicht ausgewählter Arbeitsprodukte;391
15;C Glossar;393
16;D Abkürzungsverzeichnis;405
17;E Literatur, Normen und Webadressen;409
18;Index;413
19;www.dpunkt.de;0


Dipl.-Ing. Markus Müller ist Director Operations und Partner bei KUGLER MAAG CIE GmbH und verantwortlich für den operativen Betrieb. Er berät seit vielen Jahren namhafte Unternehmen sehr erfolgreich in Prozessverbesserung und agiler Entwicklung, überwiegend in der Automobilindustrie. Markus Müller ist auch "Project Management Professional" entsprechend der Zertifizierung PMI sowie Scrum Master und SAFe Program Consultant (Scaled Agile Framework). Außerdem ist er intacsTM ISO/IEC 15504 Principal Assessor, bildet seit vielen Jahren Assessoren aus und leitet seit fast 20 Jahren Assessments. Neben vielen Assessments hat er das bis dato größte bekannte Organisationsassessment nach Automotive SPICE durchgeführt. Zudem ist er Co-Autor mehrerer Bücher und Vortragender auf Konferenzen und Veranstaltungen.

Dr. Klaus Hörmann ist Principal und Partner bei KUGLER MAAG CIE GmbH und seit vielen Jahren schwerpunktmäßig in der Automobilindustrie tätig. Er leitet Verbesserungsprojekte und führt Assessments, Appraisals, CMMI-, Automotive SPICE- und Projektmanagement-Trainings sowie Assessoren-Trainings und -Coaching durch. Dr. Klaus Hörmann ist intacsTM-zertifizierter Principal Assessor, intacsTM-zertifizierter Instructor (Competent Level), Scrum Master, CMMI Institutezertifizierter SCAMPI Lead Appraiser und CMMI Instructor. Er ist ehrenamtlich bei intacs tätig und leitet die Arbeitsgruppe "Exams" und ist (Co-)Autor mehrerer Fachbücher.

Dipl.-Ing. Lars Dittmann ist bei der Volkswagen AG Marke VW PKW für den Betrieb und fachlichen Support der mobilen Aftersales Onlinedienste verantwortlich. Er baute u.a. das Software-Assessmentsystem des Konzerns auf und leitete die Software-Qualitätssicherung des Konzerns. Mit seiner jahrelangen Erfahrung als intacsTM ISO/IEC 15504 Principal Assessor beteiligt er sich aktiv an der Erweiterung der SPICE-Methodik auf neue Domains.

Dipl.-Inform. Jörg Zimmer ist seit vielen Jahren bei der Daimler AG tätig. Dort leitete er übergreifende Software-Qualitätsprojekte und interne Prozessverbesserungsprojekte. Er war Mitglied des VDAArbeitskreises 13 sowie Sprecher der HIS-Arbeitsgruppe Prozessassessment. Er ist Mitbegründer des Software-Qualitätsmanagementsystems des Konzerns und im Rahmen der aktiven Mitgliedschaft der AUTOSIG-Gruppe mitverantwortlich für die initiale Erstellung von Automotive SPICE. Aktuell ist er in der Powertrain-Entwicklung für den Inhouse-Softwareentwicklungsprozess verantwortlich. Er ist intacsTM ISO/IEC 15504 Principal Assessor.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.