SlideShare une entreprise Scribd logo
1  sur  22
Entwicklung einer Methode zur systematischen Erhebung von Faktorpreisen für Kalkulations-modelle zur Kostenstrukturanalyse von Fahrzeugbauteilen. Controlling Innovation Berlin 2011 15. Oktober 2011 Karl Krziwon
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Ausgangssituation. Kostenstrukturanalyse bei der BMW Group. ,[object Object],[object Object],[object Object],[object Object],[object Object],Reaktion Marktveränderungen
Ausgangssituation. Kalkulationsprozess im Cost Engineering. ,[object Object],[object Object]
Ausgangssituation.  Wissensmanagementprozess. Wissensbedarfe identifizieren: Identifizierung der für Kalkulationen benötigten  Datensätze und Vorbereitung der Erhebung Bedarf an Datensätzen identifizieren Erhebung planen Informations-bedarfe festlegen Wissen generieren: Erhebung belastbarer Informationen  und  Erstellung benötigter Datensätze Informationen erheben Informationen verarbeiten und Dokumentation anfertigen Wissensbedarfe identifizieren Wissen teilen Wissen   generieren Wissen nutzen Permanente Wissens-schärfung ,[object Object],[object Object],Start des Prozesses Erzeugtes Wissen Wissen nutzen: Kommunikation der Verfügbarkeit der Datensätze und Schaffung von Transparenz Kommunikation des neuen Wissensstands Unterstützung bei der Anwendung des Wissens System zur Dokumentation wählen Wissens-repräsentation anpassen Veröffent-lichen der Ergebnisse Wissen teilen: Bereitstellung der Erhebungsdokumentation  und der Datensätze
Zielsetzung. Fokus der Arbeit. ,[object Object],[object Object],[object Object]
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Entwicklung eines Datenerhebungskonzepts.  Wissensbegriff im Cost Engineering. Kaufteil Vollkosten [€] Materialkosten [€] Fertigungskosten [€] Zuschlagskosten [€] MGK [%] RFK [%] OHK [%] Stundensatz Bediener [€/t] Stundensatz Maschine [€/t] Zyklus-zeit [t] Menge [kg] Preis [€/kg] Investition [€] Betriebskosten [€] Abschreibungs-dauer [t] Grad 1 Grad 2 Grad 3 Wissensbasis Grad 4 Anspruch für WM + x + + x Detailierungs-grad Transparenz Quellenvielfalt Datenqualität ,[object Object],[object Object]
Entwicklung eines Datenerhebungskonzepts. Wissenstreppe. Formalisiert Nicht formalisiert ,[object Object],[object Object],[object Object],Quelle:  North, K.: Wissensorientierte Unternehmensführung: Wertschöpfung durch Wissen; 5. Auflage; Wiesbaden: Gabler, 2011
Entwicklung eines Datenerhebungskonzepts. Datenmodell. ,[object Object],[object Object]
Entwicklung eines Datenerhebungskonzepts.  Beispieldatensatz im Datenmodell. ,[object Object],[object Object]
Entwicklung eines Datenerhebungskonzepts. Vorgehensmodell zur Datenerhebung. ,[object Object],[object Object],Quelle:  Bernhard, J. et al.: Vorgehensmodell zur Informationsgewinnung – Prozessschritte und Methodennutzung; Dortmund: Universität Dortmund, 2007
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Bewertungskonzept. Attribute für prozesskonforme Datenerhebung. ,[object Object],[object Object]
Bewertungskonzept. Konzept zur Quellenbewertung. ,[object Object],[object Object],[object Object],Kriterien für Datenqualität Quellenbewertung Visualisierung der Ergebnisse Quelle:  Wang, R.  et al.: Beyond accuracy: What data quality means to data consumers, in: Journal of Management Information Systems 12 (1996) 4, S. 5 - 34
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Zusammenfassung des Konzepts. Formalisierung der Prozessergebnisse. ZIELDEFINITION INFORMATIONS-IDENTIFIKATION ERHEBUNGS- PLANUNG ERHEBUNG UND ERFASSUNG DATENAUF-BEREITUNG UND –ANALYSE DATEN-VALIDIERUNG Definition der  Metadaten  im Datenmodell zur Spezifi-zierung der Objektdaten ,[object Object],[object Object],Attribute des Datenmodells ermöglichen Monitoring des Erhebungsprozesses ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Umsetzung in die Praxis. Praxisbeispiel für Büroflächenkosten. Wissensbedarf identifizieren Erhebungs- planung Informations-identifikation Ergebnis teilen Datenauf-bereitung und  -analyse Erhebung und Erfassung Zieldefinition Ergebnis nutzen ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Zugängliche, bewertete Quellen Nebenkosten: Mieten: 19,68 €/ m²*Monat Daten  sammeln Informations- bedarf ,[object Object],[object Object],Quellen Berechnung durchführen Ergebnis Kosten für  Bürofläche 25,56 €/ m²*Monat Kalkulation  erstellen Metadaten definieren Typ:   Büro-flächen-kosten Land:   China Region:   Peking Jahr:   2011 Berechnungs-methode identifizieren Periodische Aktuali-  sierung Problem Neue Innovation Ergebnis teilen Berechnung dokumen- tieren Quellen teilen Kosten DB Metadatum Datensatz Land Region Jahr Wert Büroflächenkosten China Beijing 2010 Metadatum Datensatz Land Region Jahr Wert Büroflächenkosten China Beijing 2011 Benötigte Daten Einheit Granularität Nettokaltmieten neuwertiger Gebäude in Spitzenlage, Beijing 2010-2012 € /(m²*Monat) zwei Nachkommastellen, jahrgenau Mietnebenkosten 2010-2012 € /(m²*Monat) zwei Nachkommastellen, jahrgenau Nr. Name der Quelle Publikation Hyperlink 1 CB Richard Ellis Asia Marketview Q3 2010 http://www.cbre.com.sg/... 2 Colliers Asia Pacific Office Market OV 3Q 2010 http://www.colliersinternational.com/... 3 Colliers Global Office Real Estate Review, FH 2010 http://www.colliers.com/... 4 Cushman & Wakefield Marketbeat, Beijing Office Market 3Q10 http://www.cushwake.com/... … … … … Quelle  Stand  Einheit  Werte Mietpreis Entw. Q2 -> Q3 Greater China Quart., Knight Fr.  Q3 2010  USD/(m² *Monat)  29,80    k.A.  CBRE Asia Market View  Q3 2010  RMB/(m² *Monat)  217,90 6,10%  C&W Marketbeat Office Reports  Q3 2010  RMB/(m² *Monat)  263,00 4,40%  DTZ Property Times  Q3 2010  RMB/(m² *Monat)  160,65  3,36%  Colliers Asia Pacific Office M.O. Q3 2010  RMB/(m² *Monat) 180,23  4,16%  Savills Beijing Offices  Q2 2010  RMB/(m² *Tag) 5,60    k.A.  Jahr Büroflächenkostenentwicklung Büroflächenkosten [€/m² * Monat] 2010 Referenzwert 25,56 2011 + 3,60% 26,48 2012 + 2,30% 27,09
Methode zur Eingangsdatenerhebung. Agenda. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Ausblick. Handlungsempfehlungen. ,[object Object],[object Object],[object Object],[object Object],[object Object]
Vielen Dank für Ihre Aufmerksamkeit. Weiterführende Informationen: Reinhart, Gunther; Pause, Jörg; Krziwon, Karl :  Managementkonzept für Eingangsgrößen von Kostenmodellen: Wissensmanagement ergebnisorientiert umsetzen.  In: Zeitschrift für wirtschaftlichen Fabrikbetrieb, 106 (2011) 6, S. 438-443.

Contenu connexe

En vedette

El impacto del uso de recursos educativos abiertos en la clase al revés
El impacto del uso de recursos educativos abiertos en la clase al revésEl impacto del uso de recursos educativos abiertos en la clase al revés
El impacto del uso de recursos educativos abiertos en la clase al revésOER Hub
 
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?LexisNexis GmbH
 
Cib2013 programm
Cib2013 programmCib2013 programm
Cib2013 programmICV_eV
 
Lernzettel deutsch
Lernzettel deutschLernzettel deutsch
Lernzettel deutschguest5b23a5
 
Propuesta de proyecto SW
Propuesta de proyecto SWPropuesta de proyecto SW
Propuesta de proyecto SWAlberto Almeida
 
SCD13: Die technische Roadmap von Shopware 4
SCD13: Die technische Roadmap von Shopware 4SCD13: Die technische Roadmap von Shopware 4
SCD13: Die technische Roadmap von Shopware 4shopware AG
 
business campaigning® – Über den Tellerrand schauen, querdenken und Menschen...
business campaigning®  – Über den Tellerrand schauen, querdenken und Menschen...business campaigning®  – Über den Tellerrand schauen, querdenken und Menschen...
business campaigning® – Über den Tellerrand schauen, querdenken und Menschen...Peter Metzinger
 
Institucion educativa ciudad de asis
Institucion educativa ciudad de asisInstitucion educativa ciudad de asis
Institucion educativa ciudad de asisjuancamiloceron
 
Bericht Njinikom SES Juni Juli 2014
Bericht Njinikom SES Juni Juli 2014Bericht Njinikom SES Juni Juli 2014
Bericht Njinikom SES Juni Juli 2014Carsten Tiede
 
Bitacora de evaluacion 2
Bitacora de evaluacion 2Bitacora de evaluacion 2
Bitacora de evaluacion 2Evelyn1011
 
Glosario de termino
Glosario de terminoGlosario de termino
Glosario de terminoDeximar Boza
 

En vedette (17)

La nube de Internet
La nube de InternetLa nube de Internet
La nube de Internet
 
El impacto del uso de recursos educativos abiertos en la clase al revés
El impacto del uso de recursos educativos abiertos en la clase al revésEl impacto del uso de recursos educativos abiertos en la clase al revés
El impacto del uso de recursos educativos abiertos en la clase al revés
 
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?
Wie kann ich mit Nexis® Analyser Medienanalysen durchführen?
 
Cib2013 programm
Cib2013 programmCib2013 programm
Cib2013 programm
 
Lernzettel deutsch
Lernzettel deutschLernzettel deutsch
Lernzettel deutsch
 
Propuesta de proyecto SW
Propuesta de proyecto SWPropuesta de proyecto SW
Propuesta de proyecto SW
 
SCD13: Die technische Roadmap von Shopware 4
SCD13: Die technische Roadmap von Shopware 4SCD13: Die technische Roadmap von Shopware 4
SCD13: Die technische Roadmap von Shopware 4
 
business campaigning® – Über den Tellerrand schauen, querdenken und Menschen...
business campaigning®  – Über den Tellerrand schauen, querdenken und Menschen...business campaigning®  – Über den Tellerrand schauen, querdenken und Menschen...
business campaigning® – Über den Tellerrand schauen, querdenken und Menschen...
 
Act! 2012 Broschüre
Act! 2012 BroschüreAct! 2012 Broschüre
Act! 2012 Broschüre
 
Institucion educativa ciudad de asis
Institucion educativa ciudad de asisInstitucion educativa ciudad de asis
Institucion educativa ciudad de asis
 
El hierro
El hierroEl hierro
El hierro
 
Mediendaten www.Creativelena.com
Mediendaten www.Creativelena.comMediendaten www.Creativelena.com
Mediendaten www.Creativelena.com
 
Bericht Njinikom SES Juni Juli 2014
Bericht Njinikom SES Juni Juli 2014Bericht Njinikom SES Juni Juli 2014
Bericht Njinikom SES Juni Juli 2014
 
Practica 2
Practica 2Practica 2
Practica 2
 
Bitacora de evaluacion 2
Bitacora de evaluacion 2Bitacora de evaluacion 2
Bitacora de evaluacion 2
 
Glosario de termino
Glosario de terminoGlosario de termino
Glosario de termino
 
Catalogo Pantalonetas Surf
Catalogo Pantalonetas SurfCatalogo Pantalonetas Surf
Catalogo Pantalonetas Surf
 

Similaire à 05 präsentation der siegerarbeit

IT Service Management mit ITIL
IT Service Management mit ITILIT Service Management mit ITIL
IT Service Management mit ITILHendrik Kalb
 
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannBARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannDataValueTalk
 
worldiety GmbH - Datenanalyse
worldiety GmbH - Datenanalyse worldiety GmbH - Datenanalyse
worldiety GmbH - Datenanalyse worldiety GmbH
 
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias KlierDataValueTalk
 
BizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteBizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteDragan Kinkela
 
Appbasierte Wertstromanalyse und Simulation mit SimVSM
Appbasierte Wertstromanalyse und Simulation mit SimVSMAppbasierte Wertstromanalyse und Simulation mit SimVSM
Appbasierte Wertstromanalyse und Simulation mit SimVSMLean Knowledge Base UG
 
Seminar tu do-20090625_3 [kompatibilitätsmodus]
Seminar tu do-20090625_3 [kompatibilitätsmodus]Seminar tu do-20090625_3 [kompatibilitätsmodus]
Seminar tu do-20090625_3 [kompatibilitätsmodus]CGI Germany
 
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...Michael Groeschel
 
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...OPITZ CONSULTING Deutschland
 
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)Aleksey Lashin
 
Wie Sie bei A-Lieferanten versteckte Gewinne aufdecken
Wie Sie bei A-Lieferanten versteckte Gewinne aufdeckenWie Sie bei A-Lieferanten versteckte Gewinne aufdecken
Wie Sie bei A-Lieferanten versteckte Gewinne aufdeckencostdata GmbH
 
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019luna-park GmbH
 
Oliver Krizek (NAVAX | 4relation)
Oliver Krizek (NAVAX | 4relation)Oliver Krizek (NAVAX | 4relation)
Oliver Krizek (NAVAX | 4relation)Praxistage
 
Die Notwendigkeit von Geschäftsprozessen
Die Notwendigkeit von GeschäftsprozessenDie Notwendigkeit von Geschäftsprozessen
Die Notwendigkeit von GeschäftsprozessenFalk Neubert
 
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!Learning Factory
 
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human InferenceDataValueTalk
 
HMP - wer wir sind - was wir tun
HMP - wer wir sind - was wir tunHMP - wer wir sind - was wir tun
HMP - wer wir sind - was wir tunHMP Beratung
 

Similaire à 05 präsentation der siegerarbeit (20)

IT Service Management mit ITIL
IT Service Management mit ITILIT Service Management mit ITIL
IT Service Management mit ITIL
 
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen KannBARC Was Datenmanagement Messbar Dazu Beitragen Kann
BARC Was Datenmanagement Messbar Dazu Beitragen Kann
 
worldiety GmbH - Datenanalyse
worldiety GmbH - Datenanalyse worldiety GmbH - Datenanalyse
worldiety GmbH - Datenanalyse
 
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier
‘Metriken für ein ROI-basiertes Datenqualitätsmanagement’ Dr. Mathias Klier
 
BizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement KonzepteBizDataX Testdatenmanagement Konzepte
BizDataX Testdatenmanagement Konzepte
 
Appbasierte Wertstromanalyse und Simulation mit SimVSM
Appbasierte Wertstromanalyse und Simulation mit SimVSMAppbasierte Wertstromanalyse und Simulation mit SimVSM
Appbasierte Wertstromanalyse und Simulation mit SimVSM
 
Seminar tu do-20090625_3 [kompatibilitätsmodus]
Seminar tu do-20090625_3 [kompatibilitätsmodus]Seminar tu do-20090625_3 [kompatibilitätsmodus]
Seminar tu do-20090625_3 [kompatibilitätsmodus]
 
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...
Prozessanalyse mit Process Mining, Studentisches Projekt der Hochschule Mannh...
 
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...
Geschäftsprozessmanagement - Anspruch vs. Wirklichkeit - OPITZ CONSULTING - S...
 
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)
Ecesis vortrag 01.07.2009 (version 0.9 vom 01.07.2009)
 
Wie Sie bei A-Lieferanten versteckte Gewinne aufdecken
Wie Sie bei A-Lieferanten versteckte Gewinne aufdeckenWie Sie bei A-Lieferanten versteckte Gewinne aufdecken
Wie Sie bei A-Lieferanten versteckte Gewinne aufdecken
 
Messung des Erfolges von E-Government
Messung des Erfolges von E-GovernmentMessung des Erfolges von E-Government
Messung des Erfolges von E-Government
 
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019
Reportings & Insights mit Google Data Studio | Google Analytics Konferenz 2019
 
Oliver Krizek (NAVAX | 4relation)
Oliver Krizek (NAVAX | 4relation)Oliver Krizek (NAVAX | 4relation)
Oliver Krizek (NAVAX | 4relation)
 
Die Notwendigkeit von Geschäftsprozessen
Die Notwendigkeit von GeschäftsprozessenDie Notwendigkeit von Geschäftsprozessen
Die Notwendigkeit von Geschäftsprozessen
 
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!
VerbesserungsKATA – Umsetzung in einem Kommunalunternehmen – ein Praxisbericht!
 
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
‘Fehler vorprogrammiert’ Paul Tours, Senior Consultant/Human Inference
 
DiFa v2.1
DiFa v2.1DiFa v2.1
DiFa v2.1
 
DiFa v2.1
DiFa v2.1DiFa v2.1
DiFa v2.1
 
HMP - wer wir sind - was wir tun
HMP - wer wir sind - was wir tunHMP - wer wir sind - was wir tun
HMP - wer wir sind - was wir tun
 

Plus de ICV_eV

Die ICV-Digitalisierungsoffensive - das sagen die Teilnehmer
Die ICV-Digitalisierungsoffensive - das sagen die TeilnehmerDie ICV-Digitalisierungsoffensive - das sagen die Teilnehmer
Die ICV-Digitalisierungsoffensive - das sagen die TeilnehmerICV_eV
 
2016 ccs stuttgart flyer
2016 ccs stuttgart flyer2016 ccs stuttgart flyer
2016 ccs stuttgart flyerICV_eV
 
2016 12. cab
2016  12. cab2016  12. cab
2016 12. cabICV_eV
 
2016 ccs stuttgart flyer
2016 ccs stuttgart flyer2016 ccs stuttgart flyer
2016 ccs stuttgart flyerICV_eV
 
Forum gesundheitswesen 2016 programm
Forum gesundheitswesen 2016 programmForum gesundheitswesen 2016 programm
Forum gesundheitswesen 2016 programmICV_eV
 
Cab11 flyer 2015_final
Cab11 flyer 2015_finalCab11 flyer 2015_final
Cab11 flyer 2015_finalICV_eV
 
Big data-konferenz 2015
Big data-konferenz 2015Big data-konferenz 2015
Big data-konferenz 2015ICV_eV
 
Präsentation entwicklung der ccs])
Präsentation entwicklung der ccs])Präsentation entwicklung der ccs])
Präsentation entwicklung der ccs])ICV_eV
 
2015 nordtagung programmflyer
2015 nordtagung programmflyer2015 nordtagung programmflyer
2015 nordtagung programmflyerICV_eV
 
2015 cab11 flyer
2015  cab11 flyer2015  cab11 flyer
2015 cab11 flyerICV_eV
 
Ccs 2015 flyer v1
Ccs 2015 flyer v1Ccs 2015 flyer v1
Ccs 2015 flyer v1ICV_eV
 
Ccs 2015 flyer v1
Ccs 2015 flyer v1Ccs 2015 flyer v1
Ccs 2015 flyer v1ICV_eV
 
2015 controller tagung schweizer arbeitskreise flyer
2015 controller tagung schweizer arbeitskreise flyer2015 controller tagung schweizer arbeitskreise flyer
2015 controller tagung schweizer arbeitskreise flyerICV_eV
 
Forum gesundheitswesen 2015 programm
Forum gesundheitswesen 2015 programmForum gesundheitswesen 2015 programm
Forum gesundheitswesen 2015 programmICV_eV
 
Controlling flyer 14 cib_internetversion
Controlling flyer 14 cib_internetversionControlling flyer 14 cib_internetversion
Controlling flyer 14 cib_internetversionICV_eV
 
Cc2015 programm final
Cc2015 programm finalCc2015 programm final
Cc2015 programm finalICV_eV
 
2014 12 31_icv_bulletin_december_2014_short
2014 12 31_icv_bulletin_december_2014_short2014 12 31_icv_bulletin_december_2014_short
2014 12 31_icv_bulletin_december_2014_shortICV_eV
 
2014 12 31_icv_bulletin_december_2014
2014 12 31_icv_bulletin_december_20142014 12 31_icv_bulletin_december_2014
2014 12 31_icv_bulletin_december_2014ICV_eV
 
2014 11 29_munich_ppt_poland
2014 11 29_munich_ppt_poland2014 11 29_munich_ppt_poland
2014 11 29_munich_ppt_polandICV_eV
 
Icv big data dream car en final
Icv big data dream car en finalIcv big data dream car en final
Icv big data dream car en finalICV_eV
 

Plus de ICV_eV (20)

Die ICV-Digitalisierungsoffensive - das sagen die Teilnehmer
Die ICV-Digitalisierungsoffensive - das sagen die TeilnehmerDie ICV-Digitalisierungsoffensive - das sagen die Teilnehmer
Die ICV-Digitalisierungsoffensive - das sagen die Teilnehmer
 
2016 ccs stuttgart flyer
2016 ccs stuttgart flyer2016 ccs stuttgart flyer
2016 ccs stuttgart flyer
 
2016 12. cab
2016  12. cab2016  12. cab
2016 12. cab
 
2016 ccs stuttgart flyer
2016 ccs stuttgart flyer2016 ccs stuttgart flyer
2016 ccs stuttgart flyer
 
Forum gesundheitswesen 2016 programm
Forum gesundheitswesen 2016 programmForum gesundheitswesen 2016 programm
Forum gesundheitswesen 2016 programm
 
Cab11 flyer 2015_final
Cab11 flyer 2015_finalCab11 flyer 2015_final
Cab11 flyer 2015_final
 
Big data-konferenz 2015
Big data-konferenz 2015Big data-konferenz 2015
Big data-konferenz 2015
 
Präsentation entwicklung der ccs])
Präsentation entwicklung der ccs])Präsentation entwicklung der ccs])
Präsentation entwicklung der ccs])
 
2015 nordtagung programmflyer
2015 nordtagung programmflyer2015 nordtagung programmflyer
2015 nordtagung programmflyer
 
2015 cab11 flyer
2015  cab11 flyer2015  cab11 flyer
2015 cab11 flyer
 
Ccs 2015 flyer v1
Ccs 2015 flyer v1Ccs 2015 flyer v1
Ccs 2015 flyer v1
 
Ccs 2015 flyer v1
Ccs 2015 flyer v1Ccs 2015 flyer v1
Ccs 2015 flyer v1
 
2015 controller tagung schweizer arbeitskreise flyer
2015 controller tagung schweizer arbeitskreise flyer2015 controller tagung schweizer arbeitskreise flyer
2015 controller tagung schweizer arbeitskreise flyer
 
Forum gesundheitswesen 2015 programm
Forum gesundheitswesen 2015 programmForum gesundheitswesen 2015 programm
Forum gesundheitswesen 2015 programm
 
Controlling flyer 14 cib_internetversion
Controlling flyer 14 cib_internetversionControlling flyer 14 cib_internetversion
Controlling flyer 14 cib_internetversion
 
Cc2015 programm final
Cc2015 programm finalCc2015 programm final
Cc2015 programm final
 
2014 12 31_icv_bulletin_december_2014_short
2014 12 31_icv_bulletin_december_2014_short2014 12 31_icv_bulletin_december_2014_short
2014 12 31_icv_bulletin_december_2014_short
 
2014 12 31_icv_bulletin_december_2014
2014 12 31_icv_bulletin_december_20142014 12 31_icv_bulletin_december_2014
2014 12 31_icv_bulletin_december_2014
 
2014 11 29_munich_ppt_poland
2014 11 29_munich_ppt_poland2014 11 29_munich_ppt_poland
2014 11 29_munich_ppt_poland
 
Icv big data dream car en final
Icv big data dream car en finalIcv big data dream car en final
Icv big data dream car en final
 

05 präsentation der siegerarbeit

  • 1. Entwicklung einer Methode zur systematischen Erhebung von Faktorpreisen für Kalkulations-modelle zur Kostenstrukturanalyse von Fahrzeugbauteilen. Controlling Innovation Berlin 2011 15. Oktober 2011 Karl Krziwon
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22. Vielen Dank für Ihre Aufmerksamkeit. Weiterführende Informationen: Reinhart, Gunther; Pause, Jörg; Krziwon, Karl : Managementkonzept für Eingangsgrößen von Kostenmodellen: Wissensmanagement ergebnisorientiert umsetzen. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb, 106 (2011) 6, S. 438-443.

Notes de l'éditeur

  1. Tiefgreifende Veränderungen in der Zulieferindustrie in den letzten Jahren zwangen die Automobilhersteller zu einem Überdenken ihrer Verhandlungsstrategien auf dem Beschaffungsmarkt. Hervorgerufen durch die Weltwirtschaftskrise und strukturelle Veränderungen in der Automobilbranche hat sich die Zahl qualifizierter Zulieferer durch Konsolidierung und zunehmende Insolvenzfälle in den letzten Jahren drastisch reduziert. Die verringerte Konkurrenz und der damit einhergehende nachlassende Wettbewerbsdruck in der Zulieferindustrie haben zur Folge, dass bisherige Beschaffungsstrategien nicht mehr zwangsläufig zu einer optimalen Kostenstruktur für die Hersteller führen. Des Weiteren sind durch den konjunkturbedingten Absatzeinbruch kosteneinsparende Maßnahmen notwendig geworden, um nachhaltig wettbewerbsfähig zu bleiben. Aus diesen Gründen hat man bei der BMW AG die Abteilung Cost Engineering ausgebaut. Diese soll Zielkosten von Zukaufteilen dem Einkäufer und Zulieferer transparent aufschlüsseln. Das im Ressort Einkauf und Lieferantennetzwerk angesiedelte Kompetenzzentrum für Kostenstrukturanalysen erstellt zu diesem Zweck, mit Hilfe von Kalkulationsmodellen, lieferantenunabhängige Kalkulationen von Fahrzeugbauteilen, anhand derer Kostenpotenziale aufgedeckt werden können
  2. Zur Schaffung eines einheitlichen Kostenverständnisses zwischen Lieferant und BMW wird ein grundlegendes Kalkulationsmodell genutzt, mit dem Kostenstrukturen abgebildet und die Vollkosten systematisch kalkuliert werden. Grundlage des Kalkulationsmodells ist eine detaillierte Abbildung der Fertigungsprozesse, die zur Herstellung des Kaufteils durch den Lieferanten erforderlich sind und die monetär bewertet werden. Die Akzeptanz der berechneten Vollkosten bei Verhandlungen mit Lieferanten hängt dabei von der Plausibilität des verwendeten Modells und der Qualität der Eingangsdaten ab. Wie Sie in der Darstellung sehen können, stellen die Eingangsdaten die Wissensbasis für die Kalkulation dar. Diese teilt sich auf in Marktwissen, wie etwa Materialpreise und Lohnkosten, aber auch Prozesswissen über bspw. Fertigungsprozesse und Logistikabläufe. Für die systematische Gestaltung der Wissensbasis und ihre Qualität ist bei der BMW AG das Wissensmanagement verantwortlich. Für dieses wird ein definierter Wissensmanagementprozess benötigt.
  3. Der Wissensmanagementprozess bei BMW teilt sich in vier Phasen auf: In der ersten Phase „Wissensbedarfe identifizieren“ werden die für eine Kalkulation benötigten Eingangsdaten ermittelt und die durch fehlende oder veraltete Datensätze resultierenden Informationsbedarfe festgelegt. Anschließend erfolgt in der zweiten Phase „Wissen generieren“ die Erhebung der benötigten Informationen bzw. Eingangsdaten und die Erhebungsdokumentation. Die Ergebnisse und die zugehörige Dokumentation werden anschließend in der dritten Phase, „Wissen teilen“, in einem für die Anwender nutzbaren Format veröffentlicht. Abschließend wird in der Phase „Wissen nutzen“ die Verfügbarkeit der neuen Datensätze kommuniziert und die Befähigung der Mitarbeiter in der Kostenstrukturanalyse zur Arbeit mit den neuen Daten sichergestellt. Die systematische Schaffung der Wissenselemente erfolgt somit in Phase 1 und 2 des WM-Prozesses. Zur Konkretisierung des Vorgehens muss demnach eine Detaillierung der ersten zwei Phasen, ausgehend von einem bereits identifizierten Erhebungsbedarf, erarbeitet werden.
  4. Im Rahmen der Diplomarbeit sollte demnach eine generische Methode entwickelt werden, anhand derer belastbare Eingangsdaten für die der Kostenstrukturanalyse zugrundeliegenden Kalkulationsmodelle erhoben werden können. Grundlage dieser Methode stellen die ersten zwei Phasen des WM-Prozesses dar, die anhand definierter Subprozesse und -ziele zu detaillieren sind. Das zu modellierende Erhebungskonzept muss zudem die Erfüllung der wesentlichen Anforderungen an Eingangsdaten für die Nutzung in der Kostenstrukturanalyse sicherstellen. Die Qualität der Kalkulationen ist wie bereits angesprochen signifikant von der Qualität der Eingangsdaten abhängig. Aus diesem Grund müssen Instrumente zur Sicherstellung valider Eingangsdaten in das Erhebungskonzept implementiert und entsprechende Kriterien zur Messung einer prozesskonformen Erhebung definiert sein. Die Entwicklung eines entsprechenden Konzepts möchte ich Ihnen im Folgenden näher vorstellen.
  5. Zur Modellierung eines Erhebungsprozesses im Rahmen des Wissensmanagements muss zu Beginn geklärt werden, was „Wissen“ in der Kostenstrukturanalyse überhaut ist. Die Abbildung zeigt einen Ausschnitt aus dem Kalkulationsmodell, das ausgehend von den Vollkosten eines Kaufteils in verschiedene Detaillierungsgrade herunter gebrochen ist. Grad 3 stellen hierbei die einzelnen Eingangsdaten, wie etwa Faktorpreise, dar, die für die Verrechnung im Modell benötigt werden. Anspruch für das Wissensmanagement und zur Plausibilisierung der Kalkulation sind jedoch transparente Eingangsdaten, die zudem die Anforderungen an Datenqualität wie auch Quellenvielfalt erfüllen. Demnach ist zunächst ein formales Modell notwendig, mit dem transparente Eingangsdaten abgebildet werden können. Grundlage dieses formalen Modells stellt die Wissenstreppe nach Klaus North dar.
  6. Wie Sie in der Abbildung sehen können, stellen Zeichen die unterste Stufe der Wissenstreppe dar. Zeichen sind beispielsweise Buchstaben oder Ziffern und werden durch Ordnungsregeln wie eine Syntax zu Daten aufgewertet. Daten besitzen als solche jedoch nur wenig Bedeutung oder Zweck. Sie können als Zeichenfolgen, Symbole oder Bilder codiert sein, die noch nicht interpretiert wurden und dementsprechend keine tragfähige Handlungsbasis darstellen. Erst wenn sie in einem Bedeutungskontext stehen, d.h. ein Bezug hergestellt wurde, werden aus Daten Informationen. Wissen, als letzte Stufe der Wissenstreppe, entsteht erst durch die individuelle Vernetzung verschiedener Informationen. Während die Aufwertung von Zeichen zu Daten bereits durch die gegebene Syntax formalisiert ist, muss ein formales Modell für transparente Eingangsdaten und damit die Wissenselemente in der Kostenstrukturanalyse erst noch erarbeitet werden. Dieses Modell muss den Anwender dabei unterstützen, Daten in einen Kontext zu setzen, um Informationen zu erhalten sowie diese Informationen zu vernetzen, um Wissen zu generieren. Zu diesem Zweck wurde ein Datenmodell entwickelt, das eine Strukturierung und Standardisierung der Datensätze ermöglicht.
  7. Im Rahmen des Datenmodells wird ein Datensatz in Objektdaten und Metadaten aufgegliedert. Objektdaten stellen die eigentlichen im Kostenmodell verrechneten Nutzdaten wie etwa Lohnsätze, Mietpreise oder Anschaffungskosten einer Maschine dar, während Metadaten Attribute zur Beschreibung der Objektdaten beinhalten. Dies könnte etwa die Qualifikation eines Arbeiters, die betrachtete Region oder der Zeitraum sein, für den diese Daten gelten. Metadaten fügen den Objektdaten demnach eine Zweck- oder Bedeutungskomponente hinzu und ermöglichen somit gemäß der vorgestellten Wissenstreppe die Kontextualisierung von Daten zu Informationen. Um jedoch Wissen im Modell abzubilden ist eine weitere Ebene notwendig. Dies geschieht mit Hilfe der sogenannten Organisationsdaten. Die Organisationsdaten bilden im engeren Sinn eine weitere Metadatenebene ab, beinhalten jedoch Daten und Attribute in Bezug auf die Erhebung der Objektdaten. Sie ermöglichen damit die Vernetzung von Informationen und folglich die Generierung von Wissen. Mit Hilfe der Organisationsdaten kann somit die Erfüllung der Anforderungen an Eingangsdaten sichergestellt und dokumentiert werden. Dadurch wird folglich auch die Transparenz und Nachvollziehbarkeit der Eingangsdaten gewährleistet. Zur Operationalisierung des Datenmodells müssen jedoch zunächst Attribute für die Organisationsdaten definiert werden. Darauf möchte ich Rahmen des nachfolgenden Bewertungskonzepts kurz näher eingehen. Zu Veranschaulichung des Datenmodells möchte ich im Folgenden einen Beispieldatensatz für Lohnkosten vorstellen.
  8. Wie Sie sehen können, setzen sich die Objektdaten aus den Attributen „Wert“ und der zugehörigen „Einheit“ zusammen. Für den konkreten Beispieldatensatz könnte hierfür etwa der Wert 1,21 und die Einheit €/h hinterlegt sein. Isoliert betrachtet liefert dieses Datum wie vorab beschrieben keine weiteren Informationen und ist dementsprechend unbrauchbar. Der entsprechende Kontext kann für den Datensatz mittels der Metadatenattribute „Land“, zugehörige „Region“, „Qualifikation“ des Arbeiters sowie dem „Gültigkeitsjahr“ hergestellt werden. In Verbindung mit dem Objektdatum erhält der Kosteningenieur hierdurch beispielsweise die Information: „Ein Hilfsarbeiter in der Region Beijing in China erhält im Jahr 2011 einen Stundenlohn von 1,21 €“ . Aufgrund dieser Information ist der Datensatz für die Kalkulation bereits nutzbar. Der Nutzer hat zu diesem Zeitpunkt jedoch noch keine weiteren Informationen darüber, wie der Wert ermittelt wurde und wie er definiert ist. Erst mit Hilfe der Erhebungsdokumentation in den Organisationsdaten kann er die einzelnen hinterlegten Informationen vernetzen und das Wissen generieren, das er zur Argumentation des Wertes beim Lieferanten benötigt. Dadurch erlangt er unter anderem Wissen darüber, dass es sich beim Lohnstundensatz beispielsweise um einen Direktlohn handelt, der beim chinesischen statistischen Bundesamt erhoben und mittels Clusteranalyse für die benötigte Qualifikation abgeleitet wurde. Der Nutzer kann somit anhand der in der Organisationsdatenebene hinterlegten Daten die vollständige Berechnung Schritt für Schritt nachvollziehen. Durch die Strukturierung der Datensätze mit Hilfe des Datenmodells wurden die Voraussetzungen erfüllt, formale Teilschritte und –ziele im Rahmen eines Erhebungskonzepts zu definieren.
  9. Das konzipierte Vorgehensmodell zur Datenerhebung gliedert sich in sechs sequenzielle Phasen auf, die wiederum teilweise in weitere Teilschritte untergliedert sind. In der ersten Phase, der Zieldefinition, werden die zu erhebenden Eingangsdaten anhand der Aufgabenbeschreibung abgeleitet und mit Hilfe der Metadaten festgelegt. Ebenso erfolgt in diesem Teilschritt die Identifikation der Standardmethoden für die zu erhebenden Eingangsdaten. Ziel der Informationsidentifikation ist die vollständige Erfassung aller zur Aufgabenerfüllung benötigten Informationen und somit des Informationsbedarfs Auf Basis des Informationsbedarfs werden anschließend mögliche Informationsquellen, d.h. das Informationsangebot, identifiziert und hinsichtlich der zu erwartenden Datenqualität bewertet. Abschließend wird das Informationsangebot mit dem Informationsbedarf hinsichtlich der Anforderungen an Granularität und Qualität der Daten verglichen und die Quellen auf Nutzbarkeit überprüft. In der Erhebungsplanung erfolgt die Selektion adäquater Informationsquellen auf Basis der höchsten Effizienz, Konformität mit dem Informationsbedarf und der Quellenbewertung. Auf Basis der gewählten Quellen werden die Erhebungsmethoden festgelegt. Mögliche Methode sind: Befragung (z.B. Experten, Lieferanten), Beobachtung (z.B. messen, analysieren) und die Dokumentenanalyse (z.B. Statistiken, Kostenstellendaten, Angebote). Zur Vorbereitung der Erhebung erfolgt abschließend die Planung und Organisation der Durchführung bzgl. Terminen, erforderlichen Genehmigungen. die Überprüfung von Messinstrumenten u.ä. Anschließend werden die gemäß dem Informationsbedarf benötigten Informationen aus den Quellen extrahiert und ggf. transformiert und elektronisch erfasst. Vor der Datenanalyse müssen die erhobenen Daten hinsichtlich ihrer Granularität, Darstellungsform und Maßeinheit unter Berücksichtigung des Informationsbedarfs vereinheitlicht werden. Die erhobenen Daten werden anschließend auf Fehler untersucht. Sofern mehrere Daten erhoben wurden und eine hohe Abweichung der Werte vorhanden ist oder die Daten eine extreme Auswirkung auf das Kalkulationsergebnis haben, muss ein statistischer Ausreißertest durchgeführt werden. Veraltete, inflationäre Daten müssen ggf. im nächsten Schritt hochgerechnet werden.(z.B. Kostendaten). Sofern mehrere Werte für ein Eingangsdatum erhoben wurden, müssen je nach Aufgabenstellung statistische Analyseverfahren angewendet werden. Im Regelfall beschränkt sich die Analyse auf deskriptive Statistik , wie etwa die Berechnung des Mittelwerts der Daten. Je nach Aufgabenstellung werden inflationäre Daten und veränderliche technische Parameter anschließend für zukünftige Jahre prognostiziert Die ggf. notwendige Verrechnung der einzelnen Daten zu dem zu erhebenden Eingangsdatum erfolgt mit Hilfe des Berechnungsmodells der Standardmethode Bei der den Prozess abschließenden Datenvalidierung erfolgt eine Rückkopplung zur Zieldefinition, um das Erhebungsergebnis mit den ursprünglich festgelegten Zielen abzugleichen. Wie bereits erwähnt ist zum Nachweis einer prozesskonformen Erhebung und der inhaltlichen Qualität der Eingangsdaten die Definition von Attributen für die Organisationsdaten notwendig. Dies erfolgte im Rahmen eines Bewertungskonzepts, das ich Ihnen im Folgenden näher vorstellen möchte.
  10. Die Definition der Attribute erfolgt unter der Vorgabe, dass alle vier Phasen der Wissensspirale umzusetzen sind. Unter Berücksichtigung der Relevanz für die unterschiedlichen Anwendergruppen - Nutzer und Wissensmanager - werden diese anschließend den einzelnen Phasen in der Matrixdarstellung zugeordnet. Attribute, die für den Wissensmanager von Interesse sind, werden in der Abbildung anhand eines „M“ gekennzeichnet. Dieser ist für das Monitoring einer prozesskonformen Erhebung verantwortlich und benötigt dementsprechend eine lückenlose Dokumentation des Erhebungsprozesses. Die Attribute der Organisationsdaten stellen jedoch nicht nur Kriterien zur Qualitätsmessung dar, sondern ermöglichen ebenso die Nachvollziehbarkeit der Eingangsdaten für Kosteningenieure, die die Wissenselemente nutzen und die Objektdaten nachvollziehen müssen. Um die Doppelfunktion hervorzuheben, werden die für den Nutzer und Wissensmanager relevanten Attribute in der Abbildung mit einem „N/M“ markiert.
  11. Die Bewertung der potenziellen Informationsquellen zur Sicherstellung der Anforderung an Datenqualität ist ein essenzieller Teilschritt im Rahmen des Erhebungskonzepts. Unter diesem Gesichtspunkt wurde für die Anwendung in der Informationsangebotsanalyse eine Bewertungsmaske entwickelt, mit dem Ziel, vergleichbare und objektive Bewertungen von Dokumenten als Informationsquelle zu ermöglichen. Um dies zu erreichen, darf dem Nutzer nur wenig subjektiver Ermessensspielraum zugesprochen werden. Unter Berücksichtigung dieser Vorgabe wurde ein binäres Bewertungssystem in Form von Entscheidungsfragen (Ja/Nein) erarbeitet, dass auf 15 definierten Kriterien für Datenqualität basiert, die sich in vier Hauptkategorien unterteilen: Innere Datenqualität, Kontextuelle Datenqualität, Darstellungsqualität und Zugangsqualität. Die Durchführung der Bewertung und Beantwortung der Fragen erfolgt auf einer geschützten Eingabemaske, die automatisch alle Teilergebnisse aufsummiert und das Endergebnis übersichtlich im Netzdiagramm visualisiert. Die Bewertung ist wie bereits erwähnt ebenso zwingend in den Organisationsdaten zu dokumentieren.
  12. Anhand dieser Ergebnisse lassen sich nun Bewertungskonzept und Erhebungskonzept zusammenfassen.
  13. Im Rahmen der Zieldefinition erfolgt somit eine Spezifizierung der Objektdaten durch Definition der Metadaten. Eine Liste potentieller Quellen sowie die entsprechenden Quellenbewertungen werden im Rahmen der Informationsidentifikation in den Organisationsdaten dokumentiert. Die tatsächlich ausgewählten Quellen sowie die verwendeten Erhebungsmethoden sind im Rahmen der Erhebungsplanung zu protokollieren. Die Ergebnisse der Erhebung und Erfassung der Daten sowie alle Berechnungsschritte im Rahmen der Datenaufbereitung und –analyse sind ebenso in den entsprechenden Attributen der Organisationsdaten verbindlich anzugeben bzw. zu verknüpfen. Das Datenmodell ermöglicht damit das Monitoring des Erhebungspozesses und das Erhebungskonzept erfüllt folglich die Voraussetzungen für eine spätere nachvollziehbare und argumentierbare Kalkulation. Wie das Erhebungskonzept in der Praxis umzusetzen ist, möchte ich Ihnen nun anhand eines Beispiels für Büroflächenkosten veranschaulichen.
  14. Meinen Vortrag abschließen möchte ich nun mit einigen Handlungsempfehlungen, die man bei der Anwendung des Erhebungskonzepts berücksichtigen sollte. Zum Einen ist es erforderlich, für alle Eingangsdaten die entsprechenden Standardmethoden und Berechnungsmodelle zu erarbeiten. Besonders wichtig ist es in diesem Zusammenhang zu definieren, was unter Best Practice für bestimmte Eingangsparameter zu verstehen ist. Die Erhebung der Eingangsdaten kann je nach Informationsangebot und Parameter sehr aufwendig sein. Hier kann es sinnvoll sein die Datenerhebung von spezialisierten Unternehmen, wie etwa Cost Data oder Tsetinis+Partner durchführen zu lassen. Jedoch sollten die Erhebungsmethoden und zu dokumentierenden Schritte klar festgelegt sein, um die Nachvollziehbarkeit der Erhebung zu gewährleisten.
  15. Mit diesen Worten möchte ich meinen Vortrag beenden. Sollten von Ihrer Seite noch Fragen offen sein, können Sie mir diese nun gerne stellen. Vielen Dank für Ihre Aufmerksamkeit.