Multidimensionales Prozessbenchmarking im Krankenhaus – Entwicklung und Evaluation einer Methode mit der Data Envelopment Analysis DISSERTATION der Universität St. Gallen, Hochschule für Wirtschafts-, Rechts- und Sozialwissenschaften sowie Internationale Beziehungen (HSG) zur Erlangung der Würde eines Doktors der Wirtschaftswissenschaften vorgelegt von Christian Georgi aus Deutschland Genehmigt auf Antrag der Herren Prof. Dr. Klaus Möller und Prof. Dr. Wolfgang Schultze Dissertation Nr. 4522 Epubli GmbH, Berlin 2016
247
Embed
Multidimensionales Prozessbenchmarking im Krankenhaus ...FILE/dis4522.pdf · Multidimensionales Prozessbenchmarking im Krankenhaus – Entwicklung und Evaluation einer Methode mit
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Multidimensionales Prozessbenchmarking im Krankenhaus –
Entwicklung und Evaluation einer Methode mit der Data Envelopment Analysis
DISSERTATION
der Universität St. Gallen,
Hochschule für Wirtschafts-,
Rechts- und Sozialwissenschaften
sowie Internationale Beziehungen (HSG)
zur Erlangung der Würde eines
Doktors der Wirtschaftswissenschaften
vorgelegt von
Christian Georgi
aus
Deutschland
Genehmigt auf Antrag der Herren
Prof. Dr. Klaus Möller
und
Prof. Dr. Wolfgang Schultze
Dissertation Nr. 4522
Epubli GmbH, Berlin 2016
Die Universität St. Gallen, Hochschule für Wirtschafts-, Rechts- und Sozialwissen-
schaften sowie Internationale Beziehungen (HSG), gestattet hiermit die Drucklegung
der vorliegenden Dissertation, ohne damit zu den darin ausgesprochenen Anschauungen
Stellung zu nehmen.
St. Gallen, den 30. Mai 2016
Der Rektor
Prof. Dr. Thomas Bieger
Vorwort i
VORWORT
Die vorliegende Dissertation beschreibt Ergebnisse meiner wissenschaftlichen Arbeit
am Lehrstuhl für Controlling / Performance Management an der Universität St.
Gallen. Der erfolgreiche Abschluss des Vorhabens war nur mit der Unterstützung
zahlreicher Personen möglich, denen ich an dieser Stelle danken möchte.
Mein besonderer Dank gilt Prof. Dr. Klaus Möller, der mir als Doktorvater stets mit
fachlichem Rat zur Seite stand sowie den notwendigen Freiraum zur Umsetzung des
Vorhabens ermöglichte. Herrn Prof. Dr. Wolfgang Schultze danke ich für die
Übernahme des Korreferats und die gute Zusammenarbeit in den vergangenen Jahren.
Großer Dank gilt den Kollegen des Lehrstuhls für Controlling / Performance
Management und des Center for Performance Research & Analytics für die sehr
angenehme und kurzweilige Zusammenarbeit. Für die fachliche Unterstützung und
intensiven Diskussionen möchte ich insbesondere Dr. Ludwig Sedlmeier und Dr. Finn
Günther danken. Ebenso gilt den teilnehmenden Unternehmen und
Kooperationspartnern herzlicher Dank für die offene und vertrauensvolle
Zusammenarbeit, ohne die die vorliegende Arbeit nicht möglich gewesen wäre.
Ganz besonders bedanken möchte ich mich bei meiner Familie und meinen Freunden,
insbesondere Candy Richter, Laura Anne Schleif und Jacob Andreae, deren Geduld
und moralische Unterstützung maßgeblich zum Gelingen des Projekts beigetragen hat.
Der größte Dank gebührt meinen Eltern für die langjährige ideelle und finanzielle
Förderung meiner Ausbildung und die vorbehaltlose Unterstützung in allen bisherigen
Lebensphasen.
Köln, im Juli 2016
Christian Georgi
Zusammenfassung ii
ZUSAMMENFASSUNG
Eine hohe Transparenz der prozessualen Leistungserbringung ist eine wesentliche
Grundlage unternehmerischer Entscheidungen. Dabei ist branchenunabhängig eine
effiziente und strategiekonforme Ausführung der Prozesse maßgeblich für den Erfolg.
Insbesondere im Krankenhausumfeld ist in den vergangenen Jahren ein starker Anstieg
der Kosten zu konstatieren. Vor allem durch die Einführung der diagnosebezogenen
Fallgruppen (DRG/SwissDRG) wurden grundlegende Veränderungen im
Gesundheitswesen angestoßen, die sich u. a. in einem wachsenden wirtschaftlichen
Druck auf Krankenhäuser manifestieren. Dabei sind namentlich die Personal- und
Sachkosten stark angestiegen. Gleichzeitig wachsen sowohl die Herausforderungen
hinsichtlich der Finanzierung bestehender Strukturen als auch der notwendigen
Infrastrukturinvestitionen. Die Notwendigkeit, zur Bewältigung dieser Aufgaben den
Professionalisierungsgrad insbesondere im Unterstützungsbereich zu erhöhen, bildet
den Ausgangspunkt der Arbeit. Der Anspruch zur effizienten Prozessgestaltung ist für
die Unterstützungsprozesse besonders hoch, da diese ausgehend von einer Ergebnis-
bzw. Zieldefinition möglichst ressourcenschonend ausgeführt werden sollen.
Das Benchmarking bietet als etabliertes Konzept mit einem hohen praktischen
Anwendungsbezug einen strukturellen Rahmen, um sogenannte Best Practices zu
identifizieren und konkrete Handlungsempfehlungen abzuleiten. Dabei gehen mit dem
Benchmarking auf Prozessebene besondere Anforderungen hinsichtlich der
Vergleichbarkeit und der Ableitung individueller und zielspezifischer Referenzwerte
einher. Die vorgeschlagene Methode zum prozessbasierten Benchmarking stellt die
Unterstützung unternehmerischer Entscheidungen in den Mittelpunkt und besteht aus
zwei Kernelementen. Zum einen wird ein Vorgehensmodell zur Strukturierung der
Prozesse mit Rückgriff auf Techniken der Referenzmodellierung präsentiert, zum
anderen wird darauf aufbauend eine Systematik zur effizienzbasierten
Leistungsmessung auf Prozessebene vorgestellt. Zur Messung der Effizienz wird dabei
die Data Envelopment Analysis eingesetzt. Abschließend werden die Kernbestandteile
mit dem Ziel der systematischen Ableitung von Handlungsempfehlungen
zusammengeführt und eine transparente Basis für das Treffen von strategischen und
operativen Entscheidungen bereitgestellt. Beide Bestandteile der Methode werden
anhand eines ausgewählten Unterstützungsbereichs mithilfe empirischer Daten von
Krankenhäusern aus Deutschland und der Schweiz validiert.
Management Summary iii
MANAGEMENT SUMMARY
A high level of transparency concerning the processual performance of services
delivered is an essential basis for entrepreneurial decisions. Irrespective of the industry
involved, an efficient and strategy-guided execution of process is a critical success
factor. Transparency demands thereby cover both structural and performance aspects.
Over the last decade, healthcare costs have risen sharply and, especially for hospitals, a
massive increase in costs can be seen. In particular, with the introduction of the
DRG/SwissDRG to national healthcare systems, essential modifications have been
initiated. Besides raising demand concerning quality aspects, a central consequence
has been increasing economic pressure on hospitals. Above all, personnel and material
costs have shown a significant increase. At the same time, hospitals are facing
challenges concerning both the financing of current structures and necessary
infrastructure investments. Associated with this obvious need for action is the
requirement for a higher degree of professionalism in primary and secondary activities.
In particular, support processes in hospitals can be delayed by the development of
state-of-the-art structures and measures. Due to this, support processes are the focus of
this study. Support processes are characterized by the special requirement to execute
processes efficiently; predefined results and targets should be achieved with a
minimum amount of resources.
Benchmarking is an established management concept that offers a structural
framework to identify best practices and derive goal-oriented guidance. As it is so
implementation oriented, benchmarking enables the practically oriented merging of
strategic and operational targets. It must be stated that benchmarking, on a process
level, raises special challenges concerning comparability and the derivation of
individual and goal-oriented reference levels. The proposed method for process-based
benchmarking focuses on the support of managerial decisions and comprises two
central elements. Firstly, a procedure model to structure the process environment is
presented, with recourse to established techniques of reference modeling. Secondly, a
systematization for an efficiency-based performance measurement on the process level
is described. For this, the established method for efficiency measurement, Data
Envelopment Analysis (DEA), is used. In conclusion, the two parts of the method are
brought together with the aim of providing a valid basis for operative and strategic
decisions. Both parts of the method will be validated against a selected support area,
using empirical data from hospitals in Germany and Switzerland.
Inhaltsverzeichnis iv
INHALTSVERZEICHNIS
VORWORT ....................................................................................................................... I
ZUSAMMENFASSUNG ..................................................................................................... II
MANAGEMENT SUMMARY............................................................................................ III
INHALTSVERZEICHNIS .................................................................................................. IV
ABBILDUNGEN ............................................................................................................... IX
TABELLEN ..................................................................................................................... XI
ABKÜRZUNGEN ............................................................................................................ XII
SYMBOLE ..................................................................................................................... XIV
1 EINLEITUNG UND ZIELSETZUNG ............................................................................ 1
1.1 Problemstellung und Relevanz ............................................................................. 1
1.2 Zielsetzung des Forschungsvorhabens ................................................................. 3
Tabelle 9: Ergebnisübersicht der zielgerichteten Benchmarks (normiert) .................. 174
Tabelle 10: Überblick beispielhafter Handlungsempfehlungen je Dimension ........... 178
Abkürzungen xii
ABKÜRZUNGEN
AHP Analytic Hierarchy Process
ANP Analytic Network Process
ARIS Architektur Integrierter Informationssysteme
BANF Bestellanforderung
BCC Abkürzung Entwickler Banker, Charnes und Cooper
BPI Business Process Improvement
BPMI Business Process Management Initiative
BPMN Business Process Model and Notation 2.0
BPR Business Process Reengineering
CCR Abkürzung der Entwickler Charnes, Cooper, Rhodes
CRS Constant Resturns to Scale
DEA Data Envelopment Analysis
DMU Decision Making Unit
DRG Diagnosis Related Groups
EMS Efficiency Measurement System (Software)
EPK Ereignisgesteuerte Prozesskette
ERM Entitiy-Relationship-Modell
FDH Free Disposable Hull
FHC Financial Holding Companies
FP Faktorproduktivität
GBE Gesundheitsberichtserstattung des Bundes
GKV Gesetzliche Krankenversicherung
GoM Grundsätze ordnungsgemäßer Modellierung
GP Geschäftsprozess
HP Hauptprozess
IG Investitionsgüter
IKT Informations- und Kommunikationstechnologien
KH Krankenhaus
KHG Krankenhausfinanzierungsgesetz
Abkürzungen xiii
KHEntgG Krankenhausentgeltgesetz
KMU Kleine- und mittlere Unternehmen
LOVeM Line of Visibility Engineering Methodology
MADM Multi Attribute Decision Making
MCDA Multi Criteria Decision Analysis
MCDM Multi Criteria Decision Making
MODM Multi Objective Decision Marking
MPG Medizinproduktegesetz
MPSS Most Productive Scale Size
NDRS Non-decreasing returns to scale
NIRS Non-increasing returns to scale
OB Operative Beschaffung
OMG Object Management Group
PROMETHEE Preference Ranking Organization METHod for Enrichment
Evaluations
SCOR Supply-Chain-Operations-Reference-Modell
SDEA Stochastic Data Envelopment Analysis
SE Skalenerträge
SKE Skaleneffizienz
SFA Strochastic Frontier Analysis
SG Sortimentsgestaltung
SGB Sozialgesetzbuch
SSC Swiss Diagnosis Related Groups
SwissDRG SwissDRG
TP Teilprozess
TQM Total Quality Management
UML Unified Modeling Language
VEM Vektorielles Entscheidungsmodell
VG Verbrauchsgüter
VRS Variable returns on scale
WWS Warenwirtschaftssystem
Symbole xiv
SYMBOLE
𝑎 Alternativen
𝐴 Produktionsraum
g Anspruchsniveau des Inputs
h Anspruchsniveau des Outputs
ℎ0 Input-Effizienzwert der DMU 0 im primalen linearen Programm
i Index des Inputarten
j Index der Beobachtungen
m Anzahl der Inputs
M Maverick-Index
n Anzahl der Beobachtungen
r Index der Outputarten
s Anzahl der Outputs
s+ Schlupfvariable für Output
s- Schlupfvariable für Input
𝑥 Menge des Inputs
𝑦 Menge des Outputs
𝑧 Zielfunktion
𝛼 Gewichtungsfaktor
𝛿 Effizienzwert
휀 Residuum (Fehlerterm)
𝐸 Effizienzmaß
𝜃 Effizienzfaktor
𝜅 Nicht arimedische Konstante
𝜆 Skalenniveaufaktor
𝜇 Skalenfaktor für Output
𝜈 Skalenfaktor für Input
𝑇 Technologiemenge
Einleitung und Zielsetzung 1
1 EINLEITUNG UND ZIELSETZUNG
In diesem Kapitel wird zunächst die Problemstellung und Relevanz der Arbeit darlegt,
bevor die Ziele des Forschungsvorhabens beschrieben werden. Abschließend wird der
grundsätzliche Aufbau der vorliegenden Arbeit erläutert.
1.1 Problemstellung und Relevanz
Der größte Block der Gesundheitsausgaben in Deutschland entfällt auf den Sektor der
stationären Krankenhäuser mit Gesamtkosten von ca. 90 Mrd. Euro (2013), wobei
allein in den vergangenen fünf Jahren ein Anstieg von ca. 24 % zu verzeichnen war
(Destatis, 2014).1 Neben einem erheblichen Anstieg der Sachkosten ist zu beobachten,
dass die Krankenhäuser insbesondere von steigenden Personalkosten betroffen sind.2
Dabei ist neben einem Anstieg der Kosten der wertschöpfenden Aktivitäten, die hier
als ökonomischer Ausdruck der unmittelbar medizinischen Leistungen verstanden
werden, eine ähnliche Entwicklung in den unterstützenden Bereichen zu beobachten.
Dies beschreibt jedoch kein branchenspezifisches Problem, da eine
überdurchschnittliche Steigerung der Gemeinkosten im Vergleich zu den Einzelkosten
branchenübergreifend konstatiert werden kann (Horváth, 2011). Ziel ist die
Erbringung eines unterstützenden Beitrags zur Wertschöpfung, wobei die klare
Zuordnung zur direkten Leistungserbringung in diesem Kontext eine Herausforderung
darstellt (Schweitzer 1997; Porter, 1985). Die unterstützenden Aktivitäten haben dabei
insbesondere planenden, steuernden, koordinierenden und kontrollierenden Charakter
und betreffen vergleichsweise schwierig zu definierende Leistungseinheiten (Horváth,
2011). Eine besondere Herausforderung ist die Bewertung der Leistungsfähigkeit. Die
zahlreichen strukturellen Veränderungen, insbesondere die Einführung der
diagnosebezogenen Fallgruppen (Diagnosis Related Groups, DRG) mit dem Ziel der
Erhöhung der Transparenz und der Stabilisierung der Gesundheitsausgaben, haben
eine Quasi-Deckelung der Erträge der Krankenhäuser zur Folge (Fleßa, 2013;
Haubrock, 2009a). Entsprechend sind die Krankenhäuser gezwungen, ihre Leistungen
sehr ressourceneffizient auszuführen und gleichzeitig den geforderten
Sicherheitsstandards zu entsprechen, die Qualität der Leistungserbringung zu
optimieren und nicht zuletzt den Bedürfnissen der Patienten bestmöglich gerecht zu
1 Die Daten beziehen sich auf die Bundesrepublik Deutschland für den Zeitraum 2008–2013. Es werden die
Gesamtkosten, einschließlich der Kosten für Ausbildungsstätten und Aufwendungen für den
Ausbildungsfonds angegeben (nichtstationäre Leistungen in Höhe von ca. 12 Mrd. Euro). 2 Das Verhältnis zwischen Personal- und Sachkosten beträgt ca. 60 : 40.
Einleitung und Zielsetzung 2
werden (Vos et al., 2009). Diese Entwicklungen spiegeln sich in einem Anstieg der
Fallzahlen um 7 % bei einer gleichzeitigen Reduktion der Anzahl der Krankenhäuser
um 4 % wider (Destatis, 2014).3 Dabei arbeiteten 2012 in Deutschland ca. 35 % der
Krankenhäuser unwirtschaftlich, ca. 13 % wurden gar als insolvenzgefährdet
eingestuft (Reifferscheid, 2015; Augurzky et al., 2014). Entsprechend besteht für die
unterstützenden Bereiche die Forderung, sich auf eine effiziente Leistungserbringung
und bestmögliche Unterstützung der medizinischen Aktivitäten zu fokussieren. Daraus
erwachsen konkrete Transparenzanforderungen in Bezug auf Struktur und Leistung.
Veranlasst durch den Erfolg anderer Branchen und den steigenden finanziellen
Handlungsdruck, wird zunehmend ein prozessorientiertes Denken verfolgt und es
werden Techniken des Prozessmanagements angewendet, die von der kontinuierlichen
Verbesserung in kleinen Schritten bis hin zur Restrukturierung ganzer Prozessabläufe
reichen (Cleven et al., 2014; Rohner, 2012). Die Effizienzsteigerung in Organisationen
erfordert eine Verbesserung der Prozessausführung (González et al., 2010).
Gleichzeitig besteht die Notwendigkeit der ständigen Weiterentwicklung der
Prozessstrukturen bzw. der Etablierung transparenter Prozessarchitekturen, um sich
veränderlichen Rahmenbedingungen anzupassen. Die prozessbasierte Betrachtung der
Leistungserbringung wird als multidimensionales Konstrukt der Dimensionen Zeit,
Qualität und Kosten beschrieben, die mit entsprechend unterschiedlichen
Maßeinheiten in die Betrachtung eingehen (Gaitanides et al., 1994b). Eine
multidimensionale Betrachtung mit Berücksichtigung finanzieller Messgrößen ist
dabei einer dimensionsfokussierten Betrachtung vorzuziehen (Maskell, 1998). Für die
Unterstützungsprozesse besteht die Herausforderung darin, dass ein Zusammenhang
zwischen den eingesetzten Mitteln und dem erzielten Output nicht ohne Weiteres
hergestellt werden kann. Das etablierte Verfahren des Benchmarkings wird als
übergeordneter Rahmen eingesetzt, um eine aus Managementsicht notwendige
Informationsaufbereitung im Sinne einer validen Vergleichsgrundlage für operative
(z. B. Prozessoptimierungen) und strategische (z. B. Make-or-buy-Entscheidungen)
Fragestellungen bereitzustellen. Dabei ermöglicht die Messbarkeit von Informationen
Unternehmen ihre Leistungsfähigkeit einzuschätzen und künftig zu steigern sowie die
Prognostizierbarkeit zu erhöhen (González et al., 2010). Benchmarking kann dabei
helfen, effiziente Prozesse zu identifizieren und Referenzwerte für die Verbesserung
ineffizienter Prozesse bereitzustellen (Talluri, 2000a). Zudem bildet die durch das
3 Die Verweildauer hat sich seit 1993 fast halbiert auf durchschnittlich 7,5 Tage, die Anzahl der
Krankenhäuser seit 1993 fast um 15 % reduziert.
Einleitung und Zielsetzung 3
Benchmarking erreichte Transparenz die Basis für eine Steigerung der
Entscheidungsqualität im Hinblick auf die Unterstützung strategischer
Planungsaspekte sowie die Ableitung strategischer und operativer Zielsetzungen
(Zairi, 1994; Camp, 1995; Smith, 2000).
1.2 Zielsetzung des Forschungsvorhabens
Übergeordnetes Forschungsziel der Arbeit ist die Entwicklung einer Methode zum
prozessbasierten Benchmarking von Unterstützungsprozessen im Krankenhaus, die der
Verbesserung unternehmerischer Entscheidungen dient, indem sie Transparenz
hinsichtlich der Struktur und Leistungsfähigkeit der zugrunde liegenden Prozesse
herstellt. Neben dem konzeptionellen Teil steht insbesondere die empirische
Validierung des Verfahrens im Vordergrund. Dabei sollen explizit die Erfolgsfaktoren
der operativen Leistungserstellung adressiert werden, die durch aktives Management
der Geschäftsprozesse gestaltet werden können. Eingebettet in das etablierte
Benchmarkingkonzept werden als Ergebnis des systematischen Vorgehens valide,
effizienzbasierte Referenzwerte ermittelt, die das Management bei der Ableitung
konkreter Prozessziele unterstützen und somit der Anforderung einer klaren
quantitativen Beschreibung des notwenigen Handlungsbedarfs entsprechen. Dazu soll
zum einen auf die eigene Leistungsfähigkeit zurückgegriffen werden, zum anderen soll
eine systematische Identifikation von Best Practices als extern validierten und
definierten Leistungsstandards erfolgen, die eine Orientierung an effizienten und
innovativen Unternehmen ermöglichen. Das Forschungsvorhaben nutzt Erkenntnisse
und Methoden aus dem Controlling, der Wirtschaftsinformatik und dem Operations
Research. Die zentrale Forschungsfrage lautet:
Wie muss eine Methode zum prozessbasierten Benchmarking von
Unterstützungsprozessen im Krankenhaus ausgestaltet sein?
Aus dem übergeordneten Forschungsziel und der Forschungsfrage lassen sich
vertiefende Forschungsfragen definieren, die in der angegebenen Reihenfolge
beantwortet werden sollen:
Welche Anforderungen sind an eine Methode zum prozessbasierten
Benchmarking nicht-wertschöpfender Prozesse im Krankenhaus zu stellen?
Wie muss eine Modellierung der Prozessstruktur für den indirekten
Leistungsbereich eines Krankenhauses ausgestaltet sein?
Einleitung und Zielsetzung 4
Wie muss eine Systematik zur Leistungsanalyse in Unterstützungsprozessen im
Krankenhaus ausgestaltet sein?
Wie können die Informationen der Prozessstrukturierung und der
Leistungsanalyse zur Ableitung von Handlungsempfehlungen genutzt werden?
Wie können Informationen und Erkenntnisse mit dem Ziel der
Entscheidungsunterstützung aufbereitet werden?
1.3 Vorgehensweise
Zunächst werden die wissenschaftliche Einordnung des Forschungsvorhabens und das
Forschungsdesign beschrieben (Kapitel 2). Anschließend werden die theoretischen
Grundlagen erörtert und wichtige Begriffe definiert (Kapitel 3). Der Fokus liegt
hierbei auf der Effizienz als dem zugrunde liegenden Entscheidungskriterium im
Hinblick auf ein zielgerichtetes Prozessmanagement und die Einbindung des
Benchmarkings auf Prozessebene. Es folgt die detaillierte Beschreibung des
Untersuchungsfeldes, in der explizit die Situation im deutschen Gesundheitswesen
betrachtet wird. Zudem wird eine bibliometrische Analyse durchgeführt, wobei die in
Kapitel 3 vorgestellten Begrifflichkeiten zusammengeführt werden und eine
systematische Analyse der differenzierten Anwendungsfelder erfolgt. Ergebnis der
Betrachtungen ist die Definition von Anforderungen an eine branchenspezifische
Methode zum prozessbasierten Benchmarking (Kapitel 4). Nach einem Überblick über
die theoretischen Grundlagen zur Referenzmodellierung wird ein Vorgehensmodell
entwickelt, dessen Fokus auf der Prozessstrukturierung mithilfe von
Referenzprozessmodellen liegt. Abschließend erfolgt eine exemplarische Anwendung
und Validierung in einem indirekten Leistungsbereich des Krankenhauses, inkl. der
Erstellung eines Referenzprozessmodells (Kapitel 5). Auf dieser Grundlage wird die
Systematik zur effizienzbasierten Leistungsmessung mithilfe der Data Envelopment
Analysis beschrieben und unter Verwendung empirischer Daten von 46
Krankenhäusern beispielhaft umgesetzt. Die individuelle Betrachtung der prozessualen
Effizienzwerte erfolgt dabei anhand einer ausgewählten Untersuchungseinheit
(Kapitel 6). Das Potenzial einer Zusammenführung der Ergebnisse der beiden
Kernbestandteile der Methode besteht in der Identifikation operativer Stellhebel und
der Ableitung konkreter Handlungsempfehlungen (Kapitel 7). Die Arbeit schließt mit
einer Zusammenfassung der Innovationsbeiträge und einer kritischen Würdigung des
entwickelten Vorgehensmodells für Wissenschaft und Praxis, bevor abschließend ein
Ausblick für künftige Forschungsvorhaben gegeben wird (Kapitel 8).
Einleitung und Zielsetzung 5
Abbildung 1: Aufbau der Arbeit (eigene Darstellung)
Konzept und Methodik des Forschungsvorhabens 6
2 KONZEPT UND METHODIK DES FORSCHUNGSVORHABENS
In diesem Kapitel wird das grundsätzliche Forschungsdesign beschrieben sowie dessen
wissenschaftstheoretische Fundierung und der Ablauf des Vorhabens dargelegt.
Darüber hinaus erfolgt die Konzeption des theoretischen Bezugsrahmens auf der Basis
einer Diskussion der zugrunde liegenden wissenschaftlichen Theorien.
2.1 Wissenschaftstheoretische Einordung
Aufgabe der Wissenschaft ist die Generierung wissenschaftlichen Fortschritts, wobei
diese durch das Streben nach Wahrheit, Informationsgehalt und Neuheit sowie den
daraus resultierenden Zielkonflikt geprägt ist (Chmielewicz, 1979; Schanz, 1978).4 In
diesem Sinne ist Wissenschaft ein systematischer Erkenntnisprozess mit dem Ziel, den
Wissensvorrat zu vergrößern (Kornmeier, 2007; Fülbier, 2004; Chmielewicz, 1979).
Wissenschaft umfasst das Bemühen, Informationen über unterschiedliche Ereignisse in
der Natur und/oder menschlichem Zusammenleben „zu sammeln, zu ordnen und
Aussagen über ihre innere Verbundenheit zu machen“ (Schnell et al., 2013, S. 45).
Wichtiges Kriterium ist dabei, die Gewinnung der Erkenntnisse so zu gestalten, dass
sie für Dritte nachvollziehbar sind (Schnell et al., 2005). Fokus der vorliegenden
Arbeit ist die Konstruktion und Anwendung einer Methode zum prozessorientierten
Benchmarking von Unterstützungsprozessen im Krankenhaus, die durch Wahrheits-
und Informationsgehalt zu einer Verbesserung der gegenwärtigen Situation beitragen
soll. Nach Schweitzer (1978, S. 1) beschäftigt sich die Betriebswirtschaftslehre als
Wissenschaft mit dem „gesamten Wissen und seiner Vermehrung über das
Wirtschaften in Betrieben.“ Da sich die Betriebswirtschaftslehre auf vorhandene, in
der Realität beobachtbare Gegenstände, Strukturen, Größen oder Relationen bezieht,
wird sie dem Bereich der Realwissenschaften zugeordnet (Schanz, 1978; Schweitzer,
1978; Raffée, 1974).5 Die Realwissenschaften können entsprechend ihrem
spezifischen Zweck bzw. Ziel grundsätzlich in reine und angewandte Wissenschaften
4 Raffée (1974, S. 13) weist dem Wissenschaftsbegriff drei Bedeutungen zu. Die Wissenschaft als Tätigkeit
bezieht sich auf die „systematische Gewinnung von Erkenntnis“, während die Wissenschaft als Institution ein
System von Menschen und Dingen umfasst, „innerhalb dessen sich der Prozess der Erkenntnisgewinnung
vollzieht“. Drittens wird Wissenschaft als Ergebnis der Tätigkeit verstanden, wobei die Elemente in einer
„systematischen Zuordnung zueinander stehen und/oder durch systematische Reflektion kontrolliert wurden.“ 5 Unterschieden wird in metaphysische und nicht-metaphysische Wissenschaft, wobei Letztere in Real- und
Formalwissenschaften differenziert wird. Realwissenschaften fokussieren reale Phänomene,
Formalwissenschaften beschäftigen sich insbesondere mit Methoden und abstrakten Objekten, wobei logisch
überprüfbare Aussagen und Ergebnisse generiert werden (Kornmeier, 2007; Raffée, 1974).
Konzept und Methodik des Forschungsvorhabens 7
unterschieden werden (Ulrich & Hill, 1979; Raffée, 1974).6 Bei der reinen
Wissenschaft steht der Erkenntnisfortschritt im Fokus, wobei die Konzentration
explizit auf der Erlangung und Sammlung neuen Wissens liegt (Kornmeier, 2007). Die
angewandte Wissenschaft ist auf die praktische Umsetzung der gewonnenen
Erkenntnisse gerichtet, wobei das theoretische Wissen für die Selektion und Adaption
von Handlungsempfehlungen mit dem Ziel der Verbesserung der wirtschaftlichen
Leistungsfähigkeit von Unternehmen genutzt wird (Kornmeier, 2007; Ulrich, 1984).
In der wirtschaftstheoretischen Literatur wird grundsätzlich zwischen vier
Wissenschaftszielen differenziert (Chmielewicz, 1994). Das deskriptive bzw.
essentialistische Wissenschaftsziel kann als Fundamentalziel angesehen werden, es ist
auf eine möglichst präzise Beschreibung der realen Betrachtungsobjekte und ihrer
Ziel der vorliegenden Arbeit ist die Identifikation und Präsentation einer validen
Grundlage zur Ableitung von Entscheidungen und konkreten Handlungsempfehlungen
für die effiziente Gestaltung und Ausführung von Unterstützungsprozessen im
Krankenhaus. Die Konstruktion entsprechender Modelle und Strukturen unterstützt die
Entscheidungen zur Generierung bestmöglicher Lösungen und das Erreichen der
6 Angewandte Wissenschaft wird zudem in wertende und wertfreie Wissenschaft unterschieden (Raffée, 1974;
Bamberg et al., 2012). 7 Werturteile besitzen keinen empirischen Gehalt, sondern haben lediglich Weisungsgehalt, der anhand seiner
Akzeptanz beurteilt werden kann (Schweitzer, 1978).
Konzept und Methodik des Forschungsvorhabens 8
individuellen Ziele, wobei neben den informations- auch die gestaltungsfunktionalen
Merkmale der Betriebswirtschaftslehre deutlich werden (Heinen, 1978). Damit wird
ein pragmatisches Wissenschaftsziel verfolgt, das einen hohen Bezug zu praktischen
Problemstellungen aufweist und somit der anwendungsorientierten Wissenschaft
zuzuordnen ist.
Abgeleitet aus dem geschilderten Wissenschaftsziel kann die erkenntnistheoretische
Position der Arbeit bestimmt werden. Diese kann auf vier zentrale Dimensionen
reduziert werden, wobei die erkenntnistheoretische Verortung erklärt, wie die
Wissenschaft zur Erreichung eines Erkenntnisfortschritts aus Sicht der
Betriebswirtschaftslehre betrieben werden muss (Kornmeier, 2007). Der Realismus
unterstellt die Existenz einer vom Denken unabhängigen Realität, die durch
Wahrnehmung und Denken vollständig bzw. in wesentlichen Teilen erkannt und
beschrieben werden kann. Als Einschränkung erweist sich, dass Individuen jeweils nur
einen Teil der Informationen wahrnehmen können, die von der Umwelt bereitgestellt
werden. Zudem unterliegen die individuellen Wahrnehmungen Verzerrungen und
Täuschungen (Kornmeier, 2007; Haug, 2004). Dem steht der radikale
Konstruktivismus gegenüber, der die Realität als subjektabhängiges Konstrukt ansieht
und davon ausgeht, dass die Realität durch Beobachtungen konstruiert wird und daher
einer subjektiven Interpretation unterliegt. Entsprechend werden Theorien lediglich als
nutzenstiftende Fiktionen angesehen, die jedoch nicht veridikal sind (Schnell et al.,
2013; Kornmeier, 2007).
Aus erkenntnistheoretischer Sicht haben sich der klassische Rationalismus und der
klassische Empirismus als die zentralen Positionen herausgebildet (Kern, 1979;
Kornmeier, 2007). Der klassische Rationalismus gründet auf Verstand und Vernunft
als Ursprung der Erkenntnis, nicht auf sinnliche Erfahrung. Dabei geht jeder
Beobachtung eine Theorie voraus, um Erkenntnisse deduktiv aus Beobachtungen oder
Experimenten abzuleiten. Dem steht der klassische Empirismus gegenüber, der aus
einer endlichen Anzahl an Beobachtungen induktiv auf allgemeingültige
Gesetzesaussagen schließt, wobei die Erfahrung als wichtigste Quelle menschlicher
Erkenntnis angesehen wird (Kornmeier, 2007; Schnell et al., 2013). Die radikalen
Positionen sowohl des klassischen Rationalismus als auch des klassischen Empirismus
gelten in der Wirtschaftstheorie als überwunden, da sich weder die reine Deduktion
noch die reine Induktion als allein zielführend erwiesen hat (Schmid, 1996).8
8 Ausführungen zu den Schwachstellen der klassischen Erkenntnislehre finden sich bei Kern (1979).
Konzept und Methodik des Forschungsvorhabens 9
Die heutige Betriebswirtschaftslehre ist vor allem durch den kritischen Rationalismus
und den Konstruktivismus geprägt, wobei insbesondere erstgenannter wesentliche
Elemente der radikalen Positionen aufgenommen hat (Kern, 1979; Fülbier, 2004). Der
kritische Rationalismus geht davon aus, dass eine objektive Realität existiert und
formal erkennbar ist, diese jedoch nur subjektiv begriffen werden kann (Schirmer
2009). Die implizite Unterstellung der Fehlbarkeit der menschlichen Vernunft führt
dazu, dass die Erkenntnisse lediglich als vorläufig anzusehen sind (Kornmeier, 2007).
Damit erfolgt ein Wechsel vom Anspruch der Verifikation hin zur Falsifikation im
Sinne einer andauernden Suche nach der Wahrheit (Popper, 1994). Durch Falsifikation
von Hypothesen kann eine Annäherung an die Realität erfolgen (Rommelfanger &
Eickemeier, 2002; Kornmeier, 2007). Der oben beschriebene radikale
Konstruktivismus als Kritik des naiven Realismus ist klar vom Konstruktivismus der
Erlanger Schule abzugrenzen.9 Letztgenannter ist vom Begründungsanspruch des
klassischen Rationalismus geprägt, wobei aufbauend auf theoretischen Überlegungen
und Argumentationen deduktiv Erkenntnisse gewonnen werden, die jedoch nicht als
endgültig angesehen werden (Kornmeier, 2007; Lorenzen, 1974). Ziel ist die
Generierung von Wissen in Form eines Konsenses als übereinstimmendes Ergebnis
der an der Diskussion beteiligten Experten (Schnell et al., 2013). Die vorliegende
Arbeit folgt dem Konstruktivismus, wobei meta-theoretischen Fragen mit Empirie
verbunden werden (Kornmeier, 2007). Dabei werden die Hürden und
Herausforderungen des Benchmarkings auf Prozessebene untersucht und eine Methode
mit dem Ziel der Unterstützung unternehmerischer Entscheidungen konzipiert und
validiert.
2.2 Gestaltung des Forschungsdesigns
Nach der wissenschaftstheoretischen Einordung wird im Folgenden der konzeptionelle
Handlungsrahmen definiert. Für die Umsetzung eines realwissenschaftlichen,
entscheidungsorientierten Forschungsvorhabens bedarf es einer engen Kooperation mit
der Unternehmenspraxis (Möller, 2002). Liegt das Untersuchungsfeld in einem wenig
bekannten Wirklichkeitsbereich und zeichnet sich durch einen hohen
Spezifikationsgrad aus, haben sich qualitative Forschungsansätze als besonders
geeignet erwiesen (Flick et al., 2008; Atteslander, 2008). Als grundlegendes Merkmal
9 Dabei zeichnen sich konstruktivistische Theorien dadurch aus, dass die Realität vom individuellen
Standpunkt aus gesehen und konstruiert wird (Schirmer, 2009).
Konzept und Methodik des Forschungsvorhabens 10
qualitativer Forschung10 wird insbesondere die Ausweitung des explorativen Aspekts
auf die gesamte Untersuchung betont (Kromrey, 2006; Gerdes, 1979). Das ermöglicht
eine systematische Berücksichtigung von durch Beziehungen und Werte geprägten
komplexen Zusammenhängen (Atteslander, 2008). Dabei ist das Verfolgen einer
dualen Forschungsstrategie, die das „schöpferische Entwerfen neuer Konzepte und
Techniken“ neben dem empirischen Forschungsaspekt formuliert, anzustreben
(Chmielewicz, 1978, S. 437).
In der vorliegenden Betrachtung ist von einem komplexen Umfeld auszugehen, sodass
sich ein explorativer Forschungsansatz als geeignet erweist.11 Die Untersuchung
erfolgt fokussiert auf den konkreten Anwendungsbereich der Unterstützungsprozesse
im Krankenhaus. Für die Durchführung von Benchmarking-Anwendungen existieren
zwar etablierte und anerkannte Konzepte, jedoch fehlt es an Konzeptionen im
genannten Anwendungsbereich, insbesondere im Hinblick auf eine systematische
Entscheidungsunterstützung. Die Überprüfung einer Neukonzeption bzw.
Verfeinerung der Methode erfolgt daher mithilfe von Momentaufnahmen und
fallstudienähnlichen Vergleichsstudien. Die vorliegende Arbeit fokussiert dabei auf
den Umsetzungs- und Anwendungsaspekt als eine zentrale Zielsetzung und stellt so
die Verbindung zwischen theoretischer Konzeption und Fundierung und der
analytischen Anwendung in der Praxis her.12 Dabei wird gemäß dem oben dargelegten
anwendungsorientierten Wissenschaftsverständnis der Versuch unternommen, über die
Erklärung eines Realitätsabschnittes hinaus Handlungsempfehlungen für die
Erreichung definierter Ziele zu erarbeiten (Heinen, 1978). Ziel der qualitativen
Untersuchung ist die detaillierte Beschreibung und Evaluation, wobei zum einen die
Überprüfung der „Wirksamkeit, Effizienz und Zielerreichung“ der Prozesse und
Modelle angestrebt wird, zum anderen sollen die Ergebnisse „Entscheidungs- und
Planungshilfen liefern und aus Sicht ihrer Auftraggeber zu verbesserter Steuerung,
höherer Rationalität und verbesserter Qualität“ der Ausführungen und Angebote
führen (Kardorff, 2008, S. 239).13
10 Kromrey (2006) betont, dass im Rahmen qualitativer Forschung der subjektiven Perspektive der
Untersuchten entscheidende Bedeutung zugewiesen wird, jedoch ohne die differenzierten und getrennten
Rollen von Forschendem und dem Objekt der Datenerhebung infrage zu stellen. 11 Heinen (1978, S. 226) führt aus, dass die vorliegende Problemstellung ausschlaggebend für die Wahl der
Methodik ist. Dabei ist nicht von einem Entweder-oder zwischen rein deduktiven oder rein induktiven
Forschungsmethoden zu wählen, vielmehr geht es um ein Sowohl-als-auch. 12 Erklärte Zielsetzung qualitativer Forschung ist das Verstehen und Erklären komplexer Zusammenhänge,
nicht die „Erklärung durch die Isolierung einzelner (z. B. Ursache-Wirkungs-)Beziehung[en]“ (Flick et al.,
2008, S. 23). 13 Zielsetzung ist ausdrücklich nicht die Bildung von Theorien bzw. Überprüfung theoriebasierter Hypothesen.
Konzept und Methodik des Forschungsvorhabens 11
Für die Durchführung qualitativer Forschungsvorhaben haben sich diverse
grundlegende Konzepte bewährt, sodass hier eine Kurzcharakteristik der
angesprochenen Vergleichsstudien und Momentaufnahmen vorgenommen werden
soll.14 Während Fallstudien auf die präzise Beschreibung bzw. Rekonstruktion eines
Falls gerichtet sind15, wird im Rahmen von Vergleichsstudien der Fall nicht in seiner
umfassenden Komplexität und Ganzheit betrachtet, sondern eine Vielzahl von Fällen
wird hinsichtlich eines bestimmten Ausschnitts analysiert. Dabei werden explizit die
spezifischen Inhalte des Expertenwissens mehrerer Personen im Hinblick auf eine
konkrete Fragestellung genutzt. Die zentrale Herausforderung in der Betrachtung
mehrerer Fälle besteht in der Notwendigkeit, einen angemessen Standardisierungsgrad
bzw. die konstante Beibehaltung der weiteren (strukturellen) Rahmenbedingungen
sicherzustellen. In der vorliegenden Untersuchung soll das mithilfe einer
systematischen Beschreibung des Untersuchungsumfeldes und einer entsprechenden
Integration der dort identifizierten Kriterien gewährleistet werden. Hinsichtlich der
zeitlichen Dimension wird eine Momentaufnahme angestrebt, wobei Beispiele und
Wissen aus früheren Erfahrungen und Rekonstruktionen in die Betrachtung
einbezogen werden und das Interesse auf die individuelle Sicht der Beteiligten gelenkt
wird (Flick, 2008a). Im Rahmen des Forschungsvorhabens werden zahlreiche
unterschiedliche Quellen für die Gewinnung von Informationen genutzt (Schnell et al.,
2013). Diese sog. Triangulation beschreibt im vorliegenden Kontext die Betrachtung
eines Untersuchungsobjekts aus unterschiedlichen Perspektiven, wobei in der
vorliegenden Arbeit vorrangig eine Nutzung unterschiedlicher Daten (z.B. Interviews,
Dokumente, Prozesscharts, Datenbanken) erfolgt (Flick, 2008b).16 Eine zentrale
Fragestellung in qualitativen Untersuchungen ist die Auswahl des betrachteten Falls
bzw. Samples, wobei betont wird, dass bei der Konstruktion der Stichprobe nach einer
maximalen Variation gestrebt werden sollte (Merkens, 2008; Patton, 1990). Im
Rahmen der Betrachtung kommt das theoretical sampling, das eng verbunden ist mit
14 Ausführungen zu den Möglichkeiten qualitativen Designs finden sich bei Creswell (1998). 15 Detaillierte Informationen zu Charakteristika und Gestaltungsmöglichkeiten der Fallstudienforschung finden
sich bspw. bei Yin (2013), Eisenhardt (1989) und Lamnek (2010). Ein Fall kann dabei sowohl eine Person,
Gruppe, Organisation als auch ein gesellschaftliches Teilsystem oder eine Kombination daraus sein
(Brüsemeister, 2008). 16 Dabei kann grundsätzlich in die Triangulation von Daten, Theorien, Investigatoren und Methoden
unterschieden werden (Flick, 2008b).
Konzept und Methodik des Forschungsvorhabens 12
dem Grounded-Theory-Ansatz17, zum Einsatz. Im Laufe der Untersuchung erfolgt eine
bewusste Auswahl der einbezogenen Untersuchungsobjekte, da sich die Vorstellungen
erst im Laufe der Untersuchung endgültig konkretisieren (Merkens, 2008; Glaser &
Strauss, 1967).
2.3 Ablauf des Forschungsvorhabens
Der Ablauf des Forschungsvorhabens gliedert sich in die drei Dimensionen
Entdeckungs-, Begründungs- und Verwertungszusammenhang, wobei Verknüpfungen
zwischen den Dimensionen bestehen (Atteslander, 2008). Wie in Abbildung 2
dargestellt, erfolgt in der Dimension Entdeckungszusammenhang die Formulierung
der Zielsetzung und eine Beschreibung der Problemstellung, die den Ausgangspunkt
für das Forschungsvorhaben bildet. Dabei wird das Fehlen einer einheitlichen Methode
zum prozessbasierten Benchmarking mit Berücksichtigung der notwendigen
Vergleichsbasis erörtert und die Forschungslücke benannt.
Abbildung 2: Ablauf des Forschungsvorhabens (eigene Darstellung in Anlehnung an Atteslander,2008, S. 46 f. sowie
grafisch an Sedlmeier, 2015, S. 13)
17 Ausführungen zum Grounded-Theory-Ansatz finden sich z. B. bei Glaser und Strauss (1967) sowie Strauss
und Corbin (1996). Besondere Merkmale sind dabei die extensive Datenanalyse und die ständig
vergleichende Analyse sowie die unmittelbare Rückkopplung der Analyse zur Datensammlung (Kromrey,
2006).
Konzept und Methodik des Forschungsvorhabens 13
In der Dimension Begründungszusammenhang erfolgt zum einen die Darlegung der
Forschungskonzeption inkl. der Auswahl der Forschungsmethode, zum anderen
werden die zugrunde liegenden Theorien und Begriffe definiert und abgegrenzt.
Daneben bilden die ausführliche Beschreibung des Untersuchungsgegenstandes und
die systematische Analyse der Literatur den Rahmen für die Durchführung des
innovativen Teils des Vorhabens. Die Entwicklung und Anwendung einer Methode
mit entscheidungsunterstützendem Charakter ist in die aufeinander aufbauenden
Schritte der Prozessstrukturierung und der Prozessleistungsbetrachtung untergliedert.
Diese werden abschließend zusammengeführt und jeweils empirisch auf ihre
Praxistauglichkeit überprüft. Die Ableitung konkreter Handlungsempfehlungen bildet
den Übergang zur Dimension Verwertungszusammenhang, welche die identifizierten
Problemlösungen aufnimmt und Gestaltungsempfehlungen für Wissenschaft und
Praxis formuliert. Das entspricht insbesondere dem wissenserweiternden Anspruch des
erkenntnistheoretischen Forschungskonzepts.
2.4 Konzeption des theoretischen Bezugsrahmens
Die Konzeption des theoretischen Bezugsrahmens bildet einen wesentlichen
Bestandteil der wissenschaftlichen Fundierung des Forschungsvorhabens. Zu diesem
Zweck werden die zugrunde liegenden Theorien erörtert und abschließend in Form
eines Forschungsrahmens zusammengefügt.
2.4.1 Transaktionskostentheorie
Die Transaktionskostentheorie, die der neuen Institutionenökonomik zugeordnet wird,
geht auf einen grundlegenden Aufsatz von COASE (1937) und entscheidende
Weiterentwicklungen durch WILLIAMSON (1975, 1985, 1996) zurück. Im Unterschied
zur neoklassischen Marktheorie werden Markt und Hierarchie in der
Institutionenökonomik als konkurrierende Koordinationsinstitutionen betrachtet
(Müller-Stewens & Lechner, 2011). Dabei untersucht die Transaktionskostentheorie
die Frage nach Art und Ausmaß der Spezialisierung sowie damit verbunden nach der
Form der Koordination arbeitsteilig erstellter Leistungen (Ebers & Gotsch, 2006). Die
Transaktion ist dabei der zentrale Untersuchungsgegenstand, wobei
Austauschbeziehungen spezialisierter Akteure arbeitsteiliger Wirtschaftssysteme den
Ausgangspunkt bilden (Picot et al., 2008). Dietl (2007, S. 1750 f.) definiert
Transaktionen als die „Übertragung eines Vor- oder Zwischenprodukts bzw. einer
Konzept und Methodik des Forschungsvorhabens 14
Dienstleistung von einer vorgelagerten auf eine nachgelagerte Produktionsstufe.“18 Die
bei Transaktionen für die Koordination zwischen den Kooperationspartnern
verursachten Kosten werden als Transaktionskosten bezeichnet (Dietl, 2007; Müller-
Stewens & Lechner, 2011).19 Ziel der Untersuchungen ist die „Entwicklung effizienter
Regeln zur Koordination wirtschaftlicher Aktivitäten“ (Müller-Stewens & Lechner,
2011, S. 133). Dabei bestimmen die Anforderungen hinsichtlich der Koordination
einer Transaktion und die Anpassungsfähigkeiten alternativer Organisationsformen die
Grenze zwischen Markt und Unternehmen, d. h. die optimale Unternehmensgröße
(Dietl, 2007).20 Die im Rahmen der Definition implizit angesprochene physische
Übertragung von Gütern und Dienstleistungen erlaubt eine Interpretation des
Transaktionsbegriffs als „Übergabe von Objekten zwischen unterschiedlichen
Bearbeitungsstationen innerhalb eines Unternehmens“ (Gaitanides, 2012, S. 68).
PICOT ET AL. (2008) betonen zudem, dass die Transaktionskostentheorie über die
Anwendung im Rahmen des Tausches und der Abstimmung zwischen spezialisierten
Akteuren hinausgeht und ebenso in der Lage ist, Fragestellungen der bestmöglichen
Spezialisierung bzw. Arbeitsteilung zu annoncieren. Die Einflussfaktoren auf die Höhe
der Transaktionskosten können drei zentrale Dimensionen kategorisiert werden (Picot
et al., 2008; Williamson, 1990). Abbildung 3 veranschaulicht die Dimensionen und
deren Zusammenwirken, wobei begrenzte Rationalität und Opportunismus als die
zentralen Verhaltensannahmen deklariert sind. Die Annahme begrenzter Rationalität
ist zum einen durch die eingeschränkte bzw. begrenze Kapazität zur Aufnahme und
Verarbeitung von Informationen begründet, zum anderen durch Probleme bei der
verbalen Kommunikation einer bestimmten Klasse von Wissen (Simon, 1957; Franck,
1992; Berger & Bernhard-Mehlich, 2006). Die Opportunismusannahme besagt, dass
Akteure nutzenmaximierend handeln, wobei sie ihre individuellen Ziele und eigenen
Interessen verfolgen, die im Zweifel auch zum Nachteil Dritter und entgegen sozialen
Standards angestrebt werden (Ebers & Gotsch, 2006; Picot et al., 2008). Dabei soll
ausdrücklich erwähnt werden, dass die Verhaltensannahmen nicht nur Individuen,
sondern ebenso Organisationen betreffen (Picot et al. 2008).21 Von besonderer
Relevanz für die Höhe der Transaktionskosten ist die Spezifität der Transaktion bzw.
18 Williamson (1990) betont die Übertragung über eine technische Schnittstelle hinweg. 19 Transaktionskosten können dabei sowohl ex post als auch ex ante anfallen (Williamson, 1985). Einen
Überblick über mögliche Kostenkategorien geben Ebers und Gotsch (2006). 20 Hervorgehoben wird insbesondere das Effizienzkriterium, da es vorrangig darum geht, eine möglichst
effiziente Form der Kooperation zur Leistungserbringung zu identifizieren (Müller-Stewens & Lechner,
2011; Ebers & Gotsch, 2006). 21 Eine dritte Annahme beschreibt die Risikoneutralität, die zur Modellvereinfachung angenommen wird
(Williamson, 1985; Ebers & Gotsch, 2006).
Konzept und Methodik des Forschungsvorhabens 15
deren strategische Bedeutung (Williamson, 1990). Nach PICOT ET AL. (2008, S. 59) ist
die Spezifität dabei charakterisierbar „als Widmung der im Rahmen der Transaktion
benötigten Ressourcen“. Für die Erstellung eines Gutes bzw. zur Erbringung der
vereinbarten Leistung wird auf mehr oder weniger spezialisierte Input-Faktoren
zurückgegriffen. Dabei ist von besonderer Relevanz, inwieweit die zu tätigenden
Investitionen auf die auszutauschenden Güter und Dienstleistungen zugeschnitten sind
(Ebers & Gotsch, 2006).
Abbildung 3: Einflussfaktoren auf die Transaktionskosten (Picot et al. 2008, S. 58; dort zitiert Williamson 1975, S. 40)
Die Spezifität ist umso höher, je größer die Wertdifferenz zwischen der intendierten
Verwendung der zu tätigenden Investitionen im Vergleich zu einer alternativen bzw.
zweitbesten Verwendung der Ressourcen ist (Picot et al., 2008).22 Hinsichtlich der
Spezifität werden unterschiedliche Spezifitätsarten in Abhängigkeit von den
notwendigen Investitionen unterschieden (Williamson, 1989). Dabei ist ein hoher
Spezifikationsgrad dann problematisch, wenn er mit einer hohen strategischen
Bedeutung einhergeht, da dort keine Referenzfälle vorliegen und der Schutz der
Problemlösung von großer Relevanz ist (Picot et al., 2008; Krahnen, 1991).
Entsprechend werden mit einem höheren Grad an Spezifikation statt marktlicher eher
kooperative oder hierarchische Koordinationsformen genutzt (Müller-Stewens &
Lechner, 2011). Die Häufigkeit bezieht sich auf die Anzahl der Wiederholungen eines
bestimmten Transaktionstyps, um die getätigten Investitionen zu rechtfertigen (Picot
et al., 2008). Dabei unterstützt eine häufige Wiederholung die Realisierung von
Skalen- und Synergieeffekten. Es ist hinzuzufügen, dass die Häufigkeit bei isolierter
Betrachtung eine untergeordnete Bedeutung besitzt, wie in Abbildung 4 dargestellt
22 Der Begriff der Quasi-Rente hat sich als Bezeichnung für die beschriebene Wertdifferenz etabliert
(Windsperger, 1996).
Konzept und Methodik des Forschungsvorhabens 16
jedoch in Kombination mit der Spezifität / strategischen Bedeutung ausschlaggebend
für den Integrationsgrad ist (Ebers & Gotsch, 2006).23
Abbildung 4: Darstellung der Koordinationskurven (eigene Darstellung in Anlehnung an Picot et al., 2008, S. 70)
Die dritte Dimension erfasst die Transaktionsatmosphäre, wobei damit alle
„soziokulturellen und technischen Faktoren, die in einer gegebenen Situation Einfluss
auf die Transaktionskosten verschiedener Koordinations- und Motivationsinstrumente
haben“, berücksichtigt werden (Picot et al., 2008, S. 61). Der Fokus der
Transaktionskostentheorie auf die „Optimierung des Leistungsaustausches zwischen
spezialisierten Akteuren“ wird deutlich, indem die innerbetriebliche arbeitsteilige
Leistungserbringung dann vorteilhaft ist, wenn die damit verbundenen
Herausforderungen hinsichtlich der Koordination und Motivation besser gelöst werden
können als dies über eine marktseitige Abwicklung möglich wäre (Picot et al., 2008, S.
66). Unternehmen können dabei als „Koordinationsmechanismus“ gesehen werden,
der in Konkurrenz zu weiteren Koordinationsmechanismen (Markt,
Kooperationsverträge, öffentliche Verwaltung) steht (Dietl, 2007, S. 1754).
Koordinationsmechanismen unterscheiden sich im Hinblick auf Anreizintensität,
Kontrollstrukturen und zugrunde liegendes Vertragsrecht, wobei das Ziel der
Transaktionskostentheorie darin besteht, anhand der spezifischen Stärken und
Schwächen diejenige Koordinationsform zu bestimmen, die mit Rücksicht auf die
23 Dabei ist hervorzuheben, dass der vertikale Integrationsgrad, der das Verhältnis zwischen Fremd- und
Eigenerstellung einer Leistung beschreibt, ein zentrales Anwendungsgebiet der Transaktionskostentheorie ist
Eigenschaften der Transaktion unter Beachtung der Einflussfaktoren die geringsten
Transaktionskosten verursacht (Dietl, 2007).24
Aus der Perspektive des Managements ergeben sich daraus zum einen Fragen
hinsichtlich des In-/Outsourcings von Leistungen bzw. der Auslagerungen spezifischer
Leistungsbereiche25, z. B. in Shared Service Center (SSC), zum anderen Fragen zur
optimalen Organisationsstruktur, z. B. Ablauf- vs. Aufbauorganisation (Müller-
Stewens & Lechner, 2011). Entsprechend der dargelegten Problemstellung ist
insbesondere die Frage nach der bestmöglichen Spezialisierung und der Arbeitsteilung
der innerbetrieblichen Leistungserbringung von Relevanz. Ausgehend von einem
Prozessdenken hat die Zerlegung der Aufgaben direkte Auswirkungen auf die
Produktivität, wobei die Zerlegungslogik identifiziert werden soll, die zu einer
maximalen Effizienz führt (Picot et al., 2008). Diese Zielsetzung kann zum einen
durch Minimierung der Interdependenzen zwischen den Teilaufgaben26, zum anderen
durch Teilung der Aufgaben hinsichtlich der Stadien wissensökonomischer Reife
erreicht werden.27 Entscheidender Indikator für die zentrale bzw. dezentrale
Ausführung der innerbetrieblichen Aufgaben ist dabei die Kompatibilität des Wissens.
Dazu wird eine Analyse anhand der Spezifität der Infrastruktur und der Fachspezifität
vorgeschlagen, wobei in Unterstützungsprozessen im Krankenhaus eine
vergleichsweise geringe Ausprägung hinsichtlich beider Kriterien zu beobachten ist
und somit weniger die Zentralisierungsfrage als strategische Make-or-buy-
Entscheidungen im Vordergrund stehen (Picot et al., 2008; 1990).28 Aufgrund der
Besonderheiten des Gesundheitsbereichs ist außerdem zu betonen, dass die primären
medizinischen Bereiche entscheidenden Einfluss auf die Leistungserbringung sowie
24 Ausführungen zu den unterschiedlichen Ausprägungen institutionellen Arrangements finden sich z. B. bei
Ebers und Gotsch (2006). 25 Informationen zum Outsourcing finden sich bspw. bei Ghodeswar und Vaidyanathan (2008). 26 Dabei wird in gepoolte, sequenzielle, reziproke und teamorientierte Interdependenz unterschieden. Mit
steigender Unabhängigkeit der Teilaufgaben sinkt der Abstimmungsbedarf bei Erhöhung der Integrativität
der Arbeit des Aufgabenträgers (Picot et al., 2008). 27 Die mangelnde Artikulierbarkeit bestimmter Wissensteile impliziert die Vermeidung eines aufwendigen
Wissenstransfers zwischen den Transaktionspartnern durch eine Vereinfachung bzw. Reduktion der
Austauschprozesse. Wissensökonomische Reife ist dann erreicht, wenn spezialisierte Leistungen, die zur
Weiterverwendung bestimmt sind, explizites Wissen enthalten, das jedoch für die Gegenseite für die
Weiterentwicklung der Leistung nicht von Bedeutung ist (Dietl, 1993; Picot et al., 2008). 28 Infrastrukturspezifität beschreibt dabei jene Aufgaben, die zur „Entwicklung und Durchsetzung allgemeiner
und übergreifender Rahmenbedingungen“ notwendig sind, wobei diese dann hoch ausgeprägt sind, wenn
diese Aufgaben von anderen Unternehmen grundsätzlich anders gelöst werden. Die Fachspezifität ist
hingegen eng mit der tatsächlichen primären Wertschöpfung verbunden (Picot et al., 2008, S. 64).
Informationen zur Zerlegung von Unternehmen in Ressourcen, Fähigkeiten und Kernfähigkeiten und damit
verbundenen Kernkompetenzen zur strategischen Differenzierung von Wettbewerbern finden sich bei
Müller-Stewens und Lechner (2011).
Konzept und Methodik des Forschungsvorhabens 18
deren Finanzierung und Vergütung ausüben.29 Grundsätzlich können veränderte
Transaktionseigenschaften zu Reorganisationsbestrebungen führen (Dietl, 2007; Picot
et al., 2008). Die Transaktionskostentheorie integriert die Ergebnisse weiterer
organisationstheoretischer Ansätze, z. B. der verhaltenswissenschaftlichen
Entscheidungstheorie (Ebers & Gotsch, 2006), und ermöglicht mit vergleichsweise
wenigen Annahmen sowie einem relativ einfachen theoretischen Grundgerüst „ein
hohes Maß an praktischer Orientierungshilfe“ bei einem gleichzeitig breiten
betriebswirtschaftlichen Anwendungsfeld (Dietl, 2007, S. 1758).
2.4.2 Entscheidungstheorie
Unternehmen verfolgen die übergeordnete Zielsetzung, im Rahmen der
Geschäftstätigkeit den Einsatz von Technologie und Wissen durch zielorientiertes
Management derart für die Erstellung von Produkten und Dienstleistungen zu nutzen,
dass der Wert der erbrachten Leistung den Wert der eingesetzten Produktionsfaktoren
übersteigt. Dabei sind die operativen und strategischen Maßnahmen das Ergebnis
unternehmerischer Entscheidungen (Liermann, 2004). Eine Entscheidung ist definiert
als „Akt, bei dem bewusst eine von mehreren Handlungsalternativen zur Erreichung
eines Ziels ausgewählt“ wird (Rommelfanger & Eickemeier, 2002, S. 1). Die
Bewertung von Handlungsalternativen setzt die Prognose der daraus resultierenden
Konsequenzen voraus (Heinen, 1978). Das Controlling hat dabei eine unterstützende
Funktion hinsichtlich Objekt- und/oder Organisationsentscheidungen auf
unterschiedlichen Hierarchieebenen und bei der Bewältigung unterschiedlicher
Aufgaben, wobei insbesondere auf die Operationalisierung und systematische
Erfassung von Soll- und Ist-Werten sowie die Ursachenanalyse zu verweisen ist
(Liermann, 2004; Fischer et al., 2012).
Grundsätzlich lässt sich die Entscheidungstheorie in einen deskriptiven und einen
präskriptiven Ansatz differenzieren. Die präskriptive Entscheidungstheorie beschreibt,
wie rational bestmögliche Entscheidungen im Hinblick auf ein spezifisches Ziel
getroffen werden können. Die deskriptive Entscheidungstheorie beschreibt hingegen,
wie Entscheidungen in der Realität zustande kommen, und erklärt, warum die
Entscheidungen in dieser Form getroffen wurden (Laux et al., 2014; Bamberg et al.,
2012). HEINEN (1969) versteht die präskriptive bzw. normative Entscheidungstheorie
als Antwort auf die Frage, wie das Entscheidungsverhalten von Entscheidungsträgern
29 Siehe dazu detailliert Kap. 4 dieser Arbeit.
Konzept und Methodik des Forschungsvorhabens 19
ausgestaltet sein soll, um definierte Ziele optimal zu erreichen. Dabei erfolgt die
Abgrenzung von der normativen Entscheidungstheorie, indem die präskriptive
Entscheidungstheorie nicht über vordefinierte Ziele in Form von Idealen und
Standards verfügt, diese werden auf der Basis der individuellen
Entscheidungspräferenzen definiert (Nitzsch, 1992). Neben dem Ziel, erfolgreichere
Entscheidungen zu fördern, ist die Herstellung einer größtmöglichen Transparenz der
Entscheidungsgrundlage ein wichtiges Ziel der präskriptiven Entscheidungstheorie
(Eisenführ & Weber, 2003). Die präskriptive Entscheidungstheorie geht von der
Annahme eines rational agierenden Entscheidungsträgers aus (Bamberg, 2012). Dabei
wird vorausgesetzt, dass der Entscheider über ein widerspruchsfreies Zielsystem
verfügt und sich diesem entsprechend verhält (formale Rationalität). Zudem wird
zwischen objektiver und subjektiver Rationalität unterschieden, wobei objektive
Rationalität dann vorliegt, wenn die Wahrnehmung des Entscheidungsträgers mit den
Informationen über die Realität übereinstimmt, die ein unabhängiger kompetenter
Dritter ermitteln kann. Eine Entscheidung ist hingegen bereits subjektiv rational, wenn
die vom individuellen Entscheidungsträger wahrgenommenen Informationen mit der
Realität deckungsgleich sind (Rommelfanger & Eickemeier, 2002; Bamberg et al.,
2012).30 Deshalb ist die Konsistenz der Entscheidungsgrundlage von besonderer
Bedeutung (Eisenführ & Weber, 2003). Die Erstellung von Entscheidungsmodellen ist
daher wichtiger Bestandteil der präskriptiven Entscheidungstheorie. Ein Modell ist
nach entscheidungstheoretischem Verständnis eine vereinfachte, jedoch
strukturgleiche und zweckorientierte Abbildung des realen Sachverhalts (Bamberg et
al., 2012; Schneeweiß, 1991). Die Erstellung eines Entscheidungsmodells umfasst die
formalisierte Definition der als wesentlich identifizierten Elemente und Beziehungen
hinsichtlich einer problembehafteten Handlungssituation mit dem Ziel, logische
Implikationen aus dem resultierenden Strukturkomplex abzuleiten. Es werden
allgemeine und konkrete Entscheidungsmodelle unterschieden, wobei sich konkrete
Entscheidungsmodelle auf spezifische Entscheidungssituationen beziehen (Bretzke,
1980). Ziel ist die zielorientierte Auswahl und Entwicklung von Instrumenten und
Methoden zur Lösung spezifischer realer Entscheidungssituationen. Die Aufgabe
entscheidungstheoretischer Forschung ist vorrangig darin zu sehen, eine möglichst
klare Formulierung der dem Modell zugrunde liegenden Annahmen und
Anforderungen vorzunehmen. Die häufig mathematische Bestimmung der optimalen
30 Zimmermann (1987) differenziert das zugrunde liegende „innere Modell“ in 1) individuelle Werte, Ziele und
Kriterien, 2) Überzeugungen, die mögliche Konsequenzen der Alternativen determinieren und 3) möglichen
Verhaltensweisen.
Konzept und Methodik des Forschungsvorhabens 20
Lösung des Modells zeigt die bestmöglichen Handlungen und Aktionen auf. Die
Existenz eines geeigneten Lösungsverfahrens für die konkrete Modellkonfiguration ist
dabei notwendig (Laux et al., 2014).
Die deskriptive Entscheidungstheorie widmet sich der Beschreibung, Analyse und
Erklärung des tatsächlichen Entscheidungsverhaltens in der Realität (Bamberg et al.,
2012). Dabei soll ein Zusammenhang zwischen der vorliegenden
Entscheidungssituation und der empirisch beobachteten Entscheidung hergestellt
werden (Rommelfanger & Eickemeier, 2002). Ziel ist es, Hypothesen über das
Verhalten von Individuen/Gruppen im Entscheidungsprozess aufzustellen, um im
Anwendungsfall Prognosen hinsichtlich der Entscheidung stellen zu können (Laux
et al., 2014). Im Rahmen der deskriptiven Entscheidungstheorie wird versucht, die
grundsätzliche, modellinhärente Eigenschaft der präskriptiven Entscheidungstheorie,
die von Tatsachen und Präferenzen ausgeht und die Rationalität des
Entscheidungsträgers voraussetzt (Bamberg et al., 2012), durch die systematische
Einbeziehung der empirisch beobachtbaren Abweichungen vom rationalen Verhalten
zu ergänzen (Rommelfanger & Eickemeier, 2002). Das Konzept der beschränkten
Rationalität widerspricht dem Konzept des Homo oeconomicus, indem argumentiert
wird, dass Entscheidungsträger zum einen nur über eine beschränkte
Informationsverarbeitungskapazität verfügen, sodass das Treffen rationaler
Entscheidungen ausgeschlossen ist, und dass zum anderen nicht alle Alternativen und
damit verbundenen Konsequenzen bekannt sind und in den Entscheidungsprozess
einbezogen werden können (March & Simon, 1958; Zimmermann, 1987). Es wird
deutlich, dass im Gegensatz zur präskriptiven Entscheidungstheorie, welche auf die
Entscheidungslogik fokussiert, in der deskriptiven Entscheidungstheorie das Verhalten
des Entscheidungsträgers ins Blickfeld rückt (Bamberg et al., 2012; Berger &
Bernhard-Mehlich, 2006). Dabei kann eine Entscheidung im Rahmen der deskriptiven
Entscheidungstheorie als Informationsverarbeitungsprozess gesehen werden, wobei in
Abhängigkeit von der Komplexität die Anzahl der Rückkopplungen variiert. In diesem
Zusammenhang ist insbesondere die Rolle des Entscheidungsträgers hervorzuheben,
der entsprechend seinen individuellen Zielen, seinen Fähigkeiten und Möglichkeiten
zur Bewertung der Lösungsvorschläge und seinen Fähigkeiten zur Abstraktion von
entsprechenden Handlungen entscheidenden Einfluss auf die Einschätzung und den
Umgang mit der jeweiligen Entscheidungssituation nimmt (Zimmermann 1987;
Zimmermann & Gutsche 1991). Für die vorliegende Arbeit besitzt die präskriptive
Entscheidungstheorie hohe Relevanz. ROMMELFANGER und EICKEMEIER (2002)
Konzept und Methodik des Forschungsvorhabens 21
betonen die Bedeutung der zielorientierten Unterstützung der Entscheidungsträger im
Entscheidungsprozess und heben die Notwendigkeit hervor, ein valides Instrument zur
Selektion und Systematisierung von Handlungsalternativen bereitzustellen. Diesem
Anspruch soll durch die Entwicklung der Methode zur systematischen Generierung
operativer und strategischer Handlungen entsprochen werden.
2.4.3 Ableitung des Forschungsrahmens
Die Transaktionskostentheorie und die Entscheidungstheorie bilden den theoretischen
Rahmen für das vorliegende Forschungsvorhaben. Dabei geht die präskriptive
Entscheidungstheorie von einem rationalen Entscheidungsträger aus, der eine
Maximierung seines individuellen Nutzens anstrebt (Rommelfanger & Eickemeier,
In der vorliegenden Arbeit werden explizit die Eigenschaften und Besonderheiten des
Krankenhausumfeldes berücksichtigt. Dabei wird zum einen Transparenz hinsichtlich
der genutzten Vergleichsgrundlage hergestellt, zum anderen wird eine Betrachtung der
prozessbasierten Leistungsfähigkeit vorgenommen. Die Ableitung konkreter
Zielsetzungen und Benchmarks mündet in die Generierung individueller
Handlungsempfehlungen auf der Basis der identifizierten Präferenzen und bietet eine
valide Grundlage für unternehmerische Entscheidungen. Dazu wird die Effizienz als
anerkanntes Kriterium für die Entscheidungsfindungen hinsichtlich der
Zentralisierung/Dezentralisierung von Geschäftsprozessen sowie zum Treffen von
Make-or-buy-Entscheidungen herangezogen.
Begriffliche und theoretische Grundlagen 22
3 BEGRIFFLICHE UND THEORETISCHE GRUNDLAGEN
In diesem Kapitel werden die grundsätzlichen Begriffe und Konzepte dargelegt, um
den Analyseraum theoretisch zu definieren sowie einen Überblick zu den
unterschiedlichen Themenfeldern bereitzustellen. Dabei werden insbesondere die
Begriffe Effizienz sowie Prozessmanagement erörtert und definitorisch abgegrenzt.
Darüber hinaus wird die grundlegende theoretische Fundierung des
Benchmarkingbegriffs und Benchmarking-Vorgehens dargelegt, das den Rahmen für
die zu entwickelnde Methode stiftet.
3.1 Effizienz als Grundlage des Prozessbenchmarkings
Nach einer Abgrenzung und Herleitung des Effizienzbegriffs werden unterschiedliche
Ausgestaltungen von Technologiemengen und Effizienzarten beschrieben.
Abschließend werden die Eigenschaften einer geeigneten Methode für den
leistungsspezifischen Teils des prozessbasierten Benchmarkings identifiziert und
diskutiert.
3.1.1 Abgrenzung der Begriffe Produktivität, Effizienz und Effektivität
Konzeptionelle Grundlage der betriebswirtschaftlichen Produktionstheorie ist die
Definition eines Unternehmens als Netz von Input/Output-Beziehungen, wobei der
Unternehmensprozess aus den drei Grundtatbeständen Faktoreinsatz,
Faktortransformation und Faktorertrag besteht (Gutenberg, 1989; Dyckhoff, 2006;
Coelli, 2005). Produktivität wird bestimmt als Quotient aus Produktionsergebnis
(Output) und allen für die Produktion eingesetzten Produktionsfaktoren (Input), wobei
Output und Input als Größen beschrieben werden, die hinsichtlich ihrer inhaltlichen
Struktur sowohl mengenmäßiger als auch wertmäßiger Ausprägung31 sein können
(Cantner et al., 2007; Färe et al., 2008).32 Das jeweilige Betrachtungsobjekt, z. B.
Prozess, Abteilung oder Unternehmen, wird im Folgenden als Entscheidungseinheit
31 Eine monetäre Bewertung erfordert die Verwendung konstanter Preise. 32 In der Literatur wird zwischen totaler und partieller Faktorproduktivität (FP) unterschieden, wobei die totale
FP die individuelle Gewichtung der einzelnen Inputs zum Output ins Verhältnis setzt, die partielle FP
hingegen bezeichnet eine isolierte Betrachtung eines Sachverhalts (Coelli, 2005; Hammerschmidt, 2006).
Begriffliche und theoretische Grundlagen 23
(Decision Making Unit, DMU)33 bezeichnet. Im Rahmen der Analyse ist hinsichtlich
der zeitlichen Dimension sowohl eine statische Analyse als auch eine dynamische
Betrachtung möglich (Cantner et al., 2007). Erfolgt die Verwendung verschiedener
Inputs mit heterogenen Maßeinheiten bzw. die Erzeugung verschiedener Outputs, ist
zum Zweck der Vergleichbarkeit eine Aggregation auf eine konsistente Einheit
unumgänglich (Coelli, 2005). Insbesondere zur Bereitstellung geeigneter
Informationen als Grundlage unternehmerischer Entscheidungen ist u. a. ein Vergleich
mit Produktivitätswerten anderer DMUs notwendig.
Effizienz bezeichnet ein Wirtschaftlichkeitsmaß, das durch eine Gegenüberstellung
von Zielerträgen und den dafür notwenigen Mitteln definiert ist (Cantner et al., 2007).
Ziel ist die optimale Verwendung des Inputs bzw. Erstellung des Outputs, wobei die
tatsächlichen Werte in Relation zu beobachteten oder theoretischen Größen gesetzt
werden und sowohl materieller als auch immaterieller Art sein können (Haas, 2004;
Scheel, 2000). Dem ökonomischen Prinzip folgend wird entweder ein größtmöglicher
Zielertrag mit gegebenem Mitteleinsatz (Maximum-Prinzip) oder ein gegebener
Zielertrag mit geringstmöglichem Mitteleinsatz (Minimum-Prinzip) verfolgt
(Dyckhoff, 2000). In Abhängigkeit von der individuellen Spezifikation der Ziele und
Mittel kann Produktivität als ein inhaltlich begrenzter Teil des Effizienzkonzepts
gesehen werden (Cantner et al., 2007).
Effektivität lässt sich von Produktivität und Effizienz insoweit abgrenzen, als damit
der Grad der Erreichung eines definierten Ziels ohne Berücksichtigung der dafür
notwendigen Mittel beschrieben wird (Drucker, 2006).34 NEELY ET AL., (2005)
beschreiben die Leistungsfähigkeit eines Unternehmens als eine Funktion aus
Effizienz und Effektivität der durchgeführten Aktivitäten. Das von VILFREDO PARETO
(1897) entwickelte schwache Wohlfahrtsprinzip bildet die Grundlage des
Effizienzbegriffs. Demnach ist ein Zustand dann optimal, wenn kein Individuum
bessergestellt werden kann, ohne dass sich ein anderes Individuum verschlechtert
(Scheel, 2000). Dieses Effizienzverständnis wurde von KOOPMANS (1951) auf die
Produktionstheorie übertragen. Demnach gilt eine Input/Output-Transformation (x, y)
als Pareto-Koopmans-effizient in Bezug auf die zugrunde liegende Technologiemenge
33 Der Begriff der Entscheidungseinheit leitet sich von „Decision Making Unit“ (DMU) aus der Literatur der
Data Envelopment Analysis (DEA) ab und fasst die in der klassischen Produktionstheorie üblichen
Bezeichnungen „Aktivität“, „Firma“ oder „Transformationsprozess“ etc. zusammen (Scheel, 2000).
Vereinfachend wird im Folgenden auch von Unternehmen gesprochen, wenn Entscheidungseinheiten im
Allgemeinen gemeint sind (Cantner et al., 2007). 34 Effektivität kann dabei als „doing the right things“ und Effizienz als „doing things right“ definiert werden
(Drucker, 2006, S. 145).
Begriffliche und theoretische Grundlagen 24
(T), wenn keine Verbesserung eines Input- bzw. Output-Faktors ohne die
Verschlechterung eines anderen Input- bzw. Output-Faktores erreicht werden kann
(Scheel, 2000). Unter Technologie wird die Menge aller aus technischer Sicht
möglichen Input/Output-Kombinationen verstanden (Cantner et al., 2007; Allen,
2002). Die Menge der Input/Output-Kombinationen kann, unter Außerachtlassung
aller sonstigen Einschränken hinsichtlich des Inputs, Throughputs und Outputs,
beschrieben werden als:
𝑇 ∶= {(𝑥, 𝑦)| Outputvektor 𝑦 kann von Inputvektor 𝑥 produziert werden}
Sie repräsentiert das technische und organisatorische Wissen aller DMUs (Dyckhoff,
2006; Scheel, 2000). Daraus resultierend agieren alle DMUs auf der Basis derselben
Technologiemenge. Die Technologiemenge kann aufgrund der Unvollständigkeit der
Informationen nicht exakt konstruiert werden, deshalb ist eine Approximation auf der
Basis der beobachteten Input/Output-Kombinationen und spezifischen Annahmen über
die strukturellen Eigenschaften der Technologiemenge notwendig (Scheel, 2000).
3.1.2 Eigenschaften von Technologiemengen
Skalenerträge (SE) beschreiben die Möglichkeiten der Veränderung der Größe (des
Skalenniveaus) einer DMU bei proportionaler Veränderung der Input- und Output-
Mengen (Allen, 2000; Köhne & Matz 2010).35 Dabei können die Technologiemengen,
wie in Abbildung 6 dargestellt, konstante, nicht zunehmende, nicht abnehmende und
(constant returns to scale, CRS) liegen vor, wenn bei einer Vervielfachung der Inputs
die Outputs um den gleichen Faktor ansteigen36; nicht zunehmende Skalenerträge
(non-increasing returns to scale, NIRS) beschreiben, dass bei einer Verkleinerung der
Inputs eine Verkleinerung der Outputs um den gleichen Faktor möglich ist; nicht
abnehmende Skalenerträge (non-decreasing returns to scale, NDRS) dagegen sind zu
beobachten, wenn die Vergrößerung der Outputs durch eine Vergrößerung der Inputs
um denselben Faktor möglich ist. Schließlich liegen variable Skalenerträge (variable
returns to scale, VRS) vor, wenn keiner der genannten Fälle vorliegt.37 Im Rahmen der
Analyse werden die Effizienzwerte mit unterschiedlichen Annahmen bestimmt, um
entsprechende Größeneffekte zu isolieren und zu analysieren (Scheel, 2000; Allen,
2002; Färe et al., 1994).
35 Im Folgenden werden nicht-parametrische Eigenschaften von Technologiemengen beschrieben. 36 Die Abbildung der konstanten Skalenerträge erfolgt durch die Gerade K in Abb. 6. 37 Es können jedoch Bereiche mit CRS, NIRS oder NDRS vorliegen.
Begriffliche und theoretische Grundlagen 25
Abbildung 6: Überblick zu unterschiedlichen Skalenertragsannahmen (eigene Darstellung in Anlehnung an Scheel, 2000, S.
42 und Cantner et al., 2007, S. 42)
Eine wichtige Eigenschaft beschreibt die Konvexitätsannahme, die definiert, dass jede
Input/Output-Kombination realisierbar ist, die anteilig aus mindestens zwei DMUs
gebildet werden kann. Die Bildung solcher hypothetischen Input/Output-
Kombinationen ist insbesondere vor dem Hintergrund des Benchmarkings relevant,
um damit ggf. nicht realisierbare Kombinationsmöglichkeiten zu identifizieren
(Scheel, 2000; Farrel, 1957).
Hinsichtlich der Verschwendbarkeit der Faktoren wird in freie Verschwendbarkeit und
schwache Verschwendbarkeit unterschieden. Freie Verschwendbarkeit der Inputs
(Outputs) liegt vor, wenn bei gleichbleibenden Outputs (Inputs) einzelne oder alle
Inputs (Outputs) erhöht (reduziert) werden können. Die schwache Verschwendbarkeit
beschreibt die Möglichkeit der proportionalen Erhöhung (Reduktion). Im Regelfall
wird bei Effizienzbetrachtungen freie Verschwendbarkeit angenommen (Allen, 2002).
SCHEEL (2000) weist zudem auf die strukturelle Annahme der Notwendigkeit einer
empirisch vollständigen Technologiemenge hin. Die Technologiemenge wird dann als
vollständig bezeichnet, wenn sie alle realen Input/Output-Kombinationen enthält. Dies
impliziert jedoch, dass potenzielle Mess- bzw. Übertragungsfehler in der Datenbasis
ignoriert werden.
3.1.3 Arten der Effizienz
Der Effizienzbegriff nach Pareto/Koopmans impliziert, dass ineffiziente Unternehmen
bei konstantem Output ihren Input reduzieren bzw. bei gleichbleibendem Input den
Output erhöhen können.38 Dabei werden lediglich Realkategorien (Mengen, Zeiten
38 Siehe Kap. 3.1.1 dieser Arbeit.
Begriffliche und theoretische Grundlagen 26
etc.) und keine Preise bzw. Wertkategorien berücksichtigt (Scheel, 2000; Köhne &
Matz, 2010; Farrel, 1957). Das von FARREL (1957) entwickelte Maß zur Bestimmung
des Effizienzgrades wird daher als technische Effizienz bezeichnet. Bei Annahme
konstanter Skalenerträge und der Verwendung multipler Input- und Output-Faktoren
wird eine DMU-spezifische Aussage zur Fähigkeit der Ressourcennutzung in
Abhängigkeit von der verfügbaren Technologie getroffen (Lovell, 1993; Köhne &
Matz, 2010). In Abbildung 7 repräsentiert die Isoquante SS* die möglichen
Kombinationen der Input-Faktoren zur Produktion des gewünschten Outputs. Der
Punkt Q repräsentiert eine effiziente DMU unter Nutzung der Input-Faktoren zur
Produktion des Outputs. Zur Produktion dieses Outputs setzt eine andere DMU in
Punkt P die Input-Faktoren im gleichen Verhältnis ein. Die DMU P benötigt somit das
0P/0Q-Fache der Input-Faktoren zur Produktion des Outputs. Die technische Effizienz
wird als das Verhältnis der Strecke 0Q/0P bestimmt, was dem Reziproken der von
SHEPHARD (1970) entwickelten Distanzfunktion entspricht. Technische Effizienz liegt
dann vor, wenn keine DMU bestimmbar ist, die den Output mit einem geringeren
Input produzieren kann. Die allokative Effizienz hingegen berücksichtigt ein
Wertesystem (z. B. Preise) für die Inputs und Outputs.39 Auf der Basis der
Ausprägungen der Preise des Inputs (Outputs) variieren die Kosten (Erträge) entlang
des effizienten Randes der Technologie. Die Isokostentangente AA′ bildet die
monetäre Bewertung der Input-Faktoren ab, wobei die Steigung durch das Verhältnis
der beiden Input-Faktoren bestimmt wird. Allokative Effizienz liegt vor, wenn keine
Änderung der Input/Output-Kombination hinsichtlich der verwendeten Inputs
(erzeugten Outputs) zur Senkung (Steigerung) der Kosten (Erträge) möglich ist. Punkt
Q' beschreibt die technisch und allokativ effiziente Position auf dem Technologierand.
Unter Präferenz der Beibehaltung des Input-Verhältnisses (Q und R liegen auf dem
Fahrstrahl) erfolgt eine Anpassung der Input-Mengen, um den technisch effizienten
Punkt Q zu erreichen. Die allokative Effizienz wird als das Verhältnis 0R/0Q bestimmt
und beschreibt die relative Abweichung des kostenminimalen und technisch
effizienten Punkts (Köhne & Matz, 2010).
39 Farrel (1957) spricht von Preiseffizienz.
Begriffliche und theoretische Grundlagen 27
Abbildung 7: Grafische Darstellung der Effizienz (eigene Darstellung in Anlehnung an Farrel, 1957, S. 254)
FARREL (1957) berechnet die Gesamteffizienz durch die Multiplikation der
technischen und der allokativen Effizienz:
𝐸 =0𝑄
0𝑃×
0𝑅
0𝑄=
0𝑅
0𝑃
Für die Betrachtung von Unterstützungsprozessen, die in dieser Untersuchung
vorgenommen wird, liegen lediglich für die Input-Faktoren Preisinformationen vor, da
kein Markt zur Monetisierung der Outputs existiert. Demnach kann anstelle der
Gesamteffizienz von Kosteneffizienz gesprochen werden (Flinspach, 2011; Burger,
2008), wobei die technische Effizienz das organisatorische Potenzial zur Verbesserung
beschreibt und die allokative Effizienz Auskunft über die bestmögliche Kombination
der Ressourcen (Inputs) aus ökonomischer Perspektive gibt. Bei der Kosteneffizienz
handelt es sich um ein radiales Effizienzmaß, das als monetäres oder mengenmäßiges
Verbesserungspotenzial interpretiert werden kann und damit den
produktionstheoretischen Fokus (Menge, Zeit) um die ökonomische Dimension
(Kosten) erweitert. Als Kritikpunkt wird angeführt, dass das radiale Effizienzmaß
lediglich proportionale Veränderungen von Input und Output berücksichtigt, sodass
nicht alle Kriterien der Pareto-Koopmans-Effizienz erfüllt werden. Eine derartige
Abschwächung der Pareto-Koopmans-Effizienz wird als schwache Effizienz
bezeichnet (Scheel, 2000; Coelli, 2005; Cantner et al., 2007).
Verbesserungspotenziale, die aufgrund der radialen Anpassung unberücksichtigt
Begriffliche und theoretische Grundlagen 28
bleiben, werden als sog. Slacks akzeptiert (Coelli, 2005; Cook & Zhu, 2005; Köhne &
Matz, 2010).
Nimmt die Größe einer DMU Einfluss auf die Effizienz, werden diese Abhängigkeiten
in nicht konstanten Skalenerträgen der Produktion abgebildet (Cantner et al., 2007).
Skalenineffizienz kann dann vorliegen, wenn die Output-Menge im Vergleich zur
DMU-Größe zu klein (groß) ist. Skaleneffiziente DMU operieren bei konstanten
Skalenerträgen, da in diesem Bereich eine Erhöhung der Input-Faktoren zu einer
Erhöhung der Outputs um denselben Faktor führt.40 Im Bereich nicht konstanter
Skalenerträge führt eine Erhöhung der Inputs zu einer unter- bzw. überproportionalen
Steigerung des Outputs. Befindet sich die (technisch effiziente) DMU im Bereich nicht
zunehmender (nicht abnehmender) Skalenerträge, muss aus der Perspektive der
Skaleneffizienz die Ausbringungsmenge der DMU entsprechend reduziert (erhöht)
werden, bis sich die DMU im Bereich konstanter Skalenerträge befindet. Um die
Richtung der Veränderung der Ausbringungsmenge zu klären, muss bestimmt werden,
welche Art variabler SE vorliegt (Färe et al., 1985). Bei nicht abnehmenden SE ist der
Wert der technischen Effizienz variabler SE größer als der Wert der technischen
Effizienz konstanter SE. Im Fall nicht zunehmender SE ist der technische
Effizienzwert variabler SE geringer als der technische Effizienzwert konstanter
Skalenerträge.41 Die Skaleneffizienz (SKE) kann durch das Verhältnis der Effizienz
unter konstanten Skalenerträgen (CRS) zur Effizienz unter variablen Skalenerträgen
3.1.6 Auswahl einer Methode zur Effizienzmessung auf Prozessebene
Grundsätzlich lässt sich konstatieren, dass im Bereich der Effizienzanalyse die
Methoden, die mit einer Produktionsfunktion operieren, den partiellen Kennzahlen
46 Sowohl DEA als auch FDH zählen zu den deterministischen nicht-parametrischen Verfahren. Eine Methode,
die die Vorteile deterministischer und stochastischer Verfahren verbindet, ist die Stochastic DEA (SDEA),
die jedoch bisher keine nennenswerte Anwendung im Healthcare-Bereich fand (Hollingsworth et al., 1999). 47 zur Konvexitätsannahme siehe auch Kap. 3.1.2 dieser Arbeit.
Begriffliche und theoretische Grundlagen 34
überlegen sind (Burger, 2008).48 Im Rahmen der empirischen Effizienzbetrachtung
kommen vorrangig die Stochastic Frontier Analysis (SFA) und die Data Envelopment
Analysis (DEA) zum Einsatz (Coelli, 2005). Beide Verfahren unterscheiden sich
insbesondere in der Notwendigkeit von Annahmen zum Verlauf der Effizienzfunktion
und der Möglichkeit zur Berücksichtigung von Messfehlern. Ersteres ist insbesondere
erfolgskritisch, da bei der SFA die Zusammenhänge und Verteilungszusammenhänge
zwischen Inputs und Outputs im Vorfeld spezifiziert werden müssen. Die DEA setzt
hingegen keine Annahmen über den Funktionsverlauf voraus. Insbesondere in
Unterstützungsprozessen sind die Outputs nicht monetarisierbar und somit ist nicht
von bekannten Produktionsbeziehungen zwischen den Input- und Output-Faktoren
auszugehen (Hammerschmidt, 2006). Die fehlende Gewinnfunktion ermöglicht
lediglich eine Analyse der Kosteneffizienz bzw. der produktiven Effizienz.
Grundsätzlich ist die DEA insbesondere zur Analyse produktiver Zusammenhänge
geeignet, während die SFA bei Analysen zur ökonomischen Effizienz weit verbreitet
ist (Berger & Mester, 1997). Im Fall der DEA ist die mangelnde Berücksichtigung von
Messfehlern bzw. stochastischen Einflüssen nachteilig und jede Abweichung vom
Technologierand wird als Ineffizienz klassifiziert (Cantner et al., 2007). Dabei werden
sowohl bei der DEA als auch bei der FDH Ausreißer als Teil der Technologiemenge
integriert und Zufallseinflüsse sowie Messfehler ausgeschlossen.49 Im Hinblick auf die
angestrebte Benchmarking-Anwendung ist es insbesondere von Interesse, dass für jede
betrachtete DMU eine individuelle Analyse möglich ist. Im Rahmen der DEA und der
FDH wird jede DMU als einzelnes Optimierungsproblem angesehen und durch das
iterative Vorgehen in der linearen Optimierung mit allen anderen Einheiten der
Technologie verglichen. Die Identifikation von anderen Einheiten mit ähnlicher
Input/Output-Kombination ist dabei durch die radiale Abstandsmessung gegeben und
ermöglicht so die Identifikation des nächstgelegenen Benchmarks (Hammerschmidt,
2006). Zudem ermöglicht einzig FDH eine Auswahl realer Benchmarks, da keine
Konvexitätsannahme vorliegt. Jedoch können sowohl bei FDH als auch SFA im
Gegensatz zur DEA keine eindeutigen Referenzkombinationen der Input/Output-
Faktoren identifiziert werden, da bei FDH aufgrund des nichtlinearen
Funktionsverlaufs mehrere Referenzpunkte ausgewiesen werden können und die SFA
48 Im Rahmen von Regressionsanalysen werden die identifizierten Ineffizienzen mit exogenen, nicht
beeinflussbaren Störungen und Einflüssen erklärt, wobei die Differenz zu den Best Practices damit nicht
ausreichend erklärt wird (Hammerschmidt, 2006). 49 Im Falle der SFA wird zumindest in der Theorie die Möglichkeit zur Unterscheidung von statistischem
Rauschen aufgrund der genannten Störungen und Ineffizienz gegeben (Cantner et al., 2007).
Begriffliche und theoretische Grundlagen 35
lediglich eine Schätzfunktion der Benchmarks bereitstellt.50 Der Fokus der
Benchmarking-Anwendung liegt jedoch nicht auf der Identifikation von
Durchschnittswerten, sondern im systematischen Aufdecken von Best Practices
(Camp, 1989). Wesentliches Merkmal der DEA und der FDH ist die vergleichsweise
einfache Erweiterbarkeit des Grundmodells und die Möglichkeit zur Berücksichtigung
multipler Inputs und Outputs sowie der Ausweis eines einzelnen, übergreifenden
Effizienzwerts (Chilingerian & Sherman, 2011). FLINSPACH (2011) validiert auf der
Basis eines umfangreichen Anforderungskatalogs die methodische Eignung der DEA
zur Analyse der Effizienz auf Prozessebene.
Neben den methodeninhärenten Eigenschaften der unterschiedlichen Verfahren zur
Effizienzmessung existieren zahlreiche Anwendungen der DEA im Krankenhaus.
Dabei hat sich die DEA als Methode zur Messung der Effizienz im Krankenhaus
etabliert (Hollingsworth, 2003; Chilingerian & Sherman, 2011). Bereits sehr früh
wurde die DEA im Healthcare-Bereich eingesetzt (Grosskopf & Valdmanis, 1987;
Wilson & Jadlow, 1982). WENG (2009) betont die Eignung der DEA zur Identifikation
von Best Practices und zur Bereitstellung von Benchmarking-Informationen. Ebenso
heben LIANG ET AL. (2008) die DEA als bewährte, effektive Methode zur Evaluierung
der Performance hervor. HOLLINGSWORTH ET AL. (1999) geben einen Überblick über
die Anwendungen parametrischer und nicht-parametrischer Methoden im
Gesundheitswesen, wobei allein 60 % der Studien die reine DEA als Methode zur
Effizienzmessung nutzen und 45 % der Anwendungen in Krankenhäusern zu verorten
sind. Auch 2003 dominiert die DEA weiterhin die Anwendungen mit einem Anteil von
50 %, andere parametrische Methoden und die SFA erhalten mit einem Anteil von
12 % steigende Bedeutung (Hollingsworth, 2003). Auf eine detaillierte Diskussion der
DEA-Anwendungen im Krankenhaus wird an dieser Stelle verzichtet.51
Sowohl im Hinblick auf die beschriebenen methodischen Eigenschaften als auch
aufgrund der weiten Verbreitung im Bereich der Effizienzmessung im
Krankenhausbereich erscheint die Anwendung der Data Envelopment Analysis für die
intendierte Zielsetzung als zielführend. In Kapitel 6.3 werden die Grundmodelle der
DEA vorgestellt und eine entsprechende Anpassung sowie Anwendung auf der Basis
empirischer Daten vorgenommen.
50 Siehe Kapitel 3.1.5 dieser Arbeit. 51 Für detaillierte Ausführungen siehe dazu bspw. Staat (2006), Shimshak et al. (2009) sowie Eiriz et al. (2010).
Begriffliche und theoretische Grundlagen 36
3.2 Effizienz und Prozessmanagement
Prozesse bilden die Analyseebene des intendierten Vorgehens. Daher werden
nachfolgend die definitorischen Grundlagen und unterschiedlichen Ansätze des
Prozessmanagements dargelegt. Abschließend wird die Verwendung von
Prozessmodellen als Basis für eine Leistungsanalyse diskutiert.
3.2.1 Definition des Prozessbegriffs, Prozesshierarchie und -klassifikation
Vorrangiges Ziel von Unternehmen ist die Bereitstellung von Leistungen zur Weckung
und Befriedigung von Kundenerwartungen und –bedürfnissen (Christensen, 1997).
Diese Sach- und Dienstleitungen bzw. hybriden Leistungsangebote werden in
Prozessen erzeugt (Schmelzer & Sesselmann, 2013; Horváth, 2011). Nach
DIN EN ISO 9001 (2008) kann jede Verknüpfung von betrieblichen Aktivitäten, an
deren Ende ein definiertes Arbeitsergebnis steht, als Prozess gesehen werden. Bereits
NORDSIEK (1934) definiert einen betrieblichen Prozess als die materielle
Transformation von der ursächlichen Produktidee bis zum Endprodukt und beschreibt
eine Zerlegung der damit verbundenen Arbeitsschritte, inkl. des Verwaltungsbereiches
der Unternehmen. Die oben genannte klassische allgemeine Prozessdefinition gibt
keine Auskunft über Zielsetzung, Einsatzfaktoren, Ergebnis und Empfänger des
Ergebnisses (Kühner, 2005). HARRINGTON (1991) beschreibt einen Prozess52 als
Transformation von Inputs in Outputs, wobei Inputs sowohl Ressourcen als auch
Anforderungen sein können und Outputs sowohl Produkte als auch Ergebnisse
darstellen können. Die Outputs können dabei wertschöpfenden und nicht-
wertschöpfenden Charakter haben und als Inputs für nachfolgende Prozesse dienen
(Harrington, 1991; Adesola & Baines, 2005).53 Im Rahmen der vorliegenden Arbeit
wird eine Prozessdefinition in Anlehnung an FISCHER ET AL. (2012, S. 240) zugrunde
gelegt, die einen Prozess als „eine strukturierte Abfolge von Aktivitäten zur Erstellung
einer Leistung oder Veränderung eines Objekts mit messbarer
Ressourcenbeanspruchung“ definieren. Dabei wird darauf hingewiesen, dass Prozesse
einen definierten Start und ein definiertes Ende haben und ein bestimmtes Ziel
verfolgen. Weitere konstitutive Merkmale des Prozessbegriffs sind neben der
Input/Output-Relation insbesondere die Orientierung an Kundenbedürfnissen/-nutzen
52 Die Begriffe Prozess und Geschäftsprozess werden in den folgenden theoretischen Ausführungen synonym
verwendet. 53 Fischer et al. (2012) weisen darauf hin, dass die Outputs sowohl materieller als auch immaterieller Art, z. B.
Informationen, sein können.
Begriffliche und theoretische Grundlagen 37
und die funktions- und organisationsübergreifende Kette wertschöpfender Aktivitäten
unter Beachtung der aus der individuellen Unternehmensstrategie abgeleiteten
kann zur Beschleunigung der Organisationsprozesse beitragen, den Umfang der für die
Leistungserstellung verwendeten Ressourcen reduzieren und so die Produktivität und
Effizienz steigern sowie die Wettbewerbsfähigkeit des Unternehmens sicherstellen
(Bai & Sarkis, 2013). GERSCH ET AL. (2011) weisen darauf hin, dass das
Prozessmanagement über die notwendigen Methoden zur Gestaltung der
Geschäftsprozesse verfügen muss und entsprechende Werkzeuge für eine präzise
Umsetzung und Implementierung der (neu) definierten Prozesse vorliegen müssen.
Prozessmanagement umfasst dabei nicht nur die Offenlegung, Gestaltung und
Ausführung von Geschäftsprozessen, sondern ebenso die Interaktion, Kontrolle,
Analyse und Optimierung der Prozessstrukturen (Smith & Fingar, 2003).
MCCORMACK ET AL. (2009) sehen Prozessmanagement als Möglichkeit zur
Befähigung von Unternehmen, die Organisation schnell und effizient an sich ändernde
Rahmenbedingungen anzupassen sowie die kontinuierliche Entwicklung von
operativen Umsetzungsstrategien ermöglicht. Ebenso betonen LIU ET AL. (2009), dass
stringentes Prozessmanagement die Unternehmen befähigt, eine dynamische
Zusammenarbeit und eine flexible, synergetische Anpassung an sich ändernde
Marktbedingungen zu entwickeln. Ein wichtiges Ziel des Prozessmanagements ist die
Standardisierung der Prozesse. HSIEH ET AL. (2002) präsentieren als Ergebnis ihrer
Studie, dass die Standardisierung von Aufgabenfeldern und damit verbundenen
Begriffliche und theoretische Grundlagen 41
Prozessabläufen positiv mit der Wahrnehmung von internen bzw. externen Kunden
korreliert ist. Standardisierung von Prozessen kann die Unsicherheit und Variablität in
der Prozessausführung reduzieren (Ungan, 2006; Horváth, 2011). Organisationen
können bessere Kontrolle über ihre Ergebnisse, präzisere Zieldefinitionen, Kosten und
Leistungsfähigkeit erlangen und die gesteckten Ziele besser erreichen (McCormack
et al., 2009). Gleichwohl wird darauf hingewiesen, dass eine derartige
Prozessorientierung zwar positive Auswirkungen auf die Prozessleistung hat, jedoch
mit einer erhöhten Managementkomplexität einhergeht (Sun & Zhao, 2013).58 Dabei
ist darauf hinzuweisen, dass ein derartiges Management von Diagnose,
Maßnahmenerstellung und Implementierung die Verwendung von geeigneten
Werkzeugen zur Kontrolle und Entscheidungsunterstützung erfordert (Jeston & Nelis,
2006; Bai & Sarkis, 2013).
Der grundsätzliche Verbesserungscharakter des Prozessmanagements bietet gute
Voraussetzungen für die Integration von Entwicklungs- und Verbesserungsstrategien
(Kohlbacher, 2010). Dabei kann zwischen Organisations- und
Qualitätsmanagementansätzen differenziert werden (Flinspach, 2011). Bei den
organisationsbasierten Ansätzen wird unterschieden zwischen dem Business Process
Improvement (BPI), einer Methode, um die Organisation und das Management eines
ausgewählten Settings an Prozessen kontinuierlich zu verbessern (Harrington, 1991),
und dem Business Process Reengineering (BPR), das als „fundamental rethinking and
radical redesign of business processes to achieve dramatic improvements in critical,
contemporary measures of performance, such as cost, quality, service, and speed“
(Hammer & Champy, 1993, S. 32) beschrieben wird.59 BPI dient dazu, die Prozesse zu
rationalisieren, zu vereinfachen, damit einen kontinuierlichen Verbesserungsprozess in
Gang zu setzen, und leistet somit einen wichtigen Beitrag zur Geschäftsentwicklung
und Verbesserung der Leistungsfähigkeit des Unternehmens mit beherrschbarem
Veränderungsrisiko (Lee & Chuah, 2001; Bendell, 2005). Im Gegensatz zu BPR
verfolgt BPI eher einen Bottom-up-Ansatz, indem es auf der Basis einer detaillierten
58 Zahlreiche Autoren betonen zudem, dass im Hinblick auf die große Wichtigkeit des Prozessmanagements
beachtet werden muss, wie die damit verbunden Aufgaben erfüllt werden und welche Hürden bei der
Transformation einer funktionalen Ablauforganisation zu einer prozessorientierten Denkweise überwunden
werden müssen (Jeston & Nelis, 2006; Trkman, 2010; Da Silva et al., 2012). 59 In der Literatur findet dazu eine umfangreiche Diskussion hinsichtlich der schrittweisen Verbesserung
gegenüber dem radikalen Clean-Sheet-Ansatz statt Zudem verfolgt bspw. das X-Engineering einen weiteren
Ansatz, das eine organisationsübergreifende Neudefinition auf der Basis der Unternehmensstrategie
beschreibt (Champy, 2002).
Begriffliche und theoretische Grundlagen 42
Analyse des Ist-Zustandes Verbesserungspotenziale identifiziert, behält jedoch die
grundsätzlichen Strukturen bei (Harrington, 1991).60
Bei den qualitätsmanagementbezogenen Ansätzen soll insbesondere auf die japanische
Managementphilosophie der kontinuierlichen Verbesserung (KAIZEN), das Total
Quality Management (TQM) und den Six-Sigma-Ansatz hingewiesen werden (Imai,
1986; Deming, 2000; Chiarini, 2012). Alle drei Ansätze verbindet die Zielsetzung der
schrittweisen Verbesserung der Prozessleistung. KAIZEN zeichnet sich durch die
permanente Steigerung der Prozessleistung in kleinen Schritten unter Nutzung des
Wissens der in den Prozess involvierten Mitarbeiter aus (Imai, 1993). Der TQM-
Ansatz beschreibt auf die Kundenzufriedenheit ausgerichtete Organisationsprozesse
und Denkweisen, Six Sigma steht als Synonym für einen Null-Fehler-Anspruch61 mit
dem Ziel, die Schwankungsbreite hinsichtlich der Prozessergebnisse zu reduzieren,
wobei ein Fehler als die Abweichung von definierten Zielvorgaben bzw. Zielwerten
definiert ist (Schmelzer & Sesselmann, 2013).
3.2.4 Multidimensionale Leitungsmessung auf Prozessebene
Die präzise und zielspezifische Messung der Prozessleistung ist für Unternehmen eine
zentrale Herausforderung, um ihre Wertschöpfungsketten und Prozessarchitekturen zu
gestalten und zu implementieren (Gersch et al., 2011). NEELY ET AL. (2005, S. 1229)
betonen, dass „the level of performance a business attains [is] a function of the
efficiency and effectiveness of the actions it undertakes“. In diesem Sinne ist
bezüglich der Prozessleistung zwischen effektivitäts- und effizienzfokussierten
Kenngrößen zu unterscheiden. Für die Betrachtung der effizienzfokussierten Kriterien
haben sich die Dimensionen Kosten, Zeit und Qualität als Parameter für die
Bewertung der Leistung der Prozesse in der Literatur durchgesetzt (Harrington, 1991;
Schmelzer & Sesselmann, 2013; Bai & Sarkis, 2013). Die Kostendimension fokussiert
dabei insbesondere auf den Ressourcenverbrauch im Rahmen der Prozessausführung,
die Zeitdimension beschreibt die für die Prozessausführung notwendigen
Bearbeitungs- und Liegezeiten (Wöhe & Döring, 2002) und die Qualitätsdimension
umfasst sowohl objektive als auch subjektive Bestandteile, wobei Qualität als der Grad
60 Es ist darauf hinzuweisen, dass in der Literatur kein einheitliches Verständnis zur Unterscheidung zwischen
BPR und BPI vorliegt. So sehen Jain et al. (2010) BPR als eine Methode, um Organisationen dabei zu helfen,
ihre Prozesse zu analysieren und zu verbessern. Darüber hinaus wird BPR als eine Möglichkeit gesehen, um
die organisationsweiten Prozesse aus einer Systemperspektive zu betrachten. Die Systemperspektive zeichnet
sich dadurch aus, dass ein Problembündel inkl. des Kontexts analysiert wird und nicht vor dem Hintergrund
einzelner isolierter Events. 61 Six Sigma entspricht: 3,4 Fehler pro 1 Mio. hergestellter Produkte.
Begriffliche und theoretische Grundlagen 43
der Übereinstimmung zwischen realisierten und geforderten Merkmalen verstanden
wird (Schmelzer & Sesselmann, 2013; Atzert, 2011; Gaitanides, 2012).62 SLACK
(1987) schlägt zudem das Kriterium Prozessflexibilität vor und versteht darunter den
Grad, um welchen ein Produktions- oder Dienstleistungsprozess modifiziert werden
kann, bzw. die Anzahl unterschiedlicher Produkt- bzw. Dienstleistungskomponenten,
die in einer definierten Zeit miteinander kombiniert werden können.
Eine wichtige effektivitätsfokussierte Kenngröße bei prozessorientierten Unternehmen
ist die Kundenzufriedenheit, die sich im Unterschied zu den zuvor genannten Kriterien
auf das Prozessergebnis bezieht und somit eher als Ergebnis- denn als Prozessgröße
verstanden werden kann.63 Zwischen den einzelnen Zieldimensionen der
Prozessleistung bestehen Interdependenzen, entsprechend bedarf es für ein
zielorientiertes Management der Prozessleistung einer Gewichtung der Prozessziele
und der Definition von Performance-Niveaus, die in jedem Fall einzuhalten sind
(Gaitanides et al., 1994a; Schmelzer & Sesselmann, 2013). HECKL und MOORMANN
(2010) weisen explizit auf die Bedeutung der Berücksichtigung multidimensionaler
Kenngrößen beim Management der Prozessleistung hin und betonen, dass die isolierte
Betrachtung eines Indikators nicht die gewünschte Wirksamkeit erzielt. Um eine
valide Messung der Prozessleistung sicherzustellen, müssen die Besonderheiten und
spezifischen Herausforderungen des Unternehmens mit in die Betrachtung einbezogen
werden. Dabei ist zum einen die Art der Leistungserstellung (Dienstleistung vs.
Sachleistung) und die Leistungstypologie (Primäraktivitäten vs. Sekundäraktivitäten)
zu berücksichtigen. Im Falle von dienstleistungs- und wissensintensiven Branchen,
wie bspw. dem Gesundheitswesen, ist es von besonderer Bedeutung, sowohl die
Geschäftsprozesse als auch die IT-Infrastruktur unter Berücksichtigung der
Kundenerwartung und -wahrnehmung zu gestalten. Betrachtet man die
Leitungserbringung im Krankenhaus, spielt der Kunde, in diesem Fall der Patient, eine
Schlüsselrolle im Prozess und beeinflusst sowohl die erfolgreiche
Prozessimplementierung und -durchführung sowie dessen Resultat (Outcome im Sinne
einer Verbesserung der Lebensqualität) als auch das Ergebnis für das Krankenhaus
(ökonomischer Erfolg) maßgeblich (Gersch et al., 2011).
62 Bspw. eignet sich die Prozesskostenrechnung für eine präzise Zuordnung der Gemeinkosten (Horváth, 2011). 63 Die Termintreue, die sowohl auf Effizienz als auch Kundenzufriedenheit starken Einfluss hat, ist dabei eng
mit der Prozesszeit verbunden. Als weitere Kenngröße wird in der Literatur bspw. die Innovationsfähigkeit
genannt, die stark auf Fähigkeiten und Potenziale einer Organisation abstellt (Burger, 2009).
Begriffliche und theoretische Grundlagen 44
3.2.5 Prozessmodelle als Kernbestandteil der Leistungsmessung auf
Prozessebene
Der Wandel von Organisationen hin zur Prozessorientierung geht einher mit dem
Bedarf nach prozessorientierten Messsystemen (Ljungberg, 2002; Da Silva et al.,
2012; Smart et al., 2009). Die Basis zur Entwicklung solcher Messsysteme bilden
Prozessmodelle zur Visualisierung von Geschäftsprozessen (Klotz et al., 2008).
BUCHER und WINTER (2007) zerlegen das Prozessmanagement in vier Phasen, wobei
der Startpunkt bei der Identifikation, Definition und Modellierung der Prozesse gesetzt
wird. Die Erstellung einer Prozesslandkarte ist der erste Schritt im Rahmen der
Evaluierung von Prozessen (Shostack, 1987; Frei & Harker, 1999). Ähnlich
beschreiben BRENNER und TUSHMANN (2003, S. 238) das Prozessmanagement als „the
view of an organization as a system of interlinked processes, [that] involve concerted
efforts to map, improve, and adhere to organizational processes“ und heben damit
ausdrücklich die Bedeutung der Erstellung von Prozessmodellen hervor. Ebenso
betonen MCKAY und RADNOR (1998) die Wichtigkeit der Erstellung von
Prozesslandkarten zur Identifikation von verbesserungswürdigen Prozessen und zur
Durchführung von Verbesserungsmaßnahmen bzw. einem Redesign der Prozesse. Eine
Prozesslandkarte ist ein Ordnungsrahmen zur Abbildung der übergeordneten
Zusammenhänge zwischen einzelnen Prozessen und bildet die Vorstufe zu
spezifischen Prozessmodellen auf Detailebene (Becker & Meise, 2008). Die Qualität
der Abbildung der Prozesse bildet die Grundlage für die Definition von Messgrößen
und die darauf aufbauende Bewertung der Leistungsfähigkeit der Prozesse.
Hervorzuheben ist, dass die Prozesse vor ihrer Verbesserung detailliert und akkurat
beschrieben sein müssen, inklusiver ihrer Stärken und Schwächen (Donner et al.,
2001). Dabei kommt der Herstellung von Vergleichbarkeit auf Prozessebene eine
besondere Bedeutung zu. In der Literatur herrscht jedoch Uneinigkeit über die
Basiskonstrukte eines Prozessmodells (Juan, Ou-Yang, 2005). Die notwenige präzise
Modellierung der Unternehmensprozesse dient der Externalisierung von
Unternehmenswissen, indem das Unternehmen hinsichtlich der Organisation und des
operativen Betriebes beschrieben wird (z. B. Prozesse, Aktivitäten, Ressourcen,
Informationsflüsse, Systeminfrastruktur etc.) (Vernadat, 2002). FREI und HARKER
(1999) weisen darauf hin, dass es trotz einer sorgfältigen Erstellung derartiger
Prozessübersichten schwierig ist, die Effizienz eines einzelnen Prozesses festzustellen.
Besondere Bedeutung erlangen Prozessmodelle bei der Messung der Leistung im
Verlauf der kontinuierlichen Weiterentwicklung, z. B. infolge von Maßnahmen zur
Begriffliche und theoretische Grundlagen 45
kontinuierlichen Verbesserung. Sie bilden die Grundlage für die Leistungsmessung der
Prozesse zur Identifikation von Verbesserungspotenzialen. Außerdem können
Prozessmodelle einen wichtigen Beitrag zur Konzeption von Prozessabläufen auf der
Basis identifizierter Best Practices leisten. Im Rahmen des BPR ist die Entwicklung
von Prozessmodellen Teil der Standard-Vorgehensweise (Davenport, 1993;
Harrington, 1991; Reijers et al., 2003). DAVENPORT und BEER (1995) betonen, dass
die Sprache der Prozessmodellierung für BPR auf einem möglichst einfachen, aber
aussagekräftigen Modellierungsmechanismus beruhen sollte, der sowohl der
Kundenorientierung, intern wie extern, als auch den cross-funktionalen Eigenschaften
des BPR entspricht. Diese Herausforderungen überschreiten die Abteilungsgrenzen
und zeigen die Vorteile prozessorientierter Ansätze im Vergleich zum traditionellen
funktionsorientierten Denken und der lokalen Verbesserung der Strukturen. Daher
kann beobachtet werden, dass die prozessbasierten Ansätze zur Steigerung der
Leistungsfähigkeit von Organisationen eine wachsende Bedeutung erlangen (Tenner &
DeToro, 1997; Smith & Fingar, 2003).
Prozessbenchmarking steht etwas außerhalb der klassischen Ansätze zur
Prozessverbesserung, da es deutlich größere Fortschritte und Entwicklungs-
perspektiven liefern kann als die kontinuierliche Prozessverbesserung und gleichzeitig
ein geringeres Risiko birgt als ein vollständiges Reengineering der Prozesse (Juan &
Ou-Yang, 2005). Gleichwohl kann Prozessbenchmarking die Restrukturierungsansätze
unterstützen bzw. ein wichtiger Baustein für den mittelfristigen Erfolg von derartigen
Neben den beschriebenen Besonderheiten des Gesundheitsmarktes weist auch die zu
erbringende Leistung besondere Charakteristika auf. Dabei muss zusätzlich zu den
grundsätzlichen Dienstleistungseigenschaften (Woratschek et al., 2007) das Uno-actu-
Prinzip hervorgehoben werden, das ein Mitwirken des Leistungsnehmers im Rahmen
der Leistungserbringung erfordert (Arnold, 2008). Zudem zeichnet sich die
Leistungserbringung im Krankenhaus durch eine starke Standortbindung aus (Kunze,
2012). Das Spektrum der klinischen Prozesse reicht dabei von hochspezialisierten
Dienstleistungen, die sich durch geringe Häufigkeit, hohe Individualität, geringen
Standardisierungsgrad, lange Bearbeitungszeiten und hohe Anforderungen an Spezial-
und Expertenwissen auszeichnen, bis hin zu standardisierten Basisdienstleistungen, die
durch eine hohe Häufigkeit der Durchführung, ein geringes Level an Individualität,
kurze Bearbeitungszeiten sowie geringe Anforderungen an Expertenwissen
gekennzeichnet sind (Silvestro et al., 1992; Rohner, 2012). Die Dienstleistungen
werden dabei patientenindividuell von Ärzten aus unterschiedlichen Themenfeldern in
Zusammenarbeit mit dem Pflegepersonal und interdisziplinären medizinischen
Dienstleistungen wie Labor und Pharmazie erbracht. Unterstützt wird die
Leistungserbringung durch medizinferne Leistungen (Rohner, 2012). Eine wichtige
Besonderheit der Leistungserbringung in Krankenhäusern ist die Rolle des Patienten
als Produktionsfaktor im Sinne der Produktionstheorie. Dabei ist der Patient zum
Ersten Input-Faktor, da er das Krankenhaus besucht und nach einem
Veränderungsprozess verlässt, zum Zweiten Kunde im Sinne eines Auftraggebers
einer Dienstleistung, zum Dritten ist er Ko-Produzent bei der Erstellung der Leistung,
da die Leistung an ihm erfolgt, er im Regelfall persönlich anwesend ist und seine
Mitwirkung das Ergebnis er Leistungserbringung deutlich beeinflusst (Fleßa, 2013;
Arnold, 2008; Kersting, 2008).
Die oben angesprochene Position der Versicherungen als wesentlicher Teil des
Gesundheitsmarktes hat im Hinblick auf Finanzierungsaspekte des Gesundheitswesens
und die damit verbundene Erlösstruktur der Krankenhäuser bedeutenden Einfluss.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 60
Dabei ist zwischen privaten und gesetzlichen Versicherungen zu unterscheiden.72
Ohne hier ein detailliertes Bild der Finanzierung der gesetzlichen Krankenkassen
(GKV) zeichnen zu wollen, ist es notwendig, zumindest die grundsätzliche
Funktionsweise zu darzulegen.73 Die Finanzierung des GKV erfolgt über den 2009
eingeführten Gesundheitsfonds, der sich aus Beiträgen der Arbeitgeber, der
Versicherten/Beitragszahler und staatlichen Subventionen zusammensetzt. Darüber
hinaus dürfen die GKV in begrenztem Maß Zusatzbeiträge von ihren Beitragszahlern
erheben. Erbringt ein Krankenhaus eine Leistung gegenüber einem Patienten, erfolgt
die Abrechnung direkt mit der Krankenkasse. Nur bei privat Versicherten rechnet das
Krankenhaus die Leistungen direkt mit dem Patienten ab, der seine Auslagen
entsprechend den ihm zustehenden Leistungen von der Krankenversicherung ersetzt
bekommt. Die Abrechnung der erbrachten Leistungen erfolgt gegenwärtig anhand der
2003/2004 eingeführten diagnosebezogenen Fallgruppen (Diagnosis Related Groups,
DRG) (Haubrock, 2009a; Berger & Stock, 2008).74 Die Einführung der DRG hat für
Krankenhäuser zur Folge, dass sie nicht jeweils die individuellen Aufwendungen
erstattet bekommen, die die Behandlung in ihrem spezifischen Fall verursacht, sondern
einen definierten Betrag je Behandlungsfall. Das DRG-System lässt sich als ein
ökonomisches Klassifizierungssystem charakterisieren, bei dem Klassen aus Objekten
mit gleichen Eigenschaften gebildet werden. Dabei werden zwar medizinisch
vergleichbare Fälle erfasst, eine Gruppierung erfolgt jedoch auf der Basis der
Fallkosten. Entsprechend werden jene Fälle zu einer DRG-Gruppierung
zusammengefasst, die ähnliche durchschnittliche Kosten aufweisen. Umgekehrt wird
davon ausgegangen, dass alle Fälle dieser DRG-Gruppierung die durchschnittlichen
Kosten aufweisen (Fleßa, 2013; Küttner, 2004; Zeuner, 2011). Mit der Zielsetzung,
den relativen ökonomischen Aufwand zur Erbringung der medizinischen Leistung im
Vergleich zu einem Basispatienten abzubilden, wird den DRG eine sog.
Bewertungsrelation in Form eines relativen Wertes einer Fallgruppe hinsichtlich einer
zu erbringenden Leistung zugeordnet. Die Summe dieser Bewertungsrelationen wird
als Case Mix bezeichnet und bildet so die durchschnittliche Fallschwere des
Krankenhauses ab. Das DRG-Budget eines Krankenhauses entspricht dem Produkt aus
Basisfallwert und Case Mix (Haubrock, 2009a; Schmidt-Rettig, 2008). Es ist darauf
72 Die folgenden Ausführungen beziehen sich auf die Finanzierung durch gesetzliche Versicherungen, da diese
ca. 90 % der Bevölkerung umfassen. 73 Der GKV liegen zudem folgende Strukturprinzipien zugrunde: kollektives Äquivalenzprinzip,
Solidaritätsprinzip, Sachleistungs- und Wirtschaftlichkeitsprinzip (Fleßa, 2013; Schär, 2009a). 74 Die Leistungen erweitern sich um Zusatzentgelte und Zuschläge sowie Erstattungen entsprechend § 6 I und II
KHEntgG; für die Schweiz (SwissDRG, 2015).
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 61
hinzuweisen, dass der DRG-Anteil am Gesamtbudget individuell je Krankenhaus ist,
durchschnittlich jedoch ca. 96% des Gesamtbudgets beträgt (Mostert et al., 2015).
Diese Quasi-Deckelung der Umsätze von Krankenhäusern wird von zahlreichen
strukturellen Veränderungen begleitet.
4.1.4 Strukturelle Kennzahlen zum Krankenhausumfeld
Zahlreiche Studien zeigen, dass sowohl international als auch in Deutschland die
begrenzt zur Verfügung stehenden Ressourcen ineffizient eingesetzt werden (Strech,
2014). Die Krankenhäuser erfuhren in den vergangenen Jahren einen bemerkenswerten
strukturellen Wandel, wobei die Krankenhausindustrie substanziellen
Restrukturierungen und Konsolidierungen unterzogen werden musste (Büchner et al.,
2014). Der stationäre Krankenhaussektor bildet mit Gesamtkosten von ca. 90 Mrd.
Euro (2013) den größten Block der Gesundheitsausgaben.75 Allein in den Jahren 2008
bis 2013 stiegen die Krankenhauskosten um ca. 24 %. Im gleichen Zeitraum sind die
Fallzahlen in deutschen Krankenhäusern um ca. 7 % gestiegen bei gleichzeitiger
Reduktion der Anzahl der Krankenhäuser um ca. 4 %.76 Während die Gesamtanzahl
der Krankenhäuser rückläufig ist, können auch hinsichtlich der Trägerschaft
Veränderungen festgestellt werden. Die Anzahl der privaten Krankenhäuser ist im
Vergleichszeitraum um ca. 9 % gestiegen, während sich die Anzahl öffentlicher und
freigemeinnützigen Häuser um je 10 % reduziert hat. Dabei ist die Anzahl der Betten
nahezu konstant geblieben, die privaten Häuser weisen jedoch einen Zuwachs von ca.
13 % aus, während öffentliche und freigemeinnützige einen Rückgang von ca. 2 %
bzw. 4 % zu verzeichnen haben (Destatis, 2014). Interessant erscheint in diesem
Zusammenhang der Blick auf die finanzielle Gesamtsituation der deutschen
Krankenauslandschaft (Reifferscheid et al., 2015). Im Jahr 2012 wiesen ca. 35 % der
Krankenhäuser ein negatives Betriebsergebnis auf und ca. 13 % wurden als
insolvenzgefährdet eingestuft. Jedoch fällt auf, dass nur ca. 3 % der privaten
Krankenhäuser ein erhöhtes Insolvenzrisiko aufwiesen, bei öffentlichen
Krankenhäusern jedoch ca. jedes vierte (Augurzky et al., 2014). Die finanzielle
Situation zwingt die Krankenhäuser, die Budgets nicht entsprechend ihrem Zweck
einzusetzen, um insbesondere notwendige Investitionen tätigen zu können (Klauber et
75 Als Basis werden die Gesamtkosten, einschließlich der Kosten für Ausbildungsstätten und Aufwendungen
für den Ausbildungsfonds, genutzt, ca. 12 Mrd. Euro; Gesundheitsausgaben 2012: ca. 300 Mrd. Euro. 76 Innerhalb von 10 Jahren hat die Anzahl der Krankenhäuser um ca. 9 % abgenommen, seit 1993 um 15 %. Im
Jahr 2013 existieren 694 private, 596 öffentliche und 706 freigemeinnützige Krankenhäuser. Die
Verweildauer der Patienten hat sich seit 1993 fast halbiert auf durchschnittlich 7,5 Tage.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 62
al., 2015). Dies wirkt sich u. a. auf die medizinische Versorgung der Patienten aus,
sodass medizinisch notwendige bzw. sinnvolle Leistungen aufgrund der begrenzten
Ressourcenbasis zurückgehalten werden (Boldt & Schöllhorn, 2008; Strech et al.,
2009).
Im Folgenden wird die finanzielle Situation anhand der Kostenverteilung und
Kostenentwicklung beschrieben (GBE, 2014). Die Kosten der Krankenhäuser werden
zu ca. 61 % von den Personalkosten und ca. 38 % von den Sachkosten bestimmt.77 Die
Personalkosten werden für die nachfolgende Betrachtung unterschieden in einen
Anteil, der direkt an der medizinischen Leistungserbringung beteiligten Mitarbeitern78
und einen Anteil, der unterstützenden Tätigkeiten zugeordnet werden kann.79 Der
Personalkostenanteil der wertschöpfenden Mitarbeiter (nicht-wertschöpfend)
entspricht mit ca. 84 % (16 %) in etwa dem Anteil an der Gesamtanzahl der
Mitarbeiter. Jedoch ergeben sich große Unterschiede hinsichtlich der Kosten je
bereitgestelltem Bett in Abhängigkeit von der Trägerschaft. Grundsätzlich ist zu
konstatieren, dass alle Krankenhäuser von den steigenden Personalkosten betroffen
sind. Ebenso ist bei den Sachkosten ein Anstieg zu verzeichnen, jedoch stiegen die
Sachkosten bei privaten Krankenhäusern im betrachten Zeitraum von 2008 bis 2013
um 16 %, gegenüber 24 % (freigemeinnützig) und 26 % (öffentlich). Betrachtet man
den medizinisch wertschöpfenden Personalkostenanteil, liegen die Kosten pro Bett in
privaten Krankenhäusern 30 % unter denen öffentlicher und 10 % unter denen
freigemeinnütziger Häuser.
Der Fokus der vorliegenden Arbeit liegt auf dem nicht direkt wertschöpfenden
(Unterstützungs-)Bereich. Der Unterschied zwischen den unterschiedlichen Trägern
wird hier besonders deutlich. Zum einen liegen die Personalkosten für den
Unterstützungsbereich in privaten Einrichtungen 37 % bzw. 20 % unter den Kosten in
öffentlichen bzw. freigemeinnützigen Krankenhäusern, zum anderen zeigt sich, dass
ein deutlich effizienterer Umgang mit den strukturellen Veränderungen erfolgt.
Während die privaten Krankenhäuser die Personalausgaben fast konstant halten
konnten (+4 %), ist bei öffentlichen (+19 %) und freigemeinnützigen Häuser eine
deutliche Kostensteigerung festzustellen. Dies ist insbesondere bemerkenswert, da die
77 Hierzu und zu allen folgenden Daten und Auswertungen als Datenbasis: GBE (2014). Die Differenz bilden
die Posten Zinsen und zusätzliche Aufwendungen, Steuern, Kosten für Ausbildungsfonds sowie Kosten für
et al., 2015). Der steigende Wettbewerb zwischen den Krankenhäusern sowie die
zunehmend schwierige Marktsituation, insbesondere für einzelne und unabhängige
Kliniken, zeigt einen deutlichen Bedarf an Effizienzsteigerungen, speziell durch
Reduktion der Kostenpositionen (Büchner et al., 2014; Busse, 2005; Rohner, 2012).
4.1.5 Prozessorientierung im Krankenhaus und Klassifikation der betrachteten
Prozesse
Aufgrund der geschilderten Rahmenbedingungen sehen sich Krankenhäuser vor die
Herausforderung gestellt, ihre Handlungsweisen anzupassen, um ihre
Wettbewerbsfähigkeit aufrechtzuerhalten. Die bereits beschriebene
Prozessorientierung ist dafür ein wesentliches Element (Gemmel et al., 2008). Unter
Prozessorientierung im Krankenhaus wird verstanden, zu welchem Anteil eine
Krankenhausorganisation hinsichtlich aller klinischen und unterstützenden Funktionen
am Patienten ausgerichtet und ein funktionsübergreifender kontinuierlicher
Verbesserungsprozess als Standard etabliert ist (Rohner, 2012). Dabei zeichnet sich
Prozessorientierung grundsätzlich durch eine funktionenübergreifende,
kundenorientierte Arbeits- und Denkweise aus (McCormack & Johnson, 2001).80
Krankenhäuser folgen traditionell einer vergleichsweise hierarchischen und
funktionsorientierten Ablauforganisation und erst seit Einführung der DRG wird ein
schrittweiser Wandel zur prozessorientierten Organisation vollzogen (Kersting, 2008).
Zwischen der Prozessorientierung in klassischen Industrieunternehmen und in
Krankenhäusern besteht ein wesentlicher Unterschied: Während im industriellen
Umfeld spezifische Inputs (z. B. Materialien) unter Einsatz von Maschinen oder
Informationen mit menschlicher Arbeitskraft in Outputs transformiert werden, steht
bei der Dienstleistung im Krankenhaus nicht die Erstellung spezifischer Outputs,
sondern vielmehr der Outcome (Verbesserung der Lebensqualität der Patienten) im
80 siehe Kap. 3.3.1 dieser Arbeit.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 64
Zentrum des Interesses. Das Ziel klassischer industrieller Dienstleistungen besteht
darin, die Bedürfnisse, Anforderung bzw. Erwartungen der Empfänger des
Prozessoutputs zu bedienen. Das Kundenbild bei der Erbringung von
Krankenhausdienstleistungen hingegen ist insbesondere durch die Rolle des Kunden
als direktem Leistungsempfänger bestimmt (Rohner, 2012; Davenport, 1993).
Als Untersuchungsbereich dieser Arbeit wurden die Unterstützungsprozesse in
Krankenhäusern ausgewählt, die ähnlich wie die industrielle Leistungserbringung auf
eine Optimierung der Input/Output-Relation unter Berücksichtigung der Erfüllung
definierter Qualitätsanforderungen ausgerichtet sind und bei denen das
Effizienzkriterium im Vordergrund steht. Entsprechend wird im Folgenden auf weitere
Ausführungen zum klinischen Prozessmanagement verzichtet.
Abbildung 12: Beispielhafte Darstellung der Value Chain eines Krankenhauses (Darstellung übernommen mit Adaptionen
aus Porter und Teisberg, 2006, S. 204 sowie Mettler 2010, S. 71)
PORTER (2014, S. 61) beschreibt ein Unternehmen als „ein Ansammlung von
Tätigkeiten, durch die ein Produkt entworfen, hergestellt, vertrieben, ausgeliefert und
unterstützt wird“, wobei diese strategisch relevanten Tätigkeiten in einer Wertkette
dargestellt werden können, um die Kostenposition und die
Differenzierungsmöglichkeiten abzubilden.81 Die Wertkette bildet ein analytisches
Werkzeug, um mit einer systematischen Untersuchung der Aktivitäten des
Unternehmens die Ursachen für Wettbewerbsvorteile zu untersuchen (Porter, 2014).
81 Einen Wettbewerbsvorteil besitzt ein Unternehmen dann, wenn es die strategisch relevanten Aktivitäten
besser oder kostengünstiger als seine Konkurrenten erfüllen kann (Porter, 2014).
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 65
Jedoch ist darauf hinzuweisen, dass PORTER unter Aktivitäten nicht, wie oben
beschrieben, die unterste Stufe der Prozesshierarchie versteht. Seine Argumentation
basiert vielmehr auf einem aufbauorganisatorischen Ansatz mit Funktionsorientierung.
Jedoch bietet sich die strukturierte Darstellung zur Unterscheidung der primären und
sekundären Aktivitäten an. Abbildung 12 zeigt eine auf die Wertschöpfung im
Krankenhaus ausgerichtete Wertkette (Porter & Teisberg, 2006; Mettler, 2010). Die
primären Aktivitäten beschreiben dabei die medizinische Wertschöpfung, wobei hier
zum einen explizit Vor- und Nachsorge mit einbezogen sind, zum anderen die
Kernleistungen (stationäre bzw. ambulante Leistungserbringung) durch medizin- bzw.
patientennahe Leistungen unterstützt werden. Als sekundäre Aktivitäten sind
Tätigkeiten erfasst, die die medizinische Wertschöpfung unterstützen, wobei im
Cluster „organisationsspezifische Infrastruktur“ eine ganze Reihe von Aktivitäten
(z. B. Controlling) gebündelt wird. BECKER und MEISE (2012) grenzen
Unterstützungsprozesse mithilfe differenzierter Kriterien von Kernprozessen ab. Dabei
dienen die Unterstützungsprozesse der Sicherung der Funktionsfähigkeit der
wertschöpfenden Prozesse und stellen die benötigte Ressourcenbasis zur Verfügung.
Zudem liegt der Fokus auf internen Kunden und die Eigenerstellung ist nicht zwingend
notwendig. Häufiges Problem ist die beschränkte Wahrnehmung des Endkunden
hinsichtlich des Value Added, da vorrangig unterstützende Aufgaben erfüllt werden.
4.2 Systematische Literaturanalyse: Data Envelopment Analysis,
Prozessmanagement und Benchmarking
Das Management der Prozessleistung ist sowohl in den Kern- als auch den
Unterstützungsprozessen zu einer unternehmerischen Kernaufgabe geworden (Hirzel,
2008). Da die vorliegenden Entscheidungssituationen komplex sind, steigt die
Bedeutung einer klaren und transparenten Grundlage zur Entscheidungsfindung,
insbesondere dann, wenn unterschiedliche Stakeholderinteressen, finanzielle und
nicht-finanzielle Messgrößen sowie differenzierte Bewertungskritierien
zusammengeführt und integriert beachtet werden müssen. In der Praxis werden dabei
zunehmend prozessbasierte Leistungsmessgrößen eingesetzt, etwa zur Vorbereitung
von Make-or-buy-Entscheidungen oder für organisationsinterne Entscheidungen zur
Bildung von Shared Service Centern. Jedoch ist die Identifikation geeigneter
Zielgrößen eine Herausforderung. Benchmarking kann durch seinen systematischen
Ansatz helfen, praktikable Zielsetzungen zu definieren, und als Basis für
betriebswirtschaftliche Entscheidungen dienen. Die grundsätzliche Eignung der DEA
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 66
als Werkzeug zur Lösung von Multi-Criteria-Decision-Making-(MCDM-)Problemen
wird in der Literatur kontrovers diskutiert (Kleine, 2001). Einerseits ist die
Argumentation schlüssig, dass die errechnete Effizienz der DEA der konvexen
Effizienz in MCDM entspricht.82 Anderseits wird darauf hingewiesen, dass die direkte
Transposition ggf. zu unbefriedigenden Ergebnissen führen kann (Bouyssou, 1999).
Für die Lösung von multikriteriellen Entscheidungen existiert jedoch eine ganze Reihe
von etablierten Methoden. HÜLLE ET AL. (2011) stellen in ihrer Publikation zu
MCDM-Verfahren im Bereich Management Accounting die Bedeutung der einzelnen
Verfahren transparent dar.
4.2.1 Zusammenfassung vorliegender Literaturanalysen zur DEA
In der Literatur existiert eine ganze Reihe von Beiträgen, die die Entwicklungen und
Anwendungen der Data Envelopment Analysis aufbereiten. Sie können den drei
Kategorien bibliografische Auflistungen, qualitative Studien und quantitative Studien
zugeordnet werden.83 Bibliografische Auflistungen liefern SEIFORD (1997a) und
GATTOUFI ET AL. (2004b) indem sie eine ausführliche Liste der DEA-Publikationen
präsentieren. Qualitative Studien werden zum einen von SEIFORD und THRALL (1990)
mit einem Überblick über die frühen Entwicklungen der DEA und von SEIFORD
(1997b) mit einem Überblick der Anwendungen von 1978 bis 1995 vorgestellt.
COOPER ET AL. (2007) präsentieren die Entwicklungen aus einem theoretischen
Blickwinkel, COOK und SEIFORD (1990) fassen die Entwicklungen im Bereich der
DEA über einen Zeitraum von 30 Jahren ab 1978 zusammen. Einen quantitativen
Literaturüberblick liefern sowohl GATTOUFI ET AL. (2004A) als auch EMROUZNEJAD
ET AL. (2008). Der von LIU ET AL. (2013b) präsentierte Literaturüberblick umfasst ein
zitationsbasiertes Netzwerk von Anwendungen sowie auf einem Wichtigkeitsindex
basierende Forschungspfade. HATAMBI-MARBINI ET AL. (2011) geben einen
Literaturüberblick über Anwendungen von Fuzzy Data Envelopment Analysis,
geclustert nach unterschiedlichen Fuzzy-Methoden.
Kennzeichen der genannten Studien ist, dass weitgehend auf eine Unterscheidung
zwischen methodischen und anwendungsspezifischen Entwicklungen verzichtet wird.
LIU ET AL. (2013A) fokussieren in ihrem Literatur-Review auf die Anwendungen der
DEA und präsentieren für ausgewählte Anwendungsgebiete Entwicklungspfade auf
82 DMUs entsprechen den Alternativen, Outputs den zu maximierenden Kriterien, Inputs den zu minimierenden
Kriterien. siehe dazu auch Kap. 3.1.4 dieser Arbeit. 83 Der folgende Kurzüberblick orientiert sich am Überblick der Studie von Liu et al. (2013b).
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 67
der Basis der wichtigsten Publikationen. Dabei wird zwar die hohe Bedeutung von
Anwendungen im Bereich Healthcare, insbesondere in Krankenhäusern, betont, jedoch
kann keine Anwendung der DEA im Bereich der Unterstützungsprozesse im
Krankenhaus identifiziert werden.84 Einen Healthcare-bezogenen Überblick der
Anwendungen von Effizienz- und Produktivitätsmesswerkzeugen gibt
HOLLINGSWORTH (2003), wobei er dabei neben der DEA auch weitere Methoden, z. B.
die SFA, berücksichtigt.85
4.2.2 Vorgehen und Zielsetzung der Literaturanalyse
Die vorliegende Literaturanalyse untersucht im Gegensatz zu den genannten
Publikationen die Anwendungen der Data Envelopment Analysis im Bereich des
Performance Managements auf Prozessebene unter expliziter Einbeziehung des
Managementinstruments Benchmarking. Ziel ist die Identifikation der Anwendungen
und der dafür verwendeten Methoden bzw. Methodenkombinationen zur Lösung
praktischer Benchmarkingprobleme. Die Analyse der Literatur lehnt sich an den
etablierten, strukturierten Ansatz der bibliometrischen Analyse an. Die bibliometrische
Analyse eignet sich insbesondere dafür, Strukturmuster in Publikationen zu
identifizieren (White, 2004). Die Durchführung basiert auf etablierten Vorgehen zur
Identifikation von Anwendungsgebieten des AHP und ANP (Hülle, 2012; Hülle et al.,
2011; Vaidya & Kumar, 2006). Für das Auffinden und die Auswahl der Publikationen
wurden die Datenbanken Business Source Premiere® via EBSCOhost® und der Social
Science Citation Index™ and Science Citation Index Expanded™ of Thomson-ISI
Web of Knowledge genutzt. Es wurden alle Publikationen bis zum 31.12.2013 in die
Betrachtung einbezogen. Durchsucht wurden alle Datenbankeinträge in Titel, Abstract
und Keywords. Die methodenspezifischen Suchoperatoren wurden mit der
Verknüpfung „or“ versehen, ebenso wurde bei den prozessbasierten Suchbegriffen
verfahren. Die methodenspezifischen Suchoperatoren und die anwendungsspezifischen
Suchbegriffe wurden mit der Verknüpfung „and“ verbunden. Methodenspezifische
Suchoperatoren sind „DEA“ und „Data Envelopment Analysis“, die
anwendungsspezifischen Suchbegriffe sind mit „Process“ und „Benchmark*“
definiert. Somit werden nur Ergebnisse berücksichtigt, die sowohl einen Treffer in den
84 Die Anwendungen im Bereich Healthcare liegen 2013 mit absolut 271 veröffentlichten Papers (8,65 % aller
DEA-Anwendungen) hinter Banking-Anwendungen an zweiter Stelle bei einem Anteil von
anwendungsspezifischen Publikationen von ca. 66 % (Liu et al., 2013a, S. 896). 85 Dabei sind ca. 52 % der identifizierten Anwendungen im Krankenhausumfeld zu verorten, 48 % mithilfe der
DEA. Die Publikation baut auf Hollingsworth (1999) auf.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 68
methodenspezifischen Schlagwörtern als auch bei den anwendungsspezifischen
Begriffen vorweisen konnten (171). Aufgrund der Fokussierung der Betrachtung auf
die Anwendung der Data Envelopment Analysis mit Prozessbezug wurden alle
Publikationen ohne eine Anwendung der DEA, Literaturstudien, Kommentare,
ausschließlich methodische Erweiterungen sowie andere Publikationen ausgeschlossen
(20). Zudem wurden auch Publikationen, die nicht im Forschungsbereich des Process
Performance Managements zu verorten sind, aus der Betrachtung ausgenommen (58).
Manuelle Korrekturen wurden schließlich hinsichtlich vorhandener Dopplungen und
Abkürzungen durchgeführt (33).86 Für die abschließende Betrachtung konnten 60
Publikationen berücksichtigt werden.
4.2.3 Grundlegende deskriptive Ergebnisse
Die Anwendung der Data Envelopment Analysis in Verbindung mit dem
Benchmarking auf Prozessebene ist ein Forschungsgebiet, das sich seit 1996
entwickelt hat. In Abbildung 13 ist die Entwicklung der Zahl der Publikationen
abgebildet, die das kontinuierliche Interesse und die Wichtigkeit des
Forschungsbereichs zeigt.
Abbildung 13: Verteilung der Publikationen nach Jahren (eigene Darstellung)
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 69
Abbildung 14 zeigt die Journals, in denen die entsprechenden Publikationen
veröffentlicht wurden. Die große Bandbreite verdeutlicht das Interesse am
Forschungsbereich und das weite Feld der unterschiedlichen Anwendungen.
Hervorzuheben sind dabei das European Journal of Operational Research (10 %),
Omega-International Journal of Management Science (7 %), International Journal of
Production Research sowie das International Journal of Business Performance
Management (je 5 %). Insgesamt wurden die Inhalte in 42 verschiedenen Zeitschriften
veröffentlicht. Abbildung 15 verdeutlicht die regionale Verteilung der Publikationen
zum Analysebereich. Knapp die Hälfte aller Publikationen stammt dabei aus dem
asiatischen Raum inkl. des mittleren Ostens. Absolut gesehen stammen die meisten
Publikationen aus den USA (17), gefolgt von Taiwan (12). Jedoch kommt die Data
Envelopment Analysis nur in etwas mehr als der Hälfte der Anwendungsfälle als
alleinige Methode zum Einsatz. Kombinationen mit Methoden der multikriteriellen
Entscheidungsunterstützung, wie bspw. dem AHP oder PROMETHEE II haben sich
dabei etabliert. Gerade vor dem Hintergrund der im Standard-Benchmarkingprozess
enthaltenen Identifikation von geeigneten Benchmarkingpartnern kommt die DEA in
Verbindung mit der Clusteranalyse Rechnung zum Einsatz.
Abbildung 14: Verteilung der Publikationen nach Journals (eigene Darstellung)
0 1 2 3 4 5 6 7
Transportation Research Part A-Policy and Practice
Tourism Management
Total Quality Management & Business Excellence
Systemic Practice and Action Research
Supply Chain Management-An International Journal
Supply Chain Management
Service Industries Journal
Production and Operations Management
Operations Research
Omega-International Journal of Management Science
Nursing Economics
Mathematical and Computer Modelling
Management Science
Knowledge-based Systems
Knowledge & Process Management
Journal of the Operational Research Society
Journal of Service Research
Journal of Retailing
Journal of Productivity Analysis
Journal of Operations Management
Journal of Medical Systems
Journal of Intelligent Manufacturing
Journal of High Technology Management Research
Journal of Business Research
Journal of Business Logistics
IUP Journal of Supply Chain Management
International Journal of Shipping and Transport Logistics
International Journal of Productivity & Performance Management
International Journal of Production Research
International Journal of Production Economics
International Journal of Innovative Computing Information and Control
International Journal of Flexible Manufacturing Systems
International Journal of Computational Intelligence Systems
International Journal of Business Performance Management
IEEE Transactions on Engineering Management
Health Care Management Science
Expert Systems with Applications
European Journal of Operational Research
European Journal of Industrial Engineering
Benchmarking: An International Journal
Asia-pacific Journal of Operational Research
African Journal of Business Management
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 70
Eine übersichtliche Abbildung der identifizierten Methodenkombinationen kann
Tabelle 1 entnommen werden.
Abbildung 15: Verteilung der Publikationen nach geografischer Herkunft (eigene Darstellung)
Dabei kann konstatiert werden, dass ein großer Teil der Anwendungen die DEA als
zentrale Methode verwendet. Daneben finden neben den genannten Verfahren auch
strategische Managementinstrumente und Ansätze der Zielprogrammplanung
Anwendung. Die dargestellten Abbildungen der Literaturanalyse zeigen das Ergebnis
eines systematischen Vorgehens zur Identifikation der relevanten Publikationen.
Jedoch ist auf einige methodische Schwächen hinzuweisen, die das gewählte
Verfahren für die Auswahl der Publikationen verursacht. Zum einen besteht bei der
Verwendung derart generischer Suchbegriffe die Gefahr, dass eine Vielzahl von
Treffern erzielt wird, die für den intendierten Forschungsbereich nicht relevant sind.
Die Festlegung der Suchbegriffe unterliegt dabei der Subjektivität des
Untersuchenden. Zudem begrenzt die zeitliche Einschränkung die Analyseergebnisse.
Daneben wirken die klassischen Nachteile der Stichwortsuche. Diese basiert auf den
definierten Suchbegriffen und schließt somit alle Publikationen aus, die nicht alle
Suchbegriffe umfassen. Die zugrunde liegenden Datenbanken fokussieren auf
internationale Publikationen, die einen Peer-Review erfahren haben, sodass bspw.
Lehrbücher und Dissertationen nicht mit einbezogen werden. Eine weitere
Einschränkung besteht darin, dass aufgrund der Suchbegriffskonstellation und der
Grundsprache der Datenbanken lediglich englischsprachige Literatur berücksichtigt
wird.
Nordamerika
32%
[RUBRIKENNAME]
[PROZENTSATZ]
Australien
1% Afrika
2%
Südamerika
2%
Israel
2%
Taiwan
20%
Südkorea
3%
China
6%
Iran
2%
Indien
8%
Thailand
2%
Asien & Mittlerer Osten
43%
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 71
Total (k
om
bin
ierte
und S
ingle A
nsätze)
Total (k
om
bin
ierte
Ansätze)
Goal P
rogram
min
g
Fuzzy
Analy
tic
Hierarch
y P
rocess
Multi-O
bjectiv
e
Lin
ear Pro
gram
min
g
Balan
ced S
corecard
Clu
ster Analy
sis and
Prin
cipal
Com
ponen
t Analy
sis
PR
OM
ET
HE
E II
Clu
ster Analy
sis
AH
P
Tw
o-S
tage D
EA
Kom
bin
ierte An
sätze
Sin
gle
-DE
A-
An
sätze
Meth
od
e & Z
eit
2
0
Kam
akur
a et al.
(1996);
Murp
hy
et al.
(1996)
1996
1
0
Ozcan
(1998)
1998
3
2
Post u
nd
Spro
nk
(1999)
Frei u
nd
Hark
er
(1999)
Soterio
u
und
Zen
ios
(1999)
1999
1
1
Tallu
ri
(2000)
2000
2
0
Hoopes
und
Trian
tis
(2001);
Post
(2001)
2001
2
0
Tallu
ri
und
Sark
is
(2002);
Ross u
nd
Dro
ge
(2002)
2002
1
0
Sheu
und
Pen
g
(2003)
2003
4
1
Sark
is
und
Tallu
ri
(2004)
Tallu
ri
und
Narasim
h
an
(2004);
Stan
ford
(2004);W
atcharasri
roj u
nd
Tan
g
(2004)
2004
2
0
Donth
u
et al.
(2005);
Greasley
(2005)
2005
6
0
Guan
et al.
(2006); L
o
und L
u
(2006);
Wan
g
(2006);
Agasisti u
nd
Bian
co
(2006); M
in
und Jo
o
(2006);
Reich
man
n
und S
om
mersg
uter-
Reich
man
n
(2006)
2006
3
1
Saran
ga
(2007)
Bott et
al.
(2007);
Mc
Each
ern
und
Parad
i
(2007)
2007
4
1
Jyoti
et al.
(2008)
Liu
(2008)
; Cam
pi
si und
Costa
(2008)
Wan
und
Chen
(2008)
2008
8
4
Param
esh
waran
et
al. (2
009)
(2009)
Chian
g
and L
in
(2009)
Ahm
ad
und Q
iu
(2009);
Pires Jr.
et al.
(2009)
Dias et
al.
(2009);
Lu an
d
Lo
(2009);
Yu u
nd
Lee
(2009);
Li u
nd
Dai
(2009)
2009
6
4
Stew
art
(2010)
Wu et a
l.
(2010)
Mah
alik
et al.
(2010);
Punniy
am
oorth
y
und M
ur
ali (2010)
Yu
(2010);
Hung et
al. (2
010)
2010
12
5
Jalalvan
d
et al.
(2011)
Wu u
nd
Song
(2011)
Bich
ou
(2011);
Parad
i et
al.(2
011)
Lai et a
l.
(2011a);
Lai et a
l.
(2011b);
Lim
et
al.
(2011);
Jain et a
l.
(2011);
Rouse et
al.
(2011);
Gonch
ar
uk
(2011)
2011
3
0
Ham
me
rschm
id
t et al.
(2012);
Park
et
al.
(2012);
Wu
(2012)
2012
2
1
Adler
et al.
(2013)
Rein
er
et al.
(2013)
2013
60
19
2
1
1
1
1
1
4
6
1
41
Tot
al
Tabelle 1: Methodenbasierter Überblick der identifizierten DEA-Ansätze (eigene Darstellung)
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 72
4.2.4 Systematisierung der Ergebnisse der Literaturanalyse
Einen grundlegenden Überblick und eine Diskussion relevanter Beiträge der DEA-
Anwendung auf Prozessebene liefern sowohl FLINSPACH (2011) als auch BURGER
(2009), deren Literaturüberblicke durch die Analyse in der vorliegenden Arbeit
erweitert werden sollen.87 Dazu wurden die identifizierten Publikationen hinsichtlich
ihres inhaltlichen Beitrags und des Untersuchungsgegenstands analysiert. Zudem
wurde, wenn möglich, eine Clusterung der Anwendungsbereiche vorgenommen. Dabei
fällt auf, dass insbesondere in den Bereichen Logistik, Bank- und Finanzwesen,
öffentliche Einrichtungen sowie im Gesundheitswesen überdurchschnittlich viele
Anwendungsfälle vorliegen. Für die Analyse wurden bevorzugt Publikationen
ausgewählt, die neue Anwendungen bzw. Konzepte präsentieren.
Im Rahmen der Analyse konnten 7 prozessbasierte Anwendungen im Bereich des
Gesundheitswesens identifiziert werden, wovon 3 explizit im Krankenhausumfeld zu
verorten sind. LAI ET AL. (2011A) entwickeln ein Framework zum Benchmarking
wissensbasierter Systeme sowie für die damit verbundene Leistungsevaluation und
Prozessverbesserungen. STANFORD (2004) präsentiert ein Konzept zur Evaluation der
Performance von Krankenhäusern am Beispiel der Behandlung von
Herzinfarktpatienten, das auf die Daten von 107 Krankenhäusern angewendet wird.
WATCHARASRIROJ und TANG (2004) betrachten die Wirkung von Größeneffekten und
des systematischen Einsatzes von IT auf die Effizienz des Prozesses der medizinischen
Leistungserbringung. Eine Anwendung erfolgt für 92 Non-Profit-Krankenhäuser in
Thailand. BOTT ET AL. (2007) analysieren mithilfe der prozessbasierten
Kostenrechnung und der DEA den Planungsprozess in Pflegeeinrichtungen. Einen sehr
stark prozess- bzw. aktivitätenbasierten Ansatz zur Verbindung des Activity-based
Costing und der DEA nutzen ROUSE ET AL. (2011). Eine Validierung erfolgt im
Rahmen einer Fallstudie von 24 Anwendungen in der Primärversorgung. OZCAN
(1998) konzipiert ein DEA-basiertes Messmodell zur Evaluierung und Analyse der
Effizienz von Ärzten als Ausgangspunkt für Produktivitätssteigerung bzw.
Kostenreduktion. Die Analyse erfolgt auf der Basis der Informationen zu 160
Hausärzten. HAMMERSCHMIDT ET AL. (2012) hingegen betrachten die potenziellen
Wert- und Kostenbenefits sowie Leistungssteigerungen im Rahmen der
87 Auf eine ausführliche Diskussion der dort beschriebenen Anwendungen wird an dieser Stelle verzichtet.
Siehe dazu Flinspach (2011) und Burger (2009).
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 73
Dienstleistungserstellung innerhalb von Gesundheitsnetzwerken anhand der Daten
einer Längsschnittstudie von 716 Allgemeinärzten und 633 Fachärzten.
Darüber hinaus wurden zahlreiche weitere relevante Anwendungen in verschiedenen
Industrien identifiziert, die im Folgenden in ausgewählter Form kurz betrachtet
werden. Insbesondere im Bereich der Logistik existiert eine ganze Reihe von
Anwendungen der DEA auf Prozessebene. So stellen PARK ET AL. (2012) ein
schrittweises Benchmarking-Vorgehen vor, das zur Bestimmung schrittweiser und
zielgerichteter Zielsetzungen genutzt wird. Eine Anwendung erfolgt im Rahmen einer
Case Study mit 21 Container-Terminals. WU ET AL. (2010) begegnen der
Herausforderung zur Definition realistischer Ziele mit der Kombination der DEA mit
Techniken der Clusteranalyse. Die Validierung findet mithilfe der Daten von 77
Container-Terminals internationaler Häfen statt. Ebenso nutzen SARKIS und TALLURI
(2004) ihr Konzept der performancebasierten Clusterung zur Ableitung von
Zielsetzungen und entsprechenden Verbesserungspotenzialen. Eine Anwendung
erfolgt am Beispiel der Operations von 44 Flughäfen über einen Zeitraum von 5
Jahren. JALALVAND ET AL. (2011) vergleichen die Performance unterschiedlicher
Supply Chains, u. a. auf Prozessebene, mithilfe des Supply-Chains-Operations-
Reference-Modells (SCOR), auf dessen Basis ein Vorgehen zum Vergleich von
Supply Chains entwickelt wird, sowie Methoden der multikriteriellen
Entscheidungsunterstützung. Die Case Study wird im Bereich der
Lebensmittelindustrie in Iran durchgeführt.
Auch im Bereich des Bank- und Finanzwesens konnten relevante Konzeptionen und
Anwendungen der prozessbasierten DEA identifiziert werden. LO und LU (2006)
präsentieren einen Ansatz, der ein zweistufiges Performance-Modell aus Profitabilität
und Marktfähigkeit konzipiert, um den Produktionsprozess von Finanzholding
Companies (FHC) abzubilden. Eine Validierung erfolgt mit Daten von 14
taiwanesischen FHCs. Eine explizite Trennung zwischen Produktivitätseffizienz und
Profitabilitätseffizienz wird durch MCEACHERN und PARADI (2007) vorgenommen,
wobei der Ansatz auf die operative Umsetzbarkeit der ermittelten Benchmarks
fokussiert. Die Anwendung erfolgt in 138 Bankfilialen in 7 Ländern in einer
regionalen und länderübergreifenden Betrachtung. KAMAKURA ET AL. (1996)
entwickeln ein Konzept zur kostenbasierten Leistungsanalyse des Vertriebsprozesses
von Bankdienstleistungen in unterschiedlich geclusterten Filialen (188). Anhand des
Benchmarkings von 49 Banken in Indonesien validiert POST (2001) ein eigens
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 74
entwickeltes DEA-Konzept zur Berücksichtigung von Unsicherheit bei Inputs und
Outputs unter Einbeziehung stochastischer Störgrößen.
Die Eignung der DEA zur Analyse von Nonprofit- bzw. öffentlichen Einrichtungen
schlägt sich ebenfalls in prozessspezifischen Anwendungen der DEA nieder.
GREASLEY (2005) entwickelt einen dreistufigen Anwendungsprozess unter
Verwendung von DEA und Simulationsanwendungen zur Verbesserung der
Betrachtungseinheiten. Die Anwendung erfolgt in Case Studies des operativen
Betriebs von Polizei-Einheiten. JYOTI ET AL. (2008) entwickeln ein Vorgehensmodell
zur Evaluation und zum Benchmarking der Leistung des Produktionsprozesses von
F&E-Organisationen unter Nutzung der DEA und des AHP. POST und SPRONK (1999)
führen in ihrem Benchmarkingkonzept die DEA und das Entscheidungs-
unterstützungsverfahren Interactive Multiple Goal Programming zusammen, um zum
einen zielgerichtete und realistische Benchmarks abzuleiten und zum anderen
geeignete Referenzobjekte zu identifizieren. Die Anwendung erfolgt mit Analyse der
operativen Performance von Fachbereichen britischer Universitäten.
Auffällig ist die unabhängig vom Anwendungsfeld zu beobachtende häufige
Verbindung der Anwendung des AHP und der DEA. Beispielsweise nutzen
PARAMESHWARAN ET AL. (2009) die DEA und den Fuzzy AHP zur Messung der
Servicequalität sowie zu Effizienzmessung in Reparaturwerkstätten. Auch FREI und
HARKER (1999) beschreiben ein Vorgehen zur Analyse auf Einzelprozessebene unter
Nutzung der DEA in Verbindung mit dem AHP und zeigen die Anwendung am
Beispiel von 45 Retailbanken.88 MAHALIK ET AL. (2010) integrieren die DEA und den
AHP am Beispiel des Supply Chain Managements im Rahmen einer Case Study mit
Daten von 12 indischen Häfen. AHMAD und QIU (2009) kombinieren qualitative und
quantitative Faktoren in einer integrierten Anwendung von AHP und DEA am Beispiel
der Daten von KMUs.
Im Folgenden werden weitere ausgewählte Konzeptionen und Anwendungen im
Hinblick auf das spätere Anwendungsfeld vorgestellt. Eine dezidierte Fokussierung
auf die Betrachtung der Leistungsfähigkeit von Produktionsprozessen enthält die von
HOOPES und TRIANTIS (2001) präsentierte Konzeption, die technologiekritische Input-
und Output-Faktoren explizit in das Modellierungsframework einbindet und neben der
DEA auch die statistische Prozesslenkung anwendet. Eine Darstellung erfolgt mit der
88 Die Publikation baut auf einer vorangegangen Untersuchung auf (Frei & Harker, 1996).
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 75
exemplarischen Betrachtung von 44 Arbeitsaufträgen im Produktionsprozess.
Weiterhin entwickelte TALLURI (2000b) eine Benchmarkingmethode, die multiple
Kenngrößen simultan berücksichtigt und die Organisation bei der Durchführung von
BPR und BPI unterstützt, wobei neben der DEA u. a. Clusteranalysen und
spieltheoretische Ansätze genutzt werden. Die Evaluierung erfolgt anhand von 47
Produktionsprozessen. STEWART (2010) entwickelt ein Konzept zum zielorientierten
Benchmarking der Organisationseffizienz, wobei die mittel- und langfristigen
Managementziele systematisch in die Ableitung der Benchmarks eingebunden werden.
Eine Anwendung erfolgt mithilfe existierender Daten von 15 Supermarktfilialen. Eine
explizite Betrachtung der Leistungsfähigkeit im Beschaffungsbereich führen MURPHY
ET AL. (1996) durch. Dabei wird die Leistungsfähigkeit anhand eines Beispiels aus der
Petroleum-Industrie evaluiert. SARANGA (2006) entwickelt einen Ansatz zur
Identifikation zielgerichteter Benchmarking-Peergroups für Unternehmen der
pharmazeutischen Industrie in Indien unter Berücksichtigung individueller
Zielsetzungen, wobei eine Anwendung im Rahmen von Cases mit Daten von 44
Unternehmen aus dem Zeitraum 1992–2002 erfolgt. YU und LEE (2009) kombinieren
die Analyse der produktiven Effizienz und der Dienstleistungseffektivität zur
Identifikation von Verbesserungspotenzialen. Die Umsetzung erfolgt mit Anwendung
der hyperbolischen Netzwerk-DEA am Beispiel von Hotels in Taiwan. JAIN ET AL.
(2011) präsentieren einen DEA-basierten Ansatz zur Leistungsmessung und
Zieldefinitionen in Produktionssystemen, angewandt im Bereich der
Fließbandfertigung und der Wafer-Herstellung. TALLURI und NARASIMHAN (2004)
stellen ein Konzept zur effizienten Steuerung des Prozesses der strategischen
Lieferantenauswahl unter Berücksichtigung multipler strategischer Faktoren im
Evaluationsprozess vor. Eine Validierung erfolgt anhand von 23 Lieferanten eines
Unternehmens der Telekommunikationsindustrie. LI und DAI (2009) führen eine
Konzeption zur Messung sowohl der Supply Chain Collaborative Performance als
auch der relativen individuellen Unternehmensperformance mithilfe von DEA und
Sensitivitätsanalysen vor. Eine Anwendung erfolgt im Rahmen eines Supply Chain
Systems eines taiwanesischen Hardwareherstellers.
Betrachtet man die für den Betrachtungszeitraum ausgewählten Publikationen, wird
deutlich, dass sich die DEA als grundlegende Methode zur Messung der
Prozessleistung etabliert hat. Zudem lässt sich konstatieren, dass Anwendungen im
Bereich des Gesundheitswesens, im Speziellen in Krankenhäusern, in nur sehr
geringer Zahl vorliegen. Es wurde keine Anwendung der DEA im Kontext des
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 76
Benchmarkings der Prozessleistung identifiziert. Die Analyse der Publikationen
hinsichtlich ihrer Prozessorientierung zeigt, dass nur in Ausnahmefällen der
Notwendigkeit zur Schaffung von Transparenz mithilfe von Referenzmodellen
(Jalalvand et al., 2011) oder Prozesssimulationen (Reiner et al., 2013) Rechnung
getragen wird. Entsprechend der Definition nach FISCHER ET AL. (2012) ist die
Entscheidungsunterstützung und die damit verbundene Managementorientierung eine
zentrale Aufgabe des Controllings. Betrachtet man die identifizierten Publikationen,
kann eine fehlende Fokussierung auf die Ansprüche und Anforderungen des
Managements, insbesondere im Hinblick auf die Schaffung einer transparenten
Entscheidungsgrundlage, diagnostiziert werden. Die systematische Einbindung der
Präferenzen des Managements erfolgt in einigen wenigen Anwendungen bzw.
Konzeptionen mit den Ansätzen der Zielprogrammplanung (Stewart, 2010; Post &
Spronk, 1999), jedoch konnte keine Publikation identifiziert werden, die den Kreis bis
hin zur Ableitung konkreter Stellhebel und Maßnahmen schließt. In diesem Sinne ist
zudem festzuhalten, dass nur in Ausnahmefällen eine konsistente Beschreibung des
Vorgehens auf Prozessebene präsentiert wird (Hoopes & Triantis, 2001; Jyoti et al.,
2008). Ebenso fehlt ein durchgängiger Ansatz von der Modellierung der Prozesse bis
hin zur entscheidungsunterstützenden Aufbereitung der Informationen und Ableitung
konkreter Handlungsempfehlungen. Die aufgezeigten Lücken sollen in der
vorliegenden Arbeit unter Verwendung der Data Envelopment Analysis geschlossen
werden.
4.3 Ableitung von Anforderungen an eine Methode zum
prozessbasierten Benchmarking mit der DEA
Abgeleitet aus der Beschreibung des Untersuchungsbereiches und der systematischen
Analyse der Literatur werden im Folgenden sechs grundsätzliche Anforderungen an
ein Konzept zum prozessbasierten Benchmarking mit der Data Envelopment Analysis
kurz beschrieben und jeweils abschließend in einem Satz formuliert. Der Fokus liegt
dabei auf den inhaltlich-modellspezifischen Anforderungen und nicht auf der
Beschreibung genereller Anforderungen hinsichtlich der Messgrößen, Messbarkeit,
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 77
Datenverfügbarkeit sowie der wissenschaftlichen Gütekriterien Validität, Reliabilität
und Objektivität.89
Insbesondere auf Prozessebene gestaltet sich der organisationsübergreifende Vergleich
nicht einfach, obgleich der Unterstützungsbereich sowohl branchenintern als auch
branchenübergreifend gesteigertes Interesse erfahren hat (Beretta et al., 1998;
Anderson & McAdam, 2005). Gerade im Unterstützungsbereich in Krankenhäusern
erhält der Begriff der Wettbewerbsfähigkeit einen besonderen Charakter.
Wettbewerbsfähigkeit beschreibt die Fähigkeit eines Unternehmens zur Generierung
und Bewahrung von Wettbewerbsvorteilen (Eiriz et al., 2010). Unterstützungsprozesse
sind nicht direkt an der Wertschöpfung beteiligt und fokussieren, insbesondere im
Hinblick auf die systemimmanenten Eigenschaften des Gesundheitswesens, auf die
möglichst effiziente Unterstützung der Leistungserbringung bei gegebenen
Qualitätsstandards (Kersting, 2008). Im Sinne der Unterstützung der
Wettbewerbsfähigkeit und des Anspruchs zur Bereitstellung
entscheidungsunterstützender Informationen, zum Beispiel durch das Aufzeigen von
konkreten Handlungsbedarfen, ist es notwendig, dass organisationsübergreifend
valide, strukturdefinierte Erfolgsparameter identifiziert und verwendet werden. Eine
derartige, belastbare Leistungsdiagnose erfordert eine valide Vergleichsgrundlage
(Brocke & Sonnenberg, 2011). LAI ET AL. (2011b) konstatieren, dass die Erstellung
von Prozessmodellen als Vergleichsgrundlage eine unabdingbare Voraussetzung für
die Durchführung von Vergleichen und Analysen von Prozessen darstellt, um
kurzfristige und langfristige Erfolge sicherzustellen. Das Prozessmodell ist
strukturgebend für die Definition von geeigneten Leitungsmessgrößen, um zum einen
unternehmensübergreifend eine einheitliche Vergleichsbasis aus inhaltlicher,
aktivitätenorientierter Perspektive zu gewährleisten, zum anderen potenzielle Effekte
für die Leistungserstellung des Betrachtungsobjekts mess- und vergleichbar zu machen
(Maire, 2002; Schulte-Zurhausen, 1995). JUAN und OU-YANG (2005) betonen, dass die
zentrale Herausforderung zum Vergleich von Prozessen und zur Ableitung geeigneter
Messgrößen darin besteht, dass sowohl der Informationsfluss als auch die Logik der
Prozesskonfiguration mit geeigneten Methoden abgebildet werden.
Anforderung 1: Transparente Beschreibung der Prozessstruktur
89 Siehe detailliert dazu bspw. Flinspach (2011), Legner (1999), Burger (2009) und Rosenkranz (2006). Kühner
(2005) weist zudem auf die formalen Anforderungen (Einheitlichkeit, Stabilität und Praktikabilität) an das
Verfahren hin.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 78
Die unterstützenden Bereiche in unterschiedlichen Organisationen weisen strukturelle
Ähnlichkeiten auf, was einem organisationsübergreifenden Vergleich entgegenkommt.
Durch den lediglich indirekten Beitrag zur Wertschöpfung wird der Austausch
prozessbasierter Daten in Unterstützungsbereichen vereinfacht. Zudem besteht im
Krankenhaus die Tendenz, dass Unterstützungstätigkeiten zentral ausgeführt werden
und somit gebündelt Make-or-buy-Entscheidungen für einzelne Leistungsbereiche
getroffen werden können (Dresen, 1997). Dabei sind prozessbasierte Leistungsgrößen
aggregierten finanziellen Kennzahlen gegenüber zu präferieren bzw. mit diesen zu
verbinden (Reichwald & Weichselbaumer, 1997). Eine aussagekräftige
Leistungsmessung der Unterstützungsprozesse auf der Basis übergeordneter
Erfolgskennzahlen gestaltet sich jedoch schwierig, da für die erstellten Outputs kein
marktbasierter Preis gebildet wird und eine klare Zurechenbarkeit zur direkten
Leistungserstellung nicht möglich ist (Schweitzer, 1997).90 Zudem stellt die
Konstruktion einer Produktionsfunktion für die Erstellung von Leistungen im
Unterstützungsbereich eine Schwierigkeit dar, da kein direkter Zusammenhang
zwischen Input und Output hergestellt werden kann. Die Prozessstruktur und die dort
identifizierten Outputs (in Abhängigkeit von der gewählten Analyseebene) liefern die
Basis für die Erstellung eines auf der Prozessstruktur beruhenden Messsystems.
Anforderung 2: Konzeption eines prozessbasierten Messmodells
Auch in Krankenhäusern ist die eindeutige Tendenz hin zu einer prozessorientieren
Organisationsstruktur zu beobachten (Kersting, 2008). Daher steht für die eigentliche
Leistungserstellung der medizinische Kernprozess ohne Zweifel im Vordergrund,
jedoch müssen bei der Bewertung der Leistungsfähigkeit der unterstützenden Prozesse
nicht nur kostenbasierte Faktoren, sondern ebenso qualitätsbezogene
Prozessmessgrößen in die Betrachtung aufgenommen werden. Da qualitätsspezifische
Kennzahlen nur schwer direkt messbar sind, werden sie häufig unter Nutzung des
Konzepts der latenten Strukturvariablen über Indikatoren erschlossen.91 Jedoch
blenden viele Untersuchungen, gerade bei der Betrachtung von Dienstleistungen bzw.
hybriden Leistungsangeboten, den Qualitätssachverhalt aus (Soteriou & Stavrinides,
1997). Neben der Berücksichtigung von Kosten-, Zeit- und Qualitätsfaktoren wird
insbesondere auch der Zufriedenheit der internen Kunden große Beachtung geschenkt.
90 Zur Erläuterung der Gemeinkostenproblematik siehe Möller et al. (2007). 91 siehe Kap. 3.2.3 dieser Arbeit. Morey et al. (1992) nutzen in einer Studie im Krankenhausumfeld den
Vergleich der prognostizierten mit der tatsächlichen Sterberate.
Prozessbasiertes Benchmarking des Unterstützungsbereichs im Krankenhaus 79
Die Kennzahlen unterscheiden sich nicht nur darin, dass sie zum Teil qualitativer bzw.
quantitativer Art sind, sondern sie sind heterogen hinsichtlich der Maßeinheiten und
müssen in einem Leistungsmesssystem gleichberechtigt berücksichtigt werden. Die
Möglichkeit, diese multidimensionalen Indikatoren einzubeziehen, bildet eine wichtige
Anforderung an die Konzeption des auf Basis des Prozessmodells generierten
unterteilt das fachliche Wissen einer Problemdomäne in Common Practice und Best
Practice. Dabei beschreibt Best Practice das derzeitig optimale Wissen über
93 Stachowiak (1973) beschreibt neben dem Verkürzungsmerkmal das Abbildungsmerkmal und das
pragmatische Merkmal als konstituierende Merkmale eines Modells. 94 Für eine intensive Diskussion des Modellbegriffs (konstruktionsorientiert vs. abbildungsorientiert) siehe z. B.
Brocke (2003a). 95 Weitere Definitionen des Referenzmodellbegriffs finden sich bspw. bei Sinz (1997), Mertens & Holzner
(1992), Becker & Schütte (1996) sowie Raue (1996).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 88
Strukturen, Prozesse, Verfahren, Techniken etc. in einem Anwendungsbereich und
kann als Innovationsimpuls zur Erlangung von Wettbewerbsvorteilen dienen.
Common Practice ist hingegen das Wissen, dass als (Branchen-)Standard angesehen
wird und somit zumeist die Risiko- und Kostenreduktion in den Vordergrund stellt.
Als Referenzmodelle werden diejenigen Modelle bezeichnet, die sich durch einen
gewissen Grad an Empfehlungscharakter und Allgemeingültigkeit in einem
bestimmten Kontext auszeichnen (Brocke, 2003a). Der Empfehlungscharakter bringt
mit sich, dass Referenzmodelle als Vorbildmodelle (Soll-Modelle) für
unternehmensspezifische Ausprägungen der Prozesse dienen (Zelewski et al., 2001;
Schlagheck, 2000; Brocke, 2003a). Impliziert wird damit eine Best-Practice-Lösung,
die sich jedoch vor einem unternehmensindividuellen Hintergrund kaum überprüfen
lässt (Schütte, 1998). Mit dem Merkmal der Allgemeingültigkeit wird beschrieben,
dass das Referenzmodell für eine Klasse unternehmensspezifischer Modelle Gültigkeit
besitzt. Jedoch wird für die Entwicklung des Referenzmodells der adressierte
Gültigkeitsbereich in Form des Originals selbst mit in die Konstruktion einbezogen
und das erstellte Modell somit beeinflusst (Brocke, 2003a). SCHÜTTE (1998, S. 70)
weist darauf hin, dass das Merkmal der Allgemeingültigkeit „[…] auf die Gültigkeit
des Modells unter bestimmten (dem Modell inhärenten) Voraussetzungen“ bezogen
ist. Zur Einschätzung der formalen Qualität des entwickelten Referenzmodells
formuliert SCHWEGMANN (1999), dass eine erfolgreiche Anwendung bzw.
Übertragung des Modells nicht ausreichend ist, sondern vordergründig die Akzeptanz
und Anwendung durch den individuellen Nutzer ausschlaggebend ist.
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 89
Abbildung 17: Einsatzzwecke von (Referenz-)Prozessmodellen (Abbildung übernommen aus Rosemann et al., 2012, S. 59)
Um diese unterschiedlichen inhaltlichen und methodischen Anforderungen an
Referenzmodelle je nach Einsatzzweck zu systematisieren, wird eine Unterscheidung
in Organisationsgestaltung und Anwendungssystemgestaltung vorgenommen
(Rosemann, et al, 2012). Die detaillierten Anwendungszwecke werden den beiden
genannten Bereichen, wie in Abbildung 17 dargestellt, zugeordnet (Becker et al.,
2002a). Bei der Organisationsgestaltung spielen insbesondere konzeptionelle Modelle
eine hervorgehobene Rolle, da sie helfen, komplexe organisatorische Sachverhalte
transparent zu machen, z. B. im Falle von Reorganisationsprojekten, und Wissen über
die Unternehmensstrukturen und Unternehmensprozesse zu schaffen (Becker, Pfeiffer,
2006). BECKER und SCHÜTTE (2004, S. 65) definieren ein konzeptionelles Modell als
„Repräsentation der relevanten Aspekte eines betrieblichen Systems aus Sicht des
Anwendungs- und Organisationsgestalters“. Für die vorliegende Zielsetzung der
Systematisierung und Herstellung von Transparenz über Prozesse und Strukturen in
einer bestimmten Domäne als Basis für die Messung und anschließendes
Prozessbenchmarking eigenen sich konzeptionelle Modelle mit dem Ziel der
Organisationsgestaltung im Besonderen.
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 90
5.4 Vorgehen zur Konstruktion von Referenzmodellen
Für die Konstruktion von Referenzmodellen zur Lösung einer bestimmten
Problemstellung existieren in der Literatur unterschiedliche Ansätze. Die
Modellierung von Referenzmodellen kann konzeptionell in die Phasen
Modellerstellung (Entwicklung der Referenzmodelle) und Modellanwendung
(Entwicklung mit Referenzmodellen) unterteilt werden (Knackstedt, 2006; Fettke &
Loos, 2002a; Fettke & Loos, 2005). SCHÜTTE (1998) liefert ein Basismodell zur
Konstruktion von Referenzmodellen. Das für nicht objekt-orientierte Referenzmodelle
entwickelte Vorgehensmodell bildet auch für die Konstruktion objektorientierter
Referenzmodelle eine maßgebliche Grundlage (Brocke, 2003a). Das in Abbildung 18
dargestellte Vorgehensmodell unterteilt den Referenzmodellierungsprozess in 5
Phasen (Schütte, 1998). Die „Problemdefinition“ als Phase 1 bildet den Startpunkt der
Referenzmodellierung. Neben einer detaillierten Beschreibung der Problemstellung
wird explizit der Multipersonalität Rechnung getragen, Namenskonventionen werden
festgelegt, die Dokumentation von Problemdeutungen und Problemdefinition wird
vorgenommen sowie konkrete Problemtypen definiert. Phase 2 widmet sich der
„Konstruktion des Referenzmodells“ und abstrahiert für eine Klasse von Unternehmen
identische Probleme. Dabei werden vor allem unterschiedliche Varianten auf
Problemebene dargestellt, organisatorische Besonderheiten beschrieben und ein
grundsätzlicher Referenzmodellaufbau ermittelt. Die Komplexität des entwickelten
Referenzmodells ist dabei von der Leistungskomplexität (Ausgestaltung der
Modellbausteine) und der Variationskomplexität (Kombinationsmöglichkeiten)
abhängig.
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 91
Abbildung 18: Vorgehensmodell zur Referenzmodellierung (Abbildung übernommen aus Schütte, 1998, S. 185)
Phase 3 widmet sich der eigentlichen „Konstruktion der Referenzmodellstruktur“,
wobei insbesondere das „Wie“ im Zentrum der Analyse steht und die mithilfe einer
ausgewählten Modellierungssprache im entwickelten Referenzmodellrahmen
identifizierten Prozess- und Datenmodelle konstruiert und miteinander verbunden
werden. Die Phase 4 „Komplettierung“ geht von einer fertigen Modellstruktur und
einer angemessenen Lösung des Problems aus, welche jedoch durch die Aufnahme
von Querverbindungen und quantitativen Größen zu vervollständigen ist.96 In dem
vorgestellten Modell wird die Durchführung eines referenzmodellgestützten
Benchmarkings vorgeschlagen, der Benchmarking-Ansatz jedoch auf den Vergleich
einer Ist-Modellierung mit einer Soll-Modellierung reduziert. Die Phase 5 des Modells
umfasst die Anwendung des entwickelten Referenzmodells und unterscheidet die
referenzmodellgestützte Analyse und Verbesserung von Ist-Situationen und die
referenzmodellgestützte Neumodellierung.
96 Querverbindungen können im Innen- und Außenverhältnis bestehen und beschreiben horizontale
(unterschiedliche Hierarchieebenen) oder vertikale (gleiche Hierarchieebene mit logischer Abhängigkeit)
Abhängigkeiten zwischen Prozessobjekten. Abhängigkeiten können zudem zwischen Prozess- und
Datenmodellen bestehen. Quantitative Größen dienen der Beurteilung des erstellten Referenzmodells anhand
von Messvorschriften (Brocke, 2003a).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 92
Vorgehensmodelle zur Entwicklung objektorientierter Referenzmodelle stellen
SCHWEGMANN (1999) und SCHLAGHECK (2000) vor. Der betriebswirtschaftliche
Objektbegriff stammt aus der Organisationstheorie und bezeichnet ein Objekt als einen
Gegenstand, an welchem bei der Ausführung einer definierten Aufgabe etwas zu tun
ist (Kosiol, 1962; Bühner, 1989). SCHLAGHECK (2000) entwickelt ein
Vorgehensmodell zur Referenzmodellierung, das die methodische Basis für ein
computergestütztes Prozess- und Projektcontrolling bildet. Das Vorgehensmodell
zeichnet sich dadurch aus, dass die einzelnen Phasen des
(Referenzmodell-)Entwicklungs- und Anwendungskreislaufs in der Struktur eines
Doppelkreissystems berücksichtigt sind und als iterative Prozesse mit
gleichberechtigter Bedeutung zu sehen sind.
Abbildung 19: Iterativer Referenzmodellierungsprozess als Doppelkreislaufsystem (übernommen aus Schlagheck (2000,
S. 78)
In der Literatur liegen diverse Ansätze vor, die sich, gemäß dem Anspruch von
Referenzmodellen auf eine gewisse Allgemeingültigkeit, mit der Notwendigkeit der
Wiederverwendbarkeit von Referenzprozessmodellen auseinandersetzen (Fettke &
Loos, 2002b; Becker et al., 2004b). Grundsätzlich leidet die Erstellung von
Referenzmodellen unter dem Dilemma, dass die Akzeptanz des entwickelten Modells
durch die Anwender neben der inhaltlichen Qualität vor allen Dingen vom
Anpassungsbedarf abhängig ist. Geringer Anpassungsbedarf besteht dann, wenn die
erstellen Modelle möglichst präzise den Unternehmensspezifika entsprechen, was
wiederrum die Allgemeingültigkeit derartiger spezieller Modelle einschränkt und
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 93
somit die Attraktivität des Modells verringert (Becker et al., 2002b). Da die
Rahmenbedingungen und Eigenschaften für die Anwendung eines Referenzmodells
fallindividuell sind, besteht die Notwendigkeit, das Referenzmodell jeweils für den
spezifischen Organisationskontext anzupassen (Mettler, 2010). Um dieser
Herausforderung zu begegnen, schlagen BECKER ET AL. (2002b) ein Vorgehensmodell
zur Konstruktion von konfigurativen Referenzmodellen vor. Das Vorgehensmodell
umfasst 5 Phasen, die einzelne Aufgaben zusammenfassen, welchen wiederrum
bestimmte Methoden zugeordnet werden können. Die einzelnen Phasen werden von
der Querschnittsaufgabe Komplexitätsmanagement flankiert. Zudem wird die
Bedeutung der Konsensbildung zwischen allen an der Modellierung und Anwendung
des Referenzmodells Beteiligten betont. Die Zielsetzung, Referenzmodelle als Basis
für ein prozessbasiertes Benchmarking heranzuziehen, erfordert die Spezifikation von
Input- und Output-Daten und wirkt sich somit auf die Relevanz der Modellbestandteile
aus (Rosemann, 2012).97 Die vorgestellten Beschreibungen des Vorgehens bilden die
methodische Basis für das zu entwickelnde Vorgehensmodell.
5.5 Bewertungsansätze für Prozessmodelle: Grundsätze
ordnungsgemäßer Modellierung
Die steigende Verbreitung und die zunehmende Bedeutung von Referenzmodellen als
Basis für die Analyse von Prozessen erfordert konkrete Kriterien zur Beurteilung der
Modellqualität. BATINI ET AL. (1992) und MOODY und SHANKS (1994) stellen
sichtenspezifische Ordnungsrahmen vor, die Qualitätskriterien für die Evaluierung von
1996) und LINDLAND ET AL. (1994).98 Im deutschsprachigen Raum haben sich die in
der ursprünglichen Form von BECKER, ROSEMANN und SCHÜTTE (1995) entwickelten
Grundsätze ordnungsgemäßer Modellierung (GoM) durchgesetzt, die für die
Konstruktion von Referenzmodellen im Allgemeinen entwickelt wurden.
Übergeordnetes Ziel der Grundsätze ordnungsgemäßer Modellierung ist es, eine
Aussage über die Qualität der erstellten Modelle treffen zu können, wobei sich ein
qualitativ gutes Modell dadurch auszeichnet, dass die Differenz zwischen den
Anforderungen des Modellnutzers und der praktischen Eignung des Referenzmodells
97 Weitere Referenzmodelle legen bspw. Fettke und Loos (2004); Becker und Knackstedt (2003) sowie Brocke
(2003b) vor. 98 Detaillierte Ausführungen dazu finden sich in Schütte (1998).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 94
zur Lösung eines definierten Problems möglichst gering ist (Becker et al., 2012b;
Schlagheck, 2000; Schütte, 1998; Rosemann, 1996). Neben dem genannten Ziel
umfassen die Grundsätze ordnungsgemäßer Modellierung zudem
Modellierungskonventionen, die im Sinne von Richtlinien bei der Modellierung
eingehalten werden sollen und eine Qualitätsverbesserung des Modells mit sich
bringen (Schütte, 1998).
Im Folgenden werden die ursprünglichen Grundsätze ordnungsgemäßer Modellierung
kurz vorgestellt.99 Der Grundsatz der Richtigkeit umfasst die syntaktische und
semantische Richtigkeit (Schwegmann, 1999). Die syntaktische Richtigkeit betrifft das
Einhalten von Regeln und Vorgaben der gewählten Modellierungssprache und gibt
Auskunft, ob ein Modell formal korrekt ist (Becker et al., 2012b). KAMLAH und
LORENZEN (1996, zitiert nach Becker et al., 2012b, S. 33) gehen von einem
konsensorientierten Richtigkeitsbegriff aus und definieren die semantische Richtigkeit
eines Modells als gegeben, wenn im Diskurs Einigkeit von Gutwilligen und
Sachkundigen100 erzielt wurde. Der Grundsatz der Relevanz gilt dann als erfüllt, wenn
die Modellkonstruktion alle für die intendierte Nutzung notwendigen Elemente und
deren Beziehungen untereinander abbildet (Schwegmann, 1999). Grundsätzlich geben
Modelle Abstraktionen der Realität mit dem Ziel wieder, die für den
Modellierungszweck relevanten Informationen darzustellen. Dies erfordert einen
hohen Grad an Genauigkeit und Präzision in der Definition der Zielsetzung der
Modellierung, auf deren Basis Aussagen zur Modellierungssprache und zum
notwendigen Abstraktionsniveau getätigt werden können. Damit wird das Modell in
zwei Perspektiven begrenzt. Zum einen muss das Modell alle Sachverhalte enthalten,
die in der Realität bzw. der gedachten Welt als zweckdienlich beurteilt werden, zum
anderen dürfen keine Modellelemente modelliert werden, die nicht über ein
entsprechendes Gegenstück in der Realität verfügen. Der Grundsatz der
Wirtschaftlichkeit beschreibt die ökonomische Restriktion bei der
Prozessmodellierung. Eine Modellierung ist dann wirtschaftlich, wenn ein definiertes
Modellierungsziel mit minimalem Ressourceneinsatz erreicht wird bzw. mit
99 In der Literatur werden unterschiedliche Formen der GoM diskutiert. Schütte (1998) ersetzt die Kriterien
Richtigkeit und Relevanz durch Konstruktions- und Sprachadäquanz. Vom Brocke (2003) führt den
Grundsatz Inhaltsadäquanz ein, der auf die Angemessenheit des Modellinhalts fokussiert. 100 Als sachkundig gilt, wer mit der Materie, die das Modell dokumentiert, vertraut ist. Als gutwillig gilt, wer
wirkliches Interesse an einer Einigung hat. Zudem wird durch die Einigung auf definierte Wörter und Inhalte
eine sog. Sprachgemeinschaft zwischen Gutwilligen und Sachkundigen gebildet, was Voraussetzung für die
Sicherstellung der semantischen Richtigkeit ist (Becker et al., 2012b).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 95
definiertem Aufwand für die Modellierung ein Modell erstellt wird, das dem
intendierten Modellierungsweck möglichst nahekommt. Ein Modell wird somit so
lange zur Steigerung des Detaillierungsgrades verfeinert, bis die zusätzlichen Kosten
für den zusätzlichen Aufwand den entstandenen Nutzen überschreiten (Becker et al.,
2012b; Becker & Pfeiffer, 2006). Der Grundsatz der Klarheit umfasst vor allem die
Anforderungen Übersichtlichkeit und Verständlichkeit der Modellierung. Damit soll
vorrangig der Notwendigkeit eines anschaulichen Modells Rechnung getragen werden,
wobei die Beurteilung ähnlich wie beim Grundsatz der Relevanz vom Modellnutzer
abhängig ist (Schütte, 1998). Der Grundsatz der Vergleichbarkeit bezieht sich
insbesondere auf umfangreiche Modellierungsprojekte (Becker & Pfeiffer, 2006) und
soll sicherstellen, dass sich zum einen die Gleichheit (der Realität) auch in einer
Gleichheit im Modell widerspiegelt und dass sich zum anderen ggf. in
unterschiedlichen Modellierungssprachen designte Modelle bzw. Modellteile
ineinander überführen lassen (Becker et al., 2012b). Insbesondere aus
benchmarkingorientierter Sicht kommt dem Vergleich von Soll- und Ist-Modellen
bzw. darauf aufbauenden Kennzahlensystemen eine besondere Bedeutung zu, um aus
den Modellen konkrete Gestaltungsempfehlungen und Performancepotenziale ableiten
zu können (Schütte, 1998). Der Grundsatz des systematischen Aufbaus ist gerade bei
der Existenz vieler Partialmodelle mit teilweise unterschiedlichen Sichten
(Multiperspektivität) von hoher Relevanz (Schwegmann, 1999; Schütte, 1998).
Konkret müssen die im Prozessmodell abgebildeten Input- und Output-Objekte (z. B.
Daten) mit den Objekten im Datenmodell übereinstimmen (Becker et al., 2012b). Die
genannten Grundsätze stehen teilweise in konflikthafter Beziehung zueinander.101 Als
Beispiel soll hier der Konflikt des Grundsatzes der syntaktischen Richtigkeit mit dem
der Klarheit angeführt werden, da die notwendige Komplexität einer
Beschreibungssprache die Verständlichkeit des Modells reduzieren kann
(Schwegmann, 1999). BECKER und SCHÜTTE (1996) präsentieren eine ausführliche
Beschreibung von sichten- und methodenspezifischen Gestaltungsempfehlungen.
Unter anderem wird auf die Selektion einer adäquaten Beschreibungssprache
hingewiesen. Dabei ist zu beachten, dass die Beschreibungssprache mächtig genug
sein muss, um alle relevanten Sachverhalte abbilden zu können. Zudem müssen die
verwendeten Konstrukte eine verständliche Modelldarstellung erlauben. Grafische
Modellierungen sind dabei textuellen Ausführungen vorzuziehen (Schwegmann,
101 Einen Überblick über die Interdependenzen der GoM gibt Schütte (1998).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 96
1999). Modellierungssprachen beinhalten Regeln, zur Gewährleistung der
syntaktischen Richtigkeit, vernachlässigen jedoch konkrete Vorgaben zur
Sicherstellung der Modellqualität (Becker et al., 2012b).
5.6 Sprachen zur Modellierung von Geschäftsprozessen
Für die Erstellung der Referenzmodelle hat sich die Verwendung von geeigneten
Modellierungssprachen durchgesetzt (Schütte, 1998). Die ausgewählte
Modellierungssprache bildet einen wichtigen methodischen Teil der
Referenzmodellierung, indem grundsätzliche formale Richtlinien für die Erstellung
des Referenzmodells definiert werden (Schlagheck, 2000). Grundsätzlich wird bei
Modellierungssprachen zwischen dem konzeptionellen Teil (Orthosprache) und dem
repräsentationellen Teil (Notation) unterschieden (Hermsen, 2000). Die Orthosprache
wird dabei zur eindeutigen Beschreibung der Sprachelemente und deren Beziehungen
genutzt. Die Notation erleichtert die Anwendbarkeit und Verständlichkeit des Modells,
indem den Sprachelementen und Beziehungen grafische Repräsentationselemente
zugewiesen werden (Becker et al., 2008).
BECKER ET AL. (2012b) unterteilen die Modellierungssprachen in Sprachen zur
Modellierung von Daten und in Sprachen zur Modellierung von Prozessen. Im Falle
von Daten werden Entity-Relationship-Modelle (ERM) und Klassendiagramme
mithilfe der Unified Modeling Language (UML) genannt, für die Modellierung von
Prozessen Ereignisgesteuerte Prozessketten (EPK), Petri-Netze und die Business
Process Model and Notation (BPMN 2.0). Da der Fokus der vorliegenden Arbeit auf
der Modellierung von Prozessen liegt, werden im Folgenden beispielhaft die
Ereignisgesteuerten Prozessketten (EPK) und die Business Process Model and
Die 1992 von KELLER ET AL. (1992) vorgestellten Ereignisgesteuerten Prozessketten
sind eine etablierte Modellierungsmethode und eine der Hauptkomponenten der
Architektur Integrierter Informationssysteme (ARIS).103 Modelle, die mit EPK
102 Die EPK hat sich im deutschsprachigen Raum zur Konstruktion von Referenzmodellen auf
fachkonzeptioneller Ebene etabliert. Sie kann als eine vereinfachte Form eines Petri-Netzes verstanden
werden, fokussiert hingegen expliziter das Ziel einer hohen Anschaulichkeit. Jedoch ist der
Modellierungszweck nicht das allein entscheidende Kriterium für die Auswahl der Modellierungssprache,
vielmehr ist ebenso die Eignung für den potenziellen Nutzerkreis zu berücksichtigen (Leist-Galanos, 2006;
Schütte, 1998; Brocke, 2003b) Auch Krallmann et al. (2007) sehen EPK und BPMN als Standard bei der
Modellierung von Prozessen, da diese benutzerfreundliche grafische Modellierungsergebnisse erlauben. 103 Siehe detailliert dazu auch Scheer (1997) sowie Schütte (1998).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 97
umgesetzt werden, zeichnen sich durch eine detaillierte Darstellung darüber aus,
welche Ereignisse bestimmte Funktionen auslösen, welche Ereignisse von welchen
Funktionen ausgelöst werden und bilden damit eine Folge von Ereignissen und
Funktionen, die durch einen Kontrollfluss verbunden sind. Ereignisse besitzen dabei
keine Entscheidungskompetenz104, sondern stellen Zustände dar, auf die mit
definierten Funktionen reagiert werden kann. Funktionen hingegen führen den
Transformationsprozess von Inputs zu Outputs durch und besitzen
Entscheidungskompetenz. Verzweigungen, Zusammenführungen bzw. parallele
Verläufe des Kontrollflusses werden mit Konnektoren abgebildet. Zudem können
Ressourcen wie Informationen (ein- und ausgehend), Dokumente, weitere relevante
organisatorische Einheiten etc. in die Modellierung eingebunden werden. Durch den
hohen Abstraktionsgrad der Elemente Funktion und Ereignis verfügen die EPK über
einen hohen Freiheitsgrad hinsichtlich der Darstellung von Prozessabläufen und
Darstellungsniveaus (Becker et al., 2012b; Schwegmann, 1999).
Die Business Process Model and Notation (BPMN 2.0) wurde 2011 von der Object
Management Group (OMG) veröffentlicht, beruht grundsätzlich auf der BPMN 1.0,
veröffentlicht im Jahr 2004, und der zuvor durch den IBM-Mitarbeiter Stephen
A. White entwickelten Methode LOVeM (Kocian, 2011).105 Grundsätzlich verfolgt die
BPMN 2.0 das Ziel, dass die erstellten Prozessmodelle von unterschiedlichen
Nutzergruppen problemlos verstanden werden und somit Akzeptanz und Nutzen zu
steigern (Freund & Rücker, 2012). Zudem soll BPMN 2.0 die Anforderung erfüllen,
sowohl technisch als auch fachlich ausgerichtete Modelle zu erstellen, sodass
Prozessmodelle für den Aufbau und die Konfigurationen von serviceorientierten (IT-
)Architekturen herangezogen werden können (Allweyer, 2009; Becker et al., 2012b;
Kocian, 2011). Kernbestandteile der BPMN sind Geschäftsprozessdiagramme, die
wiederum Geschäftsprozesse und Modellierungselemente abbilden. Diese
Modellierungselemente werden in die Kategorien Ablaufelemente (Ereignis, Aktivität
und Entscheidungspunkt), Verbindungselemente (Sequenzverbindung,
Nachrichtenfluss, Verbindung), Schwimmbahnelemente (Pools und Swim Lanes) und
Artefakte (Datenobjekt, Gruppierung und Anmerkung) unterteilt. Ablaufelemente
bilden dabei den sachlogischen und zeitlichen Verlauf der Aktivitäten ab. Durch die
104 Entscheidungskompetenz bedeutet, dass nach einer Funktion entschieden werden kann, ob ein bestimmtes
Ereignis als Resultat eintreten soll und wie dessen Wirkung auf den Zustand des Prozesses ist (Becker et al.,
2012b). 105 LOVeM entspricht „Line of Visibility Engineering Methodology“ (Kocian, 2011, S. 7).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 98
Verbindungselemente werden zum einen die Reihenfolgebeziehungen der Aktivitäten
wiedergegeben, zum anderen die Kommunikationsbeziehungen zwischen den
Prozessstakeholdern aufgezeigt. Nachrichtenflüsse dienen der Koordination
entkoppelter Prozesse, die sich durch wenige Interaktionspunkte und einen größtenteils
unabhängigen Ablauf (unterschiedliche Pools) auszeichnen. In Form der Pools werden
die Prozessbeteiligten und die dazugehörigen Aktivitäten visualisiert, während mithilfe
der Lanes eine weitere Untergliederung möglich ist (Becker et al., 2012b).
5.7 Beschreibung des Vorgehensmodells zur Strukturierung von
Unterstützungsprozessen im Krankenhaus
Das zu entwickelnde Vorgehensmodell verfolgt das Ziel, eine transparente
Vergleichsgrundlage zum Benchmarking der Leistung von Unterstützungsprozessen in
Krankenhäusern herzustellen. Unter Einsatz von etablierten Methoden zur Erstellung
von Referenzmodellen wird ein mehrstufiges Konzept entwickelt, das für den
intendierten Anwendungsbereich spezifiziert ist und um domänenspezifische
Komponenten erweitert wurde. Die Durchführung der einzelnen Vorgehensstufen
führt zu Resultaten, die Input für nachfolgende Aufgaben bilden.
5.7.1 Definition des Analyseziels
Die erste Stufe des Vorgehensmodells dient der Festlegung des konkreten
Verwendungszwecks der Prozessstrukturierung. Grundsätzlich wird dabei
unterschieden, ob das Modell lediglich zur Untersuchung der Ursachen bereits
identifizierter Effizienzpotenziale einzelner Prozesse verwendet wird, ob eine
systematisch wiederkehrende Analyse mit dem Ziel der Kontrolle von
Leistungsabweichungen durchgeführt wird oder ob es sich um eine Betrachtung von
spezifischen Bereichen eines Untersuchungsobjekts handelt, bei der auf Basis der
Leistungsanalyse Effizienzpotenziale identifiziert sowie Zielwerte für eine
kontinuierliche Verbesserung der Prozesse abgeleitet werden sollen, wobei
Mischformen denkbar sind (Kühner, 2005; Balzert et al., 2011). Eine konkrete
Eingrenzung und Planung des Strukturierungsauftrags ist daher unumgänglich (Becker
et al., 2002b; Knackstedt, 2006). Zu unterscheiden ist dabei zwischen der Festlegung
des Betrachtungsbereichs und der Spezifikation der verfolgten Ziele. Die Auswahl des
Analysebereichs kann auf zwei Wegen erfolgen. Zum einen kann anhand einer
intuitiven Auswahl auf die Erfahrung bzw. ein konkretes Informationsbedürfnis eines
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 99
Entscheiders referenziert werden, zum anderen können mithilfe eines formalisierten
Vorgehens, z. B. durch Nutzung der Methode der kritischen Erfolgsfaktoren (Rockart,
1979), diejenigen Prozesse identifiziert werden, die den größten Einfluss auf die
Erreichung der Unternehmensziele haben (Kühner, 2005; Lamla, 1995). Sowohl die
Ableitung der Zielparameter als auch die Festlegung des Untersuchungsobjekts
erfolgen in Abhängigkeit von der strategischen Zielsetzung (Balzert et al., 2011).
Einen weiteren Ansatz stellen Becker et al. (2004a) vor, bei dem mithilfe eines
zweistufigen Phasenmodells (Portfoliomethode und Prozessprofilmethode) diejenigen
Prozesse identifiziert werden, die signifikante Verbesserungspotenziale aufweisen.
Das Strukturierungsvorhaben wird durch die Berücksichtigung diverser
Zieldimensionen weiter präzisiert. Ausgehend vom Verwendungszweck und der
Klassifikation der Untersuchungsumgebung werden die Prozesstypologie und die
Analyseebene definiert. Die definierte Zielsetzung determiniert direkt den Aufwand
für die Prozessstrukturierung. Eine weitere wichtige Festlegung im Rahmen der
Zieldefinitionsphase ist die Festlegung der potenziellen Nutzer/Nutzergruppen. Im
Krankenhausumfeld besteht die Möglichkeit, dass sowohl medizinische als auch nicht-
medizinische Stakeholder Nutzer des Strukturierungsergebnisses sind.106 Somit soll
auch der häufig von Praxisseite geäußerten Kritik der unzureichenden Einbindung der
Anforderungen des Modellnutzers begegnet werden. Neben der frühzeitigen
Identifikation und der Einbeziehung der späteren Modellnutzer ist es von großer
Bedeutung, dass alle beteiligten Stakeholder des Untersuchungsbereichs identifiziert
und ihre Interessen abgebildet werden. Damit wird sichergestellt, dass alle
notwendigen Perspektiven und Dimensionen in die Abbildung der Prozesse, die
wiederum die Basis für das Kennzahlenmodell bilden, mit in die Betrachtung
einbezogen werden (Knackstedt, 2006).
5.7.2 Identifikation geeigneter Partner und Sicherstellung der Vergleichbarkeit
Die Notwendigkeit der Identifikation geeigneter Partner leitet sich aus dem
übergeordneten Ziel eines externen prozessbasierten Benchmarkings ab. Nachdem in
Stufe 1 das Analyseziel konkretisiert wurde, muss das Prozessmodell nun als Basis der
106 In der Referenzmodellliteratur wird weiterhin auf die Identifikation und Auswahl der für die Betrachtung
notwendigen Perspektiven hingewiesen. Frank und van Laak (2003) betonen, dass die Blickwinkel auf die
Prozesse in Abhängigkeit vom Betrachter und dem spezifischen Analysezweck variieren. Zudem ist darauf
hinzuweisen, dass die Projektzieldefinition häufig mit Prognoseproblemen behaftet ist und Präferenzen sowie
Zielsetzungen im Verlauf des Konstruktionsprozesses verändert werden (Knackstedt, 2006).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 100
Prozessstrukturierung in Zusammenarbeit mit anderen Unternehmen konfiguriert
werden.107 Dazu ist es im konkreten Fall notwendig, die verschiedenen Klassen von
Krankenhäusern herauszuarbeiten und für die Modellierung zu nutzen. Da es sich um
ein Common-Practice-Modell handelt, werden aus Wirtschaftlichkeitsgründen weniger
Partner benötigt als für den eigentlichen Leistungsvergleich. Der Auswahlprozess der
potenziellen Partnerunternehmen orientiert sich an der etablierten
Benchmarkingmethodik.108 Dabei gliedert sich das Vorgehen in die
Informationsbeschaffung und die Kategorisierung. Im Rahmen der
Informationsbeschaffung werden die Daten über potenzielle Partner gesammelt und
systematisiert, wozu sowohl öffentlich zugängliche Quellen genutzt werden als auch
eine zielgerichtete Primärforschung durchgeführt wird (Kühner, 2005). Grundsätzlich
ist zu berücksichtigen, dass die Auswahl geeigneter Vergleichseinheiten mit hoher
Übereinstimmung der deskriptiven Merkmale präzisere Ergebnisse hinsichtlich der
Leistungskraft sowie der Umsetzbarkeit identifizierter Best Practices liefert (Staat,
2006).
STAAT (2006) weist darauf hin, dass nur Krankenhäuser mit einem ähnlichen
Dienstleistungsangebot miteinander verglichen werden können. Dafür wird die
Verwendung sog. Strukturgruppen vorgeschlagen, um Krankenhäuser mit einer
ähnlichen Struktur ihrer Departments zusammenzufassen (Arnold & Paffrath, 1995,
zitiert nach Staat, 2006, S. 2257). Jedoch ist anzumerken, dass eine derartige
Gruppierung erst bei einer sehr großen Anzahl von Betrachtungsobjekten sinnhaft
erscheint und im Hinblick auf die übergeordnete Zielsetzung die Methode zentraler
Stärken beraubt. Hier soll die Klassifikation der Krankenhäuser anhand spezifischer
Kriterien erfolgen, die Basis dafür bieten die in Kapitel 4 vorgenommene Typisierung
und Beschreibung des Krankenhausumfeldes sowie die vom Statistischen Bundesamt
publizierten Gliederungskriterien. Dabei erfolgt zum einen eine Unterscheidung
hinsichtlich der medizinischen Zielsetzung der Krankenhäuser in
Allgemeinkrankenhäuser und Fachkrankenhäuser, zum anderen wird hinsichtlich der
Versorgungsstufe differenziert. Neben den genannten Kriterien zum Leistungsangebot
der Krankenhäuser werden die unterschiedlichen Fachabteilungen des Krankenhauses
einbezogen. Durch Berücksichtigung dieses Kriteriums erfolgt eine Betrachtung
hinsichtlich der Spezialisierung bzw. der vorhandenen Differenzierungsmerkmale
107 Insbesondere im Hinblick auf die Ableitung konkreter Handlungsempfehlungen und die Identifikation valider
Stellhebel ist eine Einbindung von geeigneten Partnern unumgänglich. 108 Zur grundsätzlichen Methodik siehe z. B. Kap. 3.3 dieser Arbeit.
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 101
aufseiten der medizinischen Leistungserbringung. Damit kann eine
organisationsbasierte Unterscheidung der Krankenhäuser vollzogen werden. Weiteres
wichtiges Unterscheidungsmerkmal ist die Art der Zulassung. Diese richtet sich nach
§ 108 des 5. Sozialgesetzbuches (SGB V) und unterscheidet Plankrankenhäuser,
welche Teil des landesspezifischen Krankenhausplans sind, Hochschulkliniken, die
nach landesrechtlichen Vorschriften für den Hochschulbau gefördert sind, sowie
Krankenhäuser mit einem Versorgungsauftrag entsprechend § 108 Nr. 3 SGB V, die
über eine Zulassung durch Versorgungsverträge mit den
Krankenkassenlandesverbänden und Ersatzkassenverbänden verfügen. Zudem werden
nicht zugelassene Kliniken, entsprechend ohne Versorgungsauftrag, in der
Klassifikation berücksichtigt. Neben der Zulassung ist insbesondere die Trägerschaft
der Krankenhäuser von Relevanz. Dabei wird in öffentliche, gemeinnützige und
private Krankenhäuser unterschieden. Als abschließendes Klassifikationsmerkmal
wird die Größe des Krankenhauses anhand der Bettenanzahl berücksichtigt. Zur
weiteren Sicherstellung der Vergleichbarkeit werden neben den organisatorischen
Merkmalen zudem stationäre Fallzahlen sowie Angaben zum Case Mix in die
Klassifikation mit einbezogen.
5.7.3 Definition der Modellierungsmethode
Die Auswahl und Adaption einer passenden Modellierungssprache ist ein großer und
relevanter Aufgabenbereich der Prozessmodellierung (Becker et al., 2000). Die
Spezifikation der Modellierungsmethode umfasst neben der Auswahl der
Modellierungssprache die Definition der Modellierungskonventionen (Thomas, 2006).
Dabei ist die Formulierung und Beschreibung der Modellierungskonventionen eng mit
der gewählten Modellierungssprache verknüpft. Da sich die Vorhaben zur
Modellierung von Prozessen hinsichtlich ihrer Zielsetzungen und Rahmenbedingungen
unterscheiden, existiert keine einheitliche Modellierungssprache, die auf jeden
Sachverhalt passt. Vielmehr muss die Modellierungssprache den spezifischen
Anforderungen des definierten Analyseziels entsprechen (Rosemann et al, 2012). Zu
diesem Zweck kann auf bestehende Methoden bzw. Methodenbestandteile und
Empfehlungen zurückgegriffen werden, um diese zielspezifisch miteinander zu
kombinieren und anzupassen (Becker et al., 2002b; Knackstedt, 2006). Die
Anforderungen an die Ausgestaltung der Modellierungssprache sind stark von der
intendierten Verwendung der Prozessmodelle abhängig. Liegt der Fokus, wie im
vorliegenden Fall, auf der prozessorientierten Strukturierung des
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 102
Betrachtungsbereichs, ist die Anschaulichkeit der verwendeten Modelle von größerer
Bedeutung als ein hoher Formalisierungsgrad. Von besonderer Relevanz ist, dass
schon bei der Auswahl der Modellierungssprache die späteren Modellnutzer in die
Überlegung einbezogen werden und sowohl ihre Interessen als auch ihr methodisches
Verständnis berücksichtigt werden, um eine spätere Nutzung des Modells
sicherzustellen (Rosemann et al., 2012; Mendling & Strembeck, 2008).109
Zu den zentralen Aufgaben zählen die Identifikation spezifischer Bedürfnisse
(Eigenschaften und Mengen) der medizinischen Fachbereiche, die Ermittlung
potenzieller Bezugsquellen, das Einholen und die Bewertung von Angeboten sowie die
Bewertung von Lieferanten, die Festlegung und Abwicklung der Bestellungen sowie
die Überwachung der Leistungen, Termine und die Handhabung von Reklamationen
(Mettler, 2010; Oppel, 2003). Übergeordnete Zielsetzung ist die Sicherstellung des
Güterflusses zur Erbringung der medizinischen Dienstleistung. METTLER (2010)
differenziert die Ziele der Krankenhausbeschaffung in Kostenziele,
Leistungssteigerungs- und Qualitätsziele, Sicherheitsziele sowie Flexibilitäts- und
Unabhängigkeitsziele.
Lange Zeit wurde das Primärziel der bestmöglichen Versorgung der Bevölkerung mit
Gesundheitsdienstleistungen ohne systematische Berücksichtigung der notwendigen
Aufwände zur Leistungserbringung verfolgt, da die Kostendeckung gesichert war
(Fleßa & Greiner, 2013). Der damit verbundene geringe Professionalitätsgrad der
Krankenhausbeschaffung ist zudem auf die jahrelange vergleichsweise geringe
Bedeutung der Beschaffung zurückzuführen (Oppel, 2003). Darüber hinaus
unterscheidet sich die Beschaffung in Krankenhäusern vom Einkauf herkömmlicher
Unternehmen (Daum, 2003). Neben dem weit verbreiteten Silodenken und
heterogenen Zuständigkeiten, die zu einer unkoordinierten Beschaffung der Güter
führen (Schlüchtermann, 2013), ist die Beschaffung in Krankenhäusern durch den
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 113
Einsatz eines besonders breiten Spektrums an verwendeten Materialien und Gütern
gekennzeichnet (Daum, 2003). Obwohl die Sachkosten im Krankenhaus den größten
Kostenblock nach den Personalkosten bilden und somit großen Einfluss auf das
Betriebsergebnis haben112, ist deren Bedeutung im Vergleich zu anderen Branchen
verhältnismäßig gering (Schlüchtermann, 2013; Schirmer, 2010).113 Durch die hohe
Vielfalt und Variation der Güter und Lieferanten sind Krankenhäuser durch hohe
Komplexitätskosten gekennzeichnet. Darüber hinaus sind zur Erbringung der
Beschaffungsleistung überdurchschnittlich viele Mitarbeiter eingebunden. Zudem
binden die verhältnismäßig hohen Lagerbestände viel Liquidität (Eiff, 2011;
Schlüchtermann, 2013). Der medizinische Bedarf stellt dabei den mit Abstand größten
Teil der Gesamtsachkosten114 und rückt somit in den Fokus der nachfolgenden
Betrachtung. Obwohl inzwischen 80 % der Krankenhäuser sogenannten
Einkaufsgemeinschaften115 beigetreten sind, schätzen Experten das Einsparpotenzial
durch weitergehende Professionalisierung auf 25–30 % (Schlüchtermann, 2013). Auf
eine Darstellung unterschiedlicher Organisationsformen, Abgrenzungen und
spezifischer Ausgestaltungen hinsichtlich patientenferner bzw. patientennaher Güter
soll an dieser Stelle verzichtet werden (Mettler, 2010; Haubrock, 2009c).
5.8.2 Schrittweise Umsetzung des entwickelten Vorgehens
Im Folgenden wird das entwickelte Vorgehensmodell auf den Beschaffungsbereich in
Krankenhäusern angewendet. Die Ergebnisse werden den einzelnen Stufen
entsprechend im vorgestellten Modell überblicksartig aufgezeigt und die
Anknüpfungspunkte für die Leistungsmessung jeweils mit der Data Envelopment
Analysis herausgestellt. Exemplarisch wird auf Basis der im Kapitel 4.3 definierten
zentralen Anforderungen des Modells eine Strukturierung des Untersuchungsbereichs
vorgenommen. Neben der detaillierten Analyse der vorliegenden Literatur wurden 29
semi-strukturierte Experteninterviews mit kaufmännischen Ansprechpartnern aus
112 Siehe Kap. 4 dieser Arbeit. 113 Der Sachkostenanteil in anderen Branchen beträgt ca. 50–60 %. 114 „Medizinprodukte sind alle einzeln oder miteinander verbunden verwendeten Instrumente, Apparate […], die
vom Hersteller zur Anwendung für Menschen […] bestimmt sind und deren bestimmungsgemäße
Hauptwirkung im oder am menschlichen Körper weder durch pharmakologisch oder immunologisch
wirkende Mittel noch durch Metabolismus erreicht wird, deren Wirkungsweise aber durch solche Mittel
unterstützt werden kann.“ (MPG, § 3 Abs. 1). 115 Einkaufgemeinschaften sind horizontale Kooperationen von wirtschaftlich und rechtlich unabhängigen
Einrichtungen mit dem Ziel, gemeinsame Beschaffungsaktivitäten zu tätigen, die Verhandlungsmacht bei
Lieferanten zu erhöhen, den notwendigen Ressourceneinsatz für den Einkauf zu reduzieren und somit
optimierte Versorgungsprozesse zu etablieren (Eschenbach, 1990; Essig, 1999).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 114
Krankenhäusern in Deutschland und der Schweiz geführt. Als Experten gelten
Sachverständige, Kenner oder Fachleute, also Personen, die über besondere
Wissensbestände verfügen (Kühl et al., 2009). Das Experteninterview zeichnet sich
dadurch aus, dass „es auf einen exponierten Personenkreis zielt, der im Hinblick auf
das jeweilige Forschungsinteresse spezifisches Wissen mitbringt“ (Kühl et al., 2009,
S. 33). Darüber hinaus wurden von den Experten zur Verfügung gestellte Dokumente
analysiert und Erkenntnisse aus eigenen Beobachtungen ausgewertet.116 Entsprechend
dem Wirtschaftlichkeitsanspruch erfolgt eine nutzenabhängige Gestaltung des
Erhebungsaufwands (Allweyer, 2005).
5.8.2.1 Definition des Analyseziels und Identifikation der Partner
Das Vorhaben zur Strukturierung der Beschaffungsprozesse im Krankenhaus verfolgt
das Ziel, eine transparente Grundlage für einen effizienzbasierten Leistungsvergleich
auf Prozessebene vorzulegen. Dazu wird auf Aktivitätenebene ein detailliertes Modell
erstellt, auf dem die Leistungsmessung aufgebaut werden kann. Die Konstruktion
erfolgt aus Perspektive des Controllings in seiner Funktion als Lieferant transparenter
Informationen zur Entscheidungsunterstützung (Fischer et al., 2012). Die branchen-
und funktionsbasierte Strukturierung identifiziert alle am Erstellungsprozess
beteiligten Stakeholder und bindet die Leistungsempfänger mit in die Betrachtung ein.
Die Spezifikation und Beschreibung des Analyseziels erfolgt anhand des
Klassifikationsrasters, das in Abbildung 22 dargestellt ist. Die Markierung in der
Abbildung verdeutlicht die vordergründige Zielsetzung des Vorhabens. Die
übergeordnete Zielsetzung der Methode muss für den Teil der Prozesssturkturierung
präzisiert werden. Das übergeordnete Analyseziel ist die Identifikation von
Effizienzpotenzialen und Ableitung geeigneter Benchmarks und
Referenzorganisationen. Die spezifische Zielsetzung des
Prozessstrukturierungsvorhabens ist die strukturelle Systematisierung des Umfelds der
Unterstützungsprozesse, insbesondere des Einkaufs, und die Schaffung einer
einheitlichen Vergleichsbasis für die nachfolgende Effizienzanalyse zur Gestaltung der
Prozessabläufe und der prozessualen Rahmenbedingungen. Hinsichtlich des
Verwendungszwecks soll die krankenhausspezifische Strukturierung zum einen die
Grundlage für die nachfolgende Analyse bilden, zum anderen die individuellen
116 Die Erhebung der Prozesslandkarte und der Verfeinerungsmodelle erfolgte im Rahmen eines
Forschungsprojekts an der Universität St. Gallen, u. a. mit Unterstützung von Abschlussarbeiten (Arpagaus,
2014; Berger, 2014).
Entwicklung und Anwendung eines Vorgehensmodells zur systematischen Strukturierung von Prozessen 115
Organisationen bei der Ableitung von Best Practices und der ggf. notwendigen
Neugestaltung der Prozessstrukturen unterstützen. Hinsichtlich des Neuigkeitsgrades
ist zu sagen, dass noch keine umfassende Lösung für den gesamten
Unterstützungsbereich von Krankenhäusern existiert, jedoch im Bereich des
Beschaffungsmanagements deskriptive Beschreibungen und Forschungsergebnisse
vorliegen. Entsprechend der Konzentration auf den Beschaffungsbereich im
Krankenhaus erfolgt eine klare Branchen- und Funktionsfokussierung. Im Rahmen der
Betrachtung werden die zugrunde liegenden Prozesse bis auf Aktivitätenebene
analysiert und zu Haupt- und Teilprozessen aggregiert. Im Mittelpunkt der
Betrachtung stehen somit die individuellen Prozessverantwortlichen und die
zugehörigen Abteilungen/Funktionsbereiche. Die Verbindungen zu externen
Leistungserbringern, Entscheidungsträgern und sonstigen Anspruchsgruppen werden
jedoch ebenso in die Betrachtung einbezogen. Schließlich ist die klare Ausrichtung
hinsichtlich der Schaffung einer validen Vergleichsgrundlage für das Management als
6.5.5 Quantitative Analyse und Harmonisierung der Ausgangsdaten zur
Aufstellung des Messmodells
Ziel dieses Schrittes ist die strukturelle Aufstellung des Kennzahlensets als Basis für
die Formulierung der finalen DEA-Messmodelle. Dazu werden die vorliegenden Daten
mithilfe statistischer Verfahren analysiert und hinsichtlich definierter Formalkriterien
überprüft. Einige Produktionsfaktoren eignen sich für eine Zuordnung sowohl in die
Input- als auch in die Output-Kategorie. Derartige unklare Zuordnungen können bspw.
mit der Durchführung einer Serie von Regressionsanalysen behoben werden.132
Korrelationstests eignen sich zur Eliminierung von Redundanzen bei der Einsteuerung
der Faktoren, wobei die Ergebnisse ausschließlich als Indikator für potenziell zu
eliminierende Faktoren zu interpretieren sind (Holland, 1986; Schendera, 2014). Eine
starke Korrelation weist möglicherweise darauf hin, dass die durch den Faktor
ausgedrückte Information bereits durch andere Faktoren bereitgestellt wird. Dies ist
insbesondere im Hinblick auf die mögliche Verzerrung der Ergebnisse der
Effizienzanalyse relevant (Bürkle, 1994).133 Darüber hinaus können weitere
quantitative Analysen mithilfe der DEA-Systematik vorgenommen werden. Zum einen
kann auf der Basis der mit dem CCR-Modell errechneten Gewichtungen identifiziert
werden, welche Faktoren mit dauerhaft niedrigen Gewichtungen nur minimalen
Einfluss auf die Effizienzwerte haben und im Hinblick auf die Notwendigkeit der
132 Für quantitative Untersuchungen der Inputs und Outputs müssen entsprechende Daten der Vergleichsobjekte
vorliegen. 133 Zur Interpretation der Korrelationskoeffizienten (Kor.): < 0,2 sehr geringe Kor., < 0,5 geringe Kor. < 0,7
mittlere Kor., < 0,9 hohe Kor., > 0,9 sehr hohe Kor. (Schendera, 2014, S. 16).
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 142
Modellintegration überprüft werden müssen. Zum anderen werden Test-Trials mithilfe
der DEA durchgeführt, wobei jeweils ein Faktor aus der Analyse eliminiert wird, um
das finale Setting der DEA-Modelle zu bestimmen.
Eine grundlegende Schwäche der DEA liegt darin, dass keine adäquate
Berücksichtigung von Messfehlern erfolgt. Daher berücksichtigt die Betrachtung auch
Extremwerte, was Einfluss auf die Konstruktion des effizienten Randes der
Technologie hat. Entsprechend bietet sich eine Analyse der Datenbasis zur
Identifikation von Ausreißern an. Eine deskriptive Betrachtung der Datengrundlage
erfolgt durch eine Betrachtung der minimalen und maximalen Variablenausprägungen,
des arithmetischen Mittels und der Standardabweichungen.134 Die Analyse dient
vorrangig dazu, auffällige DMUs bzw. deren Ausprägungen zu identifizieren und eine
entsprechend detaillierte Betrachtung anzustoßen. Grundsätzlich besteht im Rahmen
der Datenerhebung, insbesondere auf Prozessebene, die Gefahr, dass die Bandbreite
der Messergebnisse erheblich ist und fehlerbehaftet sein kann. Gerade bei
Informationen, die durch subjektive Einschätzungen beeinflusst sind, kann es zu
Verzerrungen bzw. Ausreißern kommen.135 Eine zielorientierte Vorgehensweise zur
Identifikation von Ausreißern besteht darin, die DEA mit dem vollständigen Datensatz
durchzuführen. Anschließend werden die effizienten Einheiten entfernt und die
Analyse erneut gestartet. Dies wird so oft wiederholt, bis sich die Effizienzwerte der
betrachteten Einheiten stabilisieren, was einen entsprechend subjektiven Aspekt der
Analyse mit sich bringt (Hammerschmidt et al., 2012; Wilson, 1995).136
In diesem Schritt soll auch die Erfüllung der methodischen Anforderungen der DEA
sichergestellt werden. Die DEA ist grundsätzlich so konzipiert, dass sie Nullwerte in
den Input- bzw. Output-Größen akzeptiert, solange die Summe der Kenngrößen größer
null ist (Cantner et al., 2007). Im Unterstützungsbereich der Krankenhäuser treten
Nullwerte bei den Outputgrößen vergleichsweise selten auf, da die zu erbringenden
Leistungen klar definiert sind. Eine Lösung des Nullwertproblems ist die Ersetzung
des Nullwerts durch einen hinreichend kleinen positiven Wert, wobei in der Literatur
134 Werte > 2–3× Standardabweichung sind verdächtig, Ausreißer zu sein (Griffiths, 2009, S. 122). 135 Im Rahmen der quantitativen Datenanalyse werden auch Anwendungen des AHP/ANP oder Delphi-
Methoden eingesetzt, bspw. Mahalik et al. (2010). 136 Für weitere Ausführungen zur Identifikation von Ausreißern siehe Kap. 6.5.7 dieser Arbeit, wobei betont
werden muss, dass die Analyse der Ausreißer vor der Durchführung der finalen DEA abgeschlossen sein
muss. Jedoch zeichnet sich die Vorgehensweise der DEA grundsätzlich dadurch aus, dass die einzelnen
Schritte des Vorgehens in Reihenfolge und Häufigkeit variieren können, um iterativ ein bestmögliches
Resultat zu generieren. Damit ist der Einsatz unterschiedlicher Methoden zur Identifikation der Ausreißer
möglich.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 143
oftmals 1/10 des Wertes der kleinsten Faktorausprägung des Samples vorgeschlagen
Zudem müssen die Daten auf Vollständigkeit und Plausibilität überprüft werden.
Insbesondere muss das Sample auf das Vorliegen von spezialisierten Häusern mit
entsprechend eingeschränktem Leistungsangebot oder begrenztem Aufgabengebiet der
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 144
betrachteten Abteilung untersucht werden. Im Rahmen der kritischen Begutachtung
der Daten kann eine punktuelle Nacherfassung und Validierung der Daten erfolgen.137
6.5.6 Berechnung des individuellen Effizienzwertes und Analyse der
Ineffizienzen
Aufbauend auf das konzipierte Messmodell werden zum einen mithilfe der DEA die
DMU-individuellen Effizienzwerte berechnet, zum anderen erfolgt die Zerlegung der
Ineffizienzen. Bei Beachtung der gewählten inputorientierten Modellausrichtung wird
je ein Effizienzwert unter Annahme konstanter und variabler Skalenerträge berechnet.
Grundlage für die Analyse und das Vorgehen zur Interpretation der Effizienzwerte
liefert das von GOLANY und ROLL (1989) vorgestellte Konzept. Entsprechend den
vorangegangen Erläuterungen wird jeder DMU ein individueller Effizienzwert
zwischen 0 und 1 zugewiesen, wobei eine DMU mit einem Effizienzwert von 1 als
effizient gilt. Die Differenz des Effizienzwertes zu 1 gibt bei den vorliegenden
inputorientierten Modellen an, um wie viel die Inputs reduziert werden müssen, um
den effizienten Rand der Technologie zu erreichen. Der Effizienzwert unter konstanten
Skalenerträgen (CRS) repräsentiert die absolute technische Effizienz eines
Prozesses.138 Darüber hinaus ermittelt der Optimierungsalgorithmus jene Einheiten,
die den für die Betrachtungseinheit relevanten Teil der Effizienzhülle bilden und somit
über eine ähnliche Konfiguration der Input/Output-Relation verfügen, die Faktoren
jedoch effizienter einsetzen. Diese Einheiten bilden das Referenzset der gewählten
Betrachtungseinheit und kommen somit als geeignete Benchmarkingpartner, sog.
Peers, in Betracht. Darüber hinaus können mithilfe der DEA-Systematik
entsprechende Slacks identifiziert werden. Jedoch ist darauf hinzuweisen, dass es bei
Betrachtung realer Werte empirischer Beobachtungen extrem unwahrscheinlich ist,
dass mindestens zwei Beobachtungen über das identische Input-Niveau verfügen
(Cantner et al., 2007).
Die DEA bietet die Möglichkeit der Berücksichtigung variabler Skalenerträge (VRS).
Ein Unternehmen ist dann skaleneffizient, wenn kein Unternehmen existiert, das den
definierten Output mit einem geringeren Einsatz der Input-Konfiguration realisiert.
137 Zur Vermeidung von Ungleichgewichten im Datenset sowie von Rundungsfehlern im Rahmen der
Berechnung aufgrund großer Unterschiede in der Ausprägung der einzelnen Faktoren können entsprechende
Normierungen durchgeführt werden. Dabei wird im ersten Schritt für jeden Input- und Outputfaktor der
Mittelwert aller Beobachtungen errechnet, der im zweiten Schritt den Divisor jeder Faktorausprägung zur
Errechnung des normierten Faktorwertes darstellt (Sarkis, 2007). 138 Siehe Kap. 6.3 dieser Arbeit.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 145
Jedoch können DMUs existieren, die unter anderen Größenverhältnissen eine bessere
Relation von Input und Output aufweisen (Banker et al., 1984).139 Entsprechend wird
im Rahmen der Analyse überprüft, ob Effizienzsteigerungen durch Variation der
Prozessgröße erreicht werden können. Die Skalenineffizienz wird errechnet als
Quotient aus dem ermittelten Effizienzwert unter Annahme konstanter Skalenerträge
und dem Effizienzwert unter Annahme variabler Skalenerträge (Kao & Hwang, 2011;
Banker et al., 1984). Entsprechend kann bei Existenz von Skalenineffizienz die
Prozesseffizienz durch Veränderung der Prozessgröße beeinflusst werden. Die
Richtung der Veränderung wird durch die Analyse hinsichtlich nicht zunehmender
bzw. nicht abnehmender Skalenerträge festgestellt. Bei nicht zunehmenden
Skalenerträgen ist demnach eine Reduktion der Prozessgröße, bei nicht abnehmenden
Skalenerträgen eine Vergrößerung der Prozessgröße zu verfolgen.140
Die Partitionierung der DMUs in Kategorien entsprechend spezifischen
Charakteristika bildet einen weiteren Ansatzpunkt zur differenzierten Erklärung der
identifizierten Prozesseffizienz. Der Einsatz von Kategorisierungen ist dann sinnvoll,
wenn Charakteristika identifiziert werden können, die Einfluss auf die Durchführung
des Prozesses haben, jedoch nicht als ein beeinflussbare Faktoren der Input/Output-
Relation in das Modell eingesteuert werden (Banker & Morey, 1986).141 Unter
Berücksichtigung der prozessbasierten Kategorisierung werden individuelle
Effizienzwerte unter Annahme konstanter bzw. variabler Skalenerträge berechnet. Auf
diese Weise können strukturelle Besonderheiten zur Erklärung der identifizierten
Ineffizienz beitragen und den Anteil der nicht erklärbaren Ineffizienz verringern. Die
Zerlegung der Ineffizienz erfolgt entsprechend den Effizienzwerten unter konstanten
und variablen Skalenerträgen sowie unter Berücksichtigung der Kategorisierung.
Dabei kann die Ineffizienz durch Kalkulation eines kostenbasierten Anteils im
Vergleich zum Best Performer und innerhalb der identifizierten Kategorie erklärt
werden. Zudem findet die durch mögliche Skaleneffekte generierte Ineffizienz
(Kategorie) bei der Erklärung Beachtung. Jedoch verbleibt bei ineffizienten Einheiten
häufig ein Teil, der lediglich durch Best Practices erklärt werden kann und somit eine
tiefgreifende Analyse und ggf. Restrukturierung der Prozessabläufe notwendig macht.
Eine weitere Möglichkeit zur Erklärung der Ineffizienz ist die Durchführung einer
139 siehe Kap. 3.1.2 dieser Arbeit. 140 Für steigende Skalenerträge gilt:. VRS > NIRS = CRS; für fallende SE gilt: VRS = NIRS > CRS. 141 Flinspach (2011) nutzt die Kategorisierung zur Berücksichtigung unterschiedler IT-Integrationsgrade.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 146
periodenübergreifenden Betrachtung, z. B. mithilfe des Malmquist-Indexes (Färe et al.,
2011).
6.5.7 Überprüfung der Robustheit der Analyseergebnisse
Die Durchführung einer Sensitivitäts- bzw. Validitätsanalyse zur Sicherstellung der
Qualität und Aussagekraft der Ergebnisse ist der letzte Schritt des Vorgehens. Da die
DEA im Gegensatz zu stochastischen Verfahren nicht auf Annahmen über den Verlauf
der Produktionsfunktion oder Verteilungsannahmen beruht, ist die Durchführung von
Hypothesentests und inferenzstatistischen Signifikanzprüfungen nicht möglich (Simar
& Wilson, 1998). Da die DEA aufgrund ihrer methodischen Konzeption auch
Messfehler bzw. Zufallsgrößen in die Berechnung übernimmt, beeinflussen diese
möglichen Extremwerte die Konzeption des effizienten Randes der Technologie und
somit die Effizienzwerte der weiteren DMUs. Bei ineffizienten Einheiten hat dies
lediglich Auswirkungen auf deren individuellen Effizienzwert, bei effizienten
Einheiten hat dies insbesondere Einfluss auf jene Einheiten, welche die fehlerhafte
DMU als Referenzeinheit besitzen oder deren Effizienz mithilfe dieses Abschnitts der
Technologie ermittelt wurde und denen in der Folge falsche bzw. verzerrte
Effizienzwerte zugewiesen wurden (Cooper et al., 2011a).
Neben den oben beschriebenen Anforderungen hinsichtlich der Anzahl von
notwendigen Betrachtungseinheiten zur Sicherstellung der Stabilität der Betrachtung
besteht die Möglichkeit der Ex-post-Überprüfung der DEA-Ergebnisse. In der
Literatur werden dafür zahlreiche Ansätze genannt, von denen hier ausgewählte kurz
vorgestellt werden sollen. Zum einen bietet die Betrachtung der durchschnittlichen
Abweichung der Effizienz eine Möglichkeit, die Robustheit der Ergebnisse zu
untersuchen. Dabei werden die effizienten Einheiten nach erstmaliger Durchführung
der DEA eliminiert und die Effizienzberechnung erneut ausgeführt. Neben der
Überprüfung der konstanten Folge des DMU-Rankings wird dabei die
durchschnittliche Abweichung der Effizienzwerte überprüft, wobei ein Wert von
< 7,5 % auf eine stabile Funktion zur Konstruktion des effizienten Randes der
Technologie schließen lässt (Gubelt et al., 2000; Schwarz, 2013).142 Zum anderen kann
durch Ermittlung der Supereffizienz eine Aussage über das Vorhandensein möglicher
Ausreißer getroffen werden (Banker & Chang, 2006). Dabei berechnet das
142 In der Literatur herrscht keineswegs Einigkeit hinsichtlich der definierten prozentualen Obergrenze, jedoch
kann sowohl hinsichtlich des Vorhandenseins von Ausreißern eine gute Aussage als auch bzgl. Indikation für
die Stabilität der Daten getroffen werden kann.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 147
Supereffizienz-Modell den präzisen Effizienzwert, indem Werte von > 1 zugelassen
werden. Jede effiziente DMU wird einmal aus der Konstruktion des effizienten
Technologierandes ausgeschlossen und mit dem neu berechneten effizienten Rand
verglichen, wobei dieser Abstand der DMU zum effizienten Rand als Supereffizienz
bezeichnet wird (Zhu, 2009). Übersteigt der errechnete Effizienzwert einen
Schwellenwert143, wird die DMU als Ausreißer deklariert. Eine weitere Möglichkeit
zur Identifikation von Ausreißern bietet die Verwendung von Kreuzeffizienzen (Doyle
& Green, 1994). Dabei werden den Input- und Output-Gewichtungen der beobachteten
DMU0 mit den Gewichtungen aller anderen k DMUs zugewiesen und für jede
Gewichtung k ein Kreuzeffizienzwert berechnet. Nach Berechnung des arithmetischen
Mittels wird der Kreuzeffizienzwert mit dem ursprünglichen Effizienzwert verglichen.
Diese Kennzahl wird als Maverick-Index bezeichnet und beschreibt die Abweichung
des durchschnittlichen Kreuzeffizienzwertes vom Standard-DEA-Effizienzwert
(Hammerschmitdt et al., 2012, S. 294):
Liegt ein Wert von Mk ≧ 1 vor, liegt die Vermutung nahe, dass der Effizienzwert einer
DMU über extreme Gewichtungen ausgewählter Faktoren verfügt und entsprechend
als Ausreißer klassifiziert werden kann. Eine Anwendung des Maverick-Indexes
erfolgt vorrangig für die effizienten Einheiten, die Kalkulation der Kreuzeffizienz für
alle DMUs. Eine weitere Möglichkeit zur Eliminierung von Ausreißern ist die
Verwendung der sog. Order-m-Schätzer (Cazals et al., 2002). Dabei wird erlaubt, dass
einzelne Datenpunkte außerhalb des effizienten Randes der Technologiemenge liegen.
Zudem wird der Abstand der DMU zum effizienten Rand nicht mithilfe einer
deterministischen Größe ermittelt, sondern basiert auf einer erwarteten
Effizienzgrenze, wobei die Betrachtung jeweils für die Input- oder Output-
Orientierung erfolgt (Hammerschmidt et al., 2012).
6.5.8 Zusammenfassung der DEA-gestützten Systematik
Die siebenstufige DEA-gestützte Systematik baut auf den Ergebnissen der
Prozessstrukturierung auf und stellt eine enge Verbindung zum etablierten
Benchmarking-Vorgehen her. Dabei wird ein prozessfokussiertes Vorgehen zur
Tabelle 5: Deskriptive Statistik des Hauptprozesses „operative Beschaffung" (eigene Darstellung)
151 Als Output des Teilprozesses Bestellung wurde „Wert der durchschnittlichen Bestellung“ ausgewählt, da die
Anzahl der Bestellungen sehr stark (0,922) mit der Anzahl der Wareneingänge der ausgewählten
Gütergruppe korrelierte und damit keine neue Information bereitstellen konnte.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 161
Die Analyse auf der Hauptprozessebene gibt einen übergeordneten Blick auf die
Leistungsfähigkeit des Beschaffungswesens in Krankenhäusern. Für die Analyse der
Effizienz wurde die frei zugängliche Software Efficiency Measurement System (EMS)
eingesetzt.152 Die Validierung der Daten erfolgte mithilfe einer selbst erstellten Excel-
basierten Lösung. Zudem wurde für die gesamte Betrachtung eine Restriktion der
Gewichtungsfaktoren vorgenommen. Dabei muss der Input-Faktor Personalkosten
immer stärker als der Input-Faktor Sachkosten in die Bewertung eingehen. Der
Hauptprozess Sortimentsgestaltung besitzt einen durchschnittlichen Effizienzwert von
0,543 (CRS). Dabei variieren die Effizienzwerte zwischen 0,044 und 1 mit einer
Standardabweichung von 0,349. Insgesamt werden unter der Annahme konstanter
Skalenerträge 8 Krankenhäuser als effizient klassifiziert. Unterstellt man variable
Skalenerträge, hat der Hauptprozess operative Beschaffung einen durchschnittlichen
Effizienzwert von 0,676, wobei die Werte zwischen 0,061 und 1 variieren.
14 Betrachtungseinheiten konnten als effizient deklariert werden. Die
Standardabweichung beträgt 0,342. Die als Quotient zwischen CRS und VRS
errechnete Skaleneffizienz besitzt einen durchschnittlichen Wert von 0,789.153 Für die
ineffizienten Betrachtungsobjekte konnten entsprechende Referenz-DMUs identifiziert
werden. Beispielsweise sind dies für die ineffiziente DMU 26, unter Annahme
konstanter Skalenerträge, die DMU 3, DMU 6 und DMU 30. Die Referenz-DMUs
besitzen eine ähnliche Kombination der Faktoren, setzen diese jedoch effizient ein.
Analog zur Analyse des Hauptprozesses Sortimentsgestaltung wurde auch der
Hauptprozess der operativen Beschaffung analysiert. Dieser zeichnet sich durch einen
durchschnittlichen Effizienzwert von 0,356 (CRS) aus, wobei 3 effiziente DMUs in
der Betrachtung identifiziert werden konnten.154 Eine Analyse der Prozesseffizienz auf
aggregierter Ebene gibt einen ersten Einblick in die Effizienz der einzelnen DMUs.
Tabelle 6 zeigt für den Hauptprozess operative Beschaffung zudem die Effizienzwerte
unter Berücksichtigung einer Kategorisierung. Gerade im Bereich der
Unterstützungsprozesse ist der Standardisierungs- bzw. Automatisierungsgrad ein
relevantes Unterscheidungskriterium, da Verbesserungen häufig mit großen
Aufwänden, z. B. in der IT-Infrastruktur, einhergehen. Auf der Basis der empirischen
Daten wurden daher Kategorien gebildet und entsprechend in das Modell eingesteuert
152 Siehe http://www.holger-scheel.de/ems/; Version 1.3 153 Min. 0,120; Max: 1; Standabw: 0,237. 154 Min (CRS): 0,040; Max (CRS): 1; Standabw. (CRS): 0,276; Min (VRS): 0,045; Max (VRS): 1; Standabw.
(VRS): 0,323.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 162
(Banker & Morey, 1986). Die Kategorisierung erlaubt eine bessere Interpretation der
Effizienzwerte und trägt zu einer präzisen Auswahl der Referenzeinheiten bei (Golany
33 0,197 0,198 0,040 0,045 0,109 0,311 Tabelle 6: Übersicht der Effizienzwerte auf Hauptprozessebene und nach Kategorisierung für HP operative Beschaffung
(eigene Darstellung)
Zudem wurde eine Sensitivitätsanalyse zur Überprüfung der Robustheit der Ergebnisse
durchgeführt. Dabei wurde die durchschnittliche Abweichung der Effizienzwerte
berechnet, wobei trotz einer schiefen Verteilung der Messwerte keine DMU
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 163
ausgeschlossen werden musste. Dies ist jedoch insbesondere auf den vorangestellten
Prozess sowie die kritische Analyse der Datenbasis zurückzuführen. Dem
Benchmarking-Gedanken entsprechend ist es von besonderer Bedeutung, dass die
Effizienzwerte zur Identifikation möglicher Verbesserungen auf individueller Ebene
untersucht werden. Zudem ist eine Analyse der Effizienz der einzelnen Teilprozesse
unter Einbeziehung von quantitativen und qualitativen Ausprägungen unumgänglich.
Ziel ist dabei neben der Identifikation der Referenzeinheiten zum einen die Zerlegung
der Ineffizienzen, zum anderen die Ableitung individueller Zielkorridore.
6.6.3.2 Zerlegung der Ineffizienz
Die Ineffizienz kann entsprechend in einzelne Bestandteile zerlegt werden, um
spezifische Stellschrauben zur Generierung von Handlungspunkten zu identifizieren.
Das von GOLANY und ROLL (1989) präsentierte Vorgehen soll hier zur erklärenden
Beschreibung der Ineffizienz genutzt werden. Dabei kann die Ineffizienz in einen Teil
zerlegt werden, der die Leistungsunterschiede zwischen den Benchmarks, im
vorliegenden Fall bezeichnet als Referenzeinheiten, beschreibt. Diese Ineffizienz
referenziert auf die nicht optimale Allokation der zur Leistungserstellung benötigten
Ressourcen und besitzt somit eine sehr starke Kostenfokussierung. Ein weiterer Teil
wird beschrieben als Leistungsdifferenz, erklärt durch die Beachtung von
Skaleneffekten, wobei explizit auf die optimale Prozessgröße referenziert wird. Den
dritten Teil bilden tatsächliche Leistungsdifferenzen, die durch Best Practices bedingt
sind. Die folgende Analyse155 wird anhand von DMU 26 durchgeführt.156 Dabei
handelt es sich um ein Plankrankenhaus mit Regel- und Schwerpunktversorgung. Das
grundsätzlich profitable, öffentliche Allgemeinkrankenhaus im Besitz der Landkreise
stellt über 200 Betten zur Verfügung und verbucht jährlich mehr als 60.000 Fälle. Die
Zerlegung soll beispielhaft am Hauptprozess der operativen Beschaffung vorgestellt
werden. Da der Aufwand in der operativen Beschaffung sehr stark von der Anzahl der
Bestellungen getrieben ist, werden die kumulierten Sach- und Personalkosten je
Bestellung angegeben. Unter Annahme konstanter Skalenerträge besitzt das
betrachtete Krankenhaus einen Effizienzwert (CRS) von 0,175. Der Prozess der
operativen Beschaffung weist demnach ein Effizienzdefizit von 82,5 % auf. Als
Referenzeinheiten für dieses Krankenhaus wurden die DMUs 6, 20 und 23 (VRS)
identifiziert, die den relevanten Teil der Effizienzhülle für die ausgewählte DMU
155 In diesem und im folgenden Kapitel. 156 Eine Übersicht zu den Kostenverläufen der DMUs findet sich in Anhang 7.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 164
aufspannen. Dem betrachteten Hauptprozess von DMU 26 können in der ausgewählten
Betrachtungsperiode kumulierte Personal- und Sachkosten in Höhe von 37,87 Euro
pro Bestellung zugewiesen werden.157 Um den effizienten Rand der Technologie zu
erreichen, müssten diese auf 6,63 Euro pro Bestellung reduziert werden. Folglich
resultiert für die betrachtete DMU eine Effizienzlücke von 31,24 Euro pro Bestellung,
die zur Ableitung geeigneter Maßnahmen erklärt werden soll. Die Data Envelopment
Analysis bietet die Möglichkeit, neben konstanten Skalenerträgen auch variable
Skalenerträge zur Erklärung der (In-)Effizienz heranzuziehen. Im vorliegenden Fall
konnte für die betrachtete DMU ein Effizienzwert unter Annahme variabler
Skalenerträge von 0,205 identifiziert werden. Entsprechend verfügt die DMU über
einen Skaleneffizienzwert von 0,854. Das bedeutet, dass das derzeitig gewählte
Prozessvolumen durchaus Optimierungspotenzial besitzt. Dabei können 5,54 Euro pro
Bestellung durch eine nicht optimale Gestaltung des Prozessvolumens erklärt werden.
Jedoch verbleibt eine erhebliche Ineffizienz, die auf eine nicht optimale
Prozessdurchführung zurückzuführen ist. Der Vollständigkeit halber wurde die
beschriebene DMU ebenso auf das Vorliegen von Input-Slacks untersucht. Diese
konnten weder bei Annahme konstanter noch variabler Skalenerträge identifiziert
werden.
In der Literatur werden weitere Maßnahmen zur Erklärung der Ineffizienz
vorgeschlagen. So können durch eine Partitionierung der Betrachtungsobjekte
Kategorien gebildet werden (Golany & Roll, 1989; Banker & Morey, 1986).158 Diese
werden mithilfe von Faktoren definiert, die als nicht direkt die zugrunde liegende
Input/Output-Relation determinierend deklariert sind. Somit kann durch den Vergleich
von Untergruppen, die unter ähnlichen Rahmenbedingungen agieren, eine bessere
Erklärung der Effizienz erreicht werden. Gerade im Bereich der
Unterstützungsprozesse spielt die prozessuale Standardisierung und Automatisierung
eine hervorgehobene Rolle. Daher werden mithilfe dieser Indikatoren zwei
unterschiedliche Prozesskonfigurationen simuliert. Die unterschiedlichen
Effizienzwerte werden somit durch den Vergleich innerhalb der zugewiesenen
Kategorie erklärt. Im vorliegenden Fall erreicht der betrachtete Hauptprozess innerhalb
157 Eine Darstellung des monetären Effizienzpotenzials erfolgt für den hier betrachteten Fall der operativen
Beschaffung anhand der Kosten pro Bestellung, da die Bestellungen als der zentrale Kostentreiber dieses HP
identifiziert werden konnten. 158 Siehe zur Methodik Banker & Morey (1986); für eine ähnliche Anwendung im Prozessumfeld bspw.
Flinspach (2011).
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 165
der zugewiesenen Kategorie einen Effizienzwert unter Annahme konstanter
Skalenerträge (CRSK) von 0,269. Als neue Referenzeinheiten innerhalb der Kategorie
konnten die DMUs 25 und 30 identifiziert werden. Entsprechend dem ausgewiesenen
Effizienzwert können 11,39 % der identifizierten Ineffizienz durch die Zugehörigkeit
in der definierten Kategorisierung erklärt werden. Eine Reduktion der Ineffizienz kann
somit durch die Anpassung der genannten Faktoren, die die Prozesskonfiguration
bestimmen, erreicht werden. Unter Berücksichtigung variabler Skalenerträge kann
innerhalb der zugewiesenen Kategorie ein Effizienzwert (VRSK) von 0,294 ermittelt
werden. Eine Reduktion der prozessualen Kosten auf 11,13 Euro pro Bestellung kann
ohne die Anpassung der Prozesskonfiguration oder der Prozessoutputmenge realisiert
werden. Durch die Positionierung im Bereich nicht abnehmender Skalenerträge159 lässt
sich eine Kostenreduktion auf 10,19 Euro pro Bestellung durch eine Erhöhung der
Ausbringungsmenge, im vorliegenden Fall des quantitativen Prozessoutputs,
realisieren. Durch das beschriebene Vorgehen können im vorliegenden Fall lediglich
ca. 14,42 % der identifizierten Ineffizienz erklärt werden. Abbildung 33 zeigt die
Partitionierung der Effizienzlücke des Hauptprozesses operative Beschaffung der
Beispiel-DMU 26. Es wird deutlich, dass noch immer der überwiegende Teil der
diagnostizierten Ineffizienz nicht systematisch erklärt werden kann. Diese sogenannte
Best-Practice-Lücke kann mit einer Standard-DEA nicht final beschrieben werden, ist
jedoch gerade aus der Sicht eines praxisorientierten Benchmarking-Ansatzes von
Interesse. Es bedarf damit eines Ansatzes zur Erklärung und Ableitung von
Handlungsempfehlungen sowie konkreten Stellhebeln, der auf die erstellte
Prozessstrukturierung zurückgreift.
159 Nicht abnehmende Skalenerträge bedeuten, dass sich eine Erhöhung der Ausbringungsmenge positiv auf die
Effizienz auswirkt.
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 166
Abbildung 33: Zerlegung der Ineffizienz am Beispiel von DMU 26 (eigene Darstellung)
6.7 Fazit und Zusammenfassung der Prozessleistungsmessung
Nach Darlegung der Eignung der DEA zur Leistungsbeurteilung auf Prozessebene
wurde die grundsätzliche Vorgehensweise der DEA vorgestellt. Zudem wurde eine
methodengestützte Systematik aus bestehenden theoretischen Ansätzen und
Anwendungen entwickelt, inkl. der spezifischen Anpassungen zur Beurteilung der
Leistungsfähigkeit von Unterstützungsprozessen im Krankenhaus. Die Entwicklung
dieses Methodenbestandteils basiert auf der vorangegangenen Prozessstrukturierung,
die insbesondere die Homogenität der in die Betrachtung involvierten Einheiten
sicherstellt. Die vorgestellte Systematik weist engen Bezug zum oben beschriebenen
Benchmarking-Vorgehen auf, da sowohl Benchmarks als auch verbesserungswürdige
Einheiten identifiziert, konkrete Zielsetzungen definiert und Implikationen für die
Ableitung von Handlungsempfehlungen gegeben werden können. Nach der
Bestimmung der Vergleichsobjekte und der Betrachtungsebene wird mithilfe eines
konsistenten Vorgehens die Qualität und zielgerichtete Auswahl der Input- und
Output-Faktoren sichergestellt. Diese sind für die Berechnung des Effizienzrankings
0,706
0,825
0,119
85,6%
3%
11,4%
0,731
DMU 26
Best-Practice -
Lücke Ineffizienz in
Kat. unter CRS
Darlegung der Best-Practice-Lücke
Erklärbarer
Anteil Ineffizienz
0,2940,269
0,175
Ineffizienz
Total
1,000
Zerlegung der Ineffizienz
Effizienzwert in der Kategorie
Effizienzwert unter variablen Skalenerträgen in der Kategorie
Effizienzwert unter konstanten Skalenerträgen
Kostenbedingte Prozessineffizienz
Beschreibung und Anwendung einer Systematik zur effizienzbasierten Leistungsmessung auf Prozessebene 167
von zentraler Bedeutung. Abschließend wird ein individueller Effizienzwert für jede
Betrachtungseinheit in Form einer Spitzenkennzahl berechnet, die eine Aussage
hinsichtlich der Positionierung und des ggf. daraus resultierenden Handlungsbedarfs
enthält. Zudem erfolgt eine systematische Zerlegung der Ineffizienz als erster Schritt
zur Ableitung konkreter Stellhebel für das Management. Durch den systematischen
Aufbau weist jede Stufe des Vorgehens ein konkretes Ergebnis auf und ermöglicht so
die ggf. notwendige Rückkehr zu vorangegangenen Schritten.
Die beschriebene Systematik wurde im Rahmen einer empirischen Studie in 46
deutschen und schweizerischen Krankenhäusern umgesetzt. Die dort erhobenen
prozessbasierten Daten bilden die Grundlage für die Durchführung der
effizienzbasierten Leistungsmessung. Dabei konnte das Vorgehen der individuellen
Zerlegung der Effizienz und Ableitung konkreter Referenzwerte anhand einer
beispielhaft ausgewählten Betrachtungseinheit demonstriert werden. Im untersuchten
Fall hat DMU 26 ein Effizienzpotenzial von 59,8 % (CRS) im Hauptprozess zur
Sortimentsgestaltung, im Hauptprozess der operativen Beschaffung 82,5 % (CRS) und
zeigt so erheblichen Raum für Einsparungen sowie Anknüpfungspunkte für
Entscheidungsträger auf. Daneben konnten konkrete Krankenhäuser als Referenz-
DMUs identifiziert werden, bei denen eine effiziente Ausführung der Prozesse vorliegt
und die geeignete Peers im Sinne des Benchmarking-Vorgehens bilden. Im
analysierten Einzelfall wird deutlich, dass nur ein Teil der Ineffizienz methodisch
anhand der durchgeführten Kategorisierung und durch die Betrachtung
unterschiedlicher Skalenertragsannahmen erklärt werden kann und eine erhebliche
Best-Practice-Lücke zum Benchmark verbleibt. Die Erklärung der identifizierten
Leistungslücke und die Berücksichtigung von strategischen Zielsetzungen des
Managements zur zielgerichteten Ableitung von Referenzwerten bildet die Basis für
das folgende Kapitel.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 168
7 SYSTEMATISCHE ABLEITUNG PROZESSBASIERTER
ZIELWERTE UND HANDLUNGSEMPFEHLUNGEN
Nach der Berechnung der Effizienzwerte besteht die Notwendigkeit, der ermittelten
Ineffizienz mit konkreten Maßnahmen zu begegnen. Entsprechend müssen geeignete
Handlungsempfehlungen abgeleitet und operative Zielsetzungen anhand der
strategischen Zielsetzungen des Managements operationalisiert werden. Zu diesem
Zweck muss eine Verbindung zwischen der erstellten Prozessstrukturierung und den
ermittelten Effizienzwerten hergestellt werden, um insbesondere die Best-Practice-
Effizienzlücke zu erklären und geeignete Handlungen abzuleiten und zu priorisieren.
Im Folgenden sollen die Ansätze am Beispiel eines Teilprozesses dargelegt werden.
Im ersten Schritt erfolgt die Analyse der Teilprozesse zur Identifikation ineffizienter
Einheiten entsprechend dem dargelegten Vorgehen unter Berücksichtigung der
notwendigen Betrachtungsebene. Tabelle 7 zeigt die Ineffizienzen der Teilprozesse
Antrag, Lieferantenidentifikation und Verhandlung, des übergeordneten
Hauptprozesses Sortimentsgestaltung sowie zur Vervollständigung die Werte des
Tabelle 7: Übersicht der Effizienzwerte der DMU 26 (eigene Darstellung)
Hinzuzufügen ist, dass die Hauptprozesse wie oben beschrieben lediglich auf die
quantitativen Outputs fokussieren, im Rahmen der Effizienzbetrachtung der
Teilprozesse jedoch sowohl Informationen zur Quantität als auch zur Qualität
Berücksichtigung finden. Die Analyse der Effizienzergebnisse offenbart, dass alle
relevanten Hauptprozesse verhältnismäßig geringe Effizienzwerte zeigen und somit
über ein hohes Effizienzpotenzial verfügen.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 169
7.1 Theoretische Konzeption zur Ableitung zielgerichteter
Benchmarks
Die in Kapitel 6 errechneten Effizienzwerte beschreiben die Leistungsfähigkeit einer
Betrachtungseinheit mit einer Spitzenkennzahl im Vergleich zu allen in die
Betrachtung involvierten Einheiten. Dabei werden im Regelfall, je nach gewählter
Orientierung, gleichmäßige Reduktions- bzw. Steigerungsanforderungen für die
betreffenden Faktoren formuliert, um die DMU auf den effizienten Rand der
Technologie zu befördern.160 Ziel des von STEWART (2010) vorgestellten Vorgehens
ist die Berücksichtigung der DMU-individuellen Zielsetzung des Managements und
die entsprechende Ableitung von differenzierten Zielsetzungen für die einzelnen
Faktoren.
7.1.1 Theoretische Fundierung und Konzeption
Die Data Envelopment Analysis besitzt eine herausragende Eignung zur objektiven
Diagnose und Bewertung der Leistungsfähigkeit von Organisationen oder Prozessen
(Du et al., 2010; Ferrier et al., 2006; Grosskopf & Valdmanis, 1987). Resultat der
beschriebenen Betrachtung ist die Bestimmung eines (äquiproportionalen)
Effizienzwertes sowie die Ableitung von Benchmarks, die entsprechende
Referenzeinheiten repräsentieren, die über eine ähnliche Input/Output-Konfiguration
verfügen (Scheel, 2000). Im Rahmen der Analyse kann die Untersuchung durch die
zielorientierte Auswahl des Settings der eingesteuerten Faktoren hinsichtlich einer
bestimmten strategischen Zielstellung ausgerichtet werden. Dabei ist zu
berücksichtigen, dass die Ableitung des Handlungsbedarfs sowie geeigneter
Benchmarks und damit verbundener operativer Ziele selbst bei einer dynamischen
Betrachtung über mehrere Perioden auf vergangenheitsorientierten Daten aufbaut.161
Insbesondere aus Sicht des Managements besteht der Bedarf, dass die Prozessziele mit
den übergeordneten bzw. strategischen Zielsetzungen des Unternehmens
übereinstimmen. Die Möglichkeit zur Berücksichtigung übergeordneter Präferenzen
bzw. der Nutzung der DEA in Verbindung mit den Methoden der multikriteriellen
Entscheidungsanalyse (MCDA) wird in der Literatur intensiv diskutiert (Bouyssou,
1999; Stewart, 1996; Joro & Korhonen, 2015). Zudem existiert ganze Reihe von
160 Für eine detaillierte Diskussion der Unterschiede zwischen Target Setting und dem errechneten
äquiproportionalen Effizienzmaß siehe Scheel (2000). 161 Siehe Kap. 3.1.4 dieser Arbeit.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 170
Anwendungen, welche die DEA-Systematik mit Verfahren der MCDA kombinieren
(Jyoti et al., 2008; Joshi et al., 2011). Dabei ist es wichtig zu unterscheiden, dass
multikriterielle Verfahren zukunftsorientiert ausgerichtet und
entscheidungsunterstützend sind sowie Werte und Ziele berücksichtigen und ggf.
gewichten.162 Die DEA stellt in ihrer Reinform eher ein Monitoring- und
Kontrollsystem dar (Cooper, 2005), bei dem ein vergangenheitsbezogener
Benchmarking-Wert den zentralen Output bildet (Allen, 2002; Stewart, 2010). Um
diesem Monitoring- und Diagnoseaspekt eine Planungsseite hinzuzufügen, entwickelt
STEWART (2010) einen Ansatz zur systematischen Berücksichtigung von strategischen
Unternehmenszielen.163 Somit wird ein Verbund geschaffen zwischen den vom
Management gewünschten strategischen Zielwerten und denen, die technisch
erreichbar sind. Diese Informationen werden zu Prozessplanungszwecken im weiteren
methodischen Vorgehen berücksichtigt. Ziele können mit Berücksichtigung der
strategischen Zielsetzung des Unternehmens oder Unternehmensteils für jeden Prozess
individuell festgelegt werden.164 Darüber hinaus ist die Methode nicht nur dazu
geeignet, die zielgerichteten Benchmarks ineffizienter Prozesse zu bestimmen, sondern
eignet sich ebenso zur Berücksichtigung von Zielen für die in der Betrachtungsperiode
effizienten Units im dem Sinne, dass diese näher an die Management-Zielsetzung
heranreichen. Ergebnis des Verfahrens ist eine Bandbreite von Benchmarks, die zum
einen die DMU effizient erscheinen lässt und sich zum anderen an den vom
Management vorgegebenen Zielen orientiert. Zusammengefasst orientiert sich das
entwickelte Verfahren an drei zentralen Prinzipien:
1) Die Benchmarks sollen so nah wie möglich an den Zielsetzungen liegen.
2) Die Benchmarks sollen auf dem effizienten Rand der Technologie liegen.
3) Die Benchmarks sollen so realistisch bleiben, dass sie im Rahmen einer
Budgetperiode erreichbar sind.
Den methodischen Rahmen beschreibt neben der DEA insbesondere der von CHARNES
und COOPER (1961) entwickelte Goal-Programming-Ansatz. Im Rahmen
multikriterieller Entscheidungsverfahren wird in einem ersten Schritt versucht, das
Zielsystem des Entscheidungsträgers zu entwickeln, um es dann zur
162 Der Präferenzstruktur des Entscheiders werden dabei Präferenzwerte zugeordnet. Mithilfe paarweiser
Vergleiche wird eine Ergebnismatrix erstellt, wobei die Alternative mit dem höchsten Präferenzwert
hinsichtlich der Ziele die „beste“ Lösung beschreibt. 163 Der Ansatz von Stewart (2010) bildet die Basis für die nachfolgenden Ausführungen. 164 Die nachfolgenden Berechnungen beruhen auf der Annahme konstanter Skalenerträge.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 171
Entscheidungsfindung heranzuziehen (Laux et al., 2014). Entscheidungsverfahren, die
Referenzpunkte nutzen, haben einen vergleichsweise geringen Bedarf an
Informationen. Das von WIERZBICKI (1980) entwickelte Referenzpunkte-Verfahren
umfasst zwei wesentliche Schritte und bildet die Grundlage für das folgende
Vorgehen. Zunächst werden für jedes Ziel (im vorliegenden Fall Input- und Output-
Faktoren) entsprechende Anspruchsniveaus jeweils in Form eines Referenzpunkts
festgelegt, der häufig nicht realisierbar bzw. nicht effizient ist. Die angestrebten Ziele
können somit außerhalb des effizienten Randes der Technologiemenge liegen. Im
zweiten Schritt erfolgt eine Projektion des Referenzpunktes auf den effizienten Rand
der Technologie durch Minimierung einer entsprechenden Distanzfunktion, d. h., die
Summe der gewichteten Abweichungen wird minimiert (Isermann, 1987). Dabei
beschreibt gik das individuelle Ziel bzw. Anspruchsniveau für den Input i der DMUK,
hrk, entspechend für den Output r der DMUK. Da die Ziele nicht notwendigerweise
erreichbar sind, werden Goal-Programming-typische Abweichungsvariablen eingefügt:
𝑥𝑖𝑘+ − 𝛿𝑖𝑘
𝐼 ≤ 𝑔𝑖𝑘 für 𝑖 = 1, … , 𝑚
𝑦𝑟𝑘+ + 𝛿𝑟𝑘
𝑂 ≥ ℎ𝑟𝑘 für 𝑟 = 1, … , 𝑠
Die Anwendung der beschriebenen Referenzpunktmethode nach WIERZBICKI hat zum
einen den Vorteil, dass immer eine Projektion auf den effizienten Rand erfolgt, auch
wenn der Referenzpunkt bspw. innerhalb des PPS liegt. Zum anderen ist sichergestellt,
dass die bestmögliche Lösung generiert wird und der identifizierte Benchmark
effizient im Sinne der MCDA ist. Das heißt, es gibt keine bessere Lösung, die allen
einbezogenen Kriterien entspricht.165 Der identifizierte Benchmark ist gemäß dem
Vorgehen der Standard-DEA eine lineare Kombination real existierender
Beobachtungen.
Werden für den Referenzpunkt als Ziele die realen Ausprägungen einer bestimmten
DMU gewählt (Input- und Output-Faktoren), so wird im Falle einer vorliegenden
Effizienz die DMU selbst als Benchmark genannt, ansonsten wird eine Projektion auf
den effizienten Rand der Technologie als Benchmark deklariert. Der identifizierte
Punkt bildet eine gute Ausgangslage, aber der errechnete Benchmark ist unabhängig
von den spezifischen Zielen des Managements und berücksichtigt ausschließlich die
vergangene Leistung. Auf der anderen Seite weist die ausschließliche Nutzung der
managementorientierten Ziele keine Beziehung mehr zur eigentlichen Prozessleistung
165 Siehe Kapitel 3.1.4 dieser Arbeit.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 172
der DMU auf, es sei denn, die Ziele sind ggf. von der Bekanntheit der aktuellen
Leistung beeinflusst. Entsprechend wird im Rahmen des vorliegenden Konzepts ein
Referenzpunkt erzeugt, der sowohl die Zielsetzungen als auch die aktuelle
Leistungsfähigkeit des Prozesses berücksichtigt und daher gleichermaßen zielorientiert
und realistisch ist. Der Referenzpunkt ist definiert als 𝑥𝑖𝑘𝑟𝑒𝑓
= 𝛼𝑔𝑖𝑘 + (1 − 𝛼)𝑥𝑖𝑘 für
die Input-Variablen und als 𝑦𝑟𝑘𝑟𝑒𝑓
= 𝛼ℎ𝑟𝑘 + (1 − 𝛼)𝑦𝑟𝑘 für die Output-Variablen,
wobei Alpha einen Wert zwischen 0 und 1 annimmt. Demnach wird durch die
Variation von Alpha eine Bandbreite möglicher Benchmarks generiert, abhängig von
der Gewichtung der Zielsetzung bzw. der aktuellen Leistungsfähigkeit. Wenn 𝛼 = 0
ist, wird ausschließlich die tatsächliche Leistung in die Betrachtung einbezogen, wenn
𝛼 = 1 ist, werden ausschließlich die Zielsetzungen des Managements berücksichtigt
und die momentane Leistungsfähigkeit der DMU bleibt unberücksichtigt. Die
genannten Formulierungen werden zur Ableitung des besten zielorientierten
Benchmarks in ein lineares Optimierungsprogramm unter der Annahme konstanter
Tabelle 9: Ergebnisübersicht der zielgerichteten Benchmarks (normiert)(eigene Darstellung)
Im konkreten Anwendungsfall wird deutlich, dass die faktorspezifischen Benchmarks
teilweise sehr stark in Abhängigkeit vom gewählten Alpha variieren und die
Benchmarks entsprechend in einer großen Bandbreite liegen. Dabei muss
berücksichtigt werden, dass aufgrund der diagnostizierten deutlichen Ineffizienz die
notwendigen Veränderungen grundsätzlich vergleichsweise umfangreich ausfallen. In
Abhängigkeit von den vom Management gewählten Zielsetzungen, die im
vorliegenden Fall die erhebliche Reduktion der Kostenpositionen vorsehen, können die
Benchmarks generiert werden. Dabei wird deutlich, dass insbesondere die Sachkosten
um mindestens 42 % reduziert werden müssen, um auf den effizienten Rand der
Technologiemenge zu gelangen. Darüber hinaus sind relevante Veränderungen
hinsichtlich der Anzahl der neuen Lieferanten (VG) und damit einhergehend der
Anzahl der Verhandlungen (VG) nötig. Jedoch muss die Ableitung konkreter
Handlungsempfehlungen stets in Abhängigkeit von der gewählten strategischen
Ausrichtung des Betrachtungsobjekts bzw. der betrachteten Funktion erfolgen.
Aufgrund der vergleichsweise hohen diagnostizierten Ineffizienz weisen die
(effizienten) Benchmarks mit Berücksichtigung der strategischen Zielsetzung teilweise
eine erhebliche Differenz zur aktuellen Performance auf und erfordern daher
weitreichende Maßnahmen zur Reduktion der Ineffizienz.166 Hinzuzufügen ist, dass
die Methode nicht nur für ineffiziente DMUs angewendet werden kann. Im
vorliegenden Fall einer ineffizienten Einheit werden bei der Wahl von Alpha = 0 jene
faktorindividuellen Benchmarks ausgewiesen, ohne dass die Zielsetzung des
166 Zur Ableitung der operativen Zielwerte muss die zuvor durchgeführte Normierung der ermittelten
zielgerichteten Benchmarks beachtet werden.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 175
Managements berücksichtigt wird. Bei einer stärkeren Gewichtung der strategischen
Zielsetzungen variieren diese Werte entsprechend.
Als Ergebnis der Methode werden dem Anwender neben der grundsätzlichen Aussage
zur Veränderung der Input-Faktoren konkrete Benchmarks für die individuellen
Faktoren bereitgestellt, um den Prozess hinsichtlich der übergeordneten Zielsetzungen
zu steuern. Nebenergebnis der Betrachtung ist, dass entsprechende Maßnahmen zur
Optimierung oder grundsätzlichen Restrukturierung unter Berücksichtigung der
operativen Leistungsstärke des Prozesses abgeleitet werden können.
7.2 Ableitung konkreter Handlungsempfehlungen unter
Berücksichtigung der Prozessstrukturierung
Die Effizienzanalyse und die Ableitung zielgerichteter Benchmarks liefern eine
geeignete Basis zur Ableitung von Prozessoptimierungs- bzw.
Restrukturierungsvorhaben. Insbesondere die Zusammenführung der
multidimensionalen Prozessleistungsmessung mit der entwickelten Prozessstruktur
und den dort erhobenen Prozessstrukturvariablen besitzt das Potenzial, spezifische
Handlungsempfehlungen für die einzelne DMU abzuleiten. Dabei erfolgt eine
Zusammenführung des strikt analytischen Ansatzes der Data Envelopment Analysis
und einer individualisierten Betrachtung der strukturellen Rahmenbedingungen.
7.2.1 Zusammenführung der Effizienzwerte und der Prozessstrukturierung zur
Ableitung konkreter Handlungsempfehlungen auf Prozessebene
Eine wichtige Zielstellung des Benchmarking-Ansatzes ist neben der Identifikation
geeigneter Benchmarkingpartner und der Bestimmung der individuellen
Positionierung insbesondere die Erklärung der Best Practices der führenden
Unternehmen und die entsprechende Ableitung konkreter Handlungsempfehlungen.
Die dargelegten Referenzprozessmodelle liefern die Basis für die Konstruktion des
Effizienz-Messmodells und sind somit valide Grundlage für die Durchführung der
Leistungsmessung. Zudem konnten mithilfe der Data Envelopment Analysis
Effizienzwerte unter der Annahme konstanter und variabler Skalenerträge sowie unter
Beachtung der strukturellen Kategorisierung der Betrachtungsobjekte ermittelt
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 176
werden.167 Darüber hinaus liefert die DEA Informationen über reale Referenzeinheiten
des ausgewählten Betrachtungsobjekts. Jedoch verbleiben je nach Betrachtungsfall
unterschiedlich dimensionierte unerklärbare Teile der Ineffizienz, die auf Best
Practices zurückzuführen sind. Insbesondere die Identifikation dieser Best Practices
liefert einen Beitrag zu überdurchschnittlicher prozessualer Leistung. Daher besteht
der Bedarf, diese Best Practices systematisch hinsichtlich ihrer strukturellen
Eigenschaften und Besonderheiten zu analysieren. Im Rahmen der Herstellung der
Prozessstruktur sind nicht nur aktivitätenfokussierte Leistungsfaktoren berücksichtigt,
sondern systematisch jene Merkmale dokumentiert, die Einfluss auf die
Leistungserbringung in den Prozessen haben. In Kap. 5.8.2.3 dieser Arbeit wurden
dafür fünf Bewertungsdimensionen definiert, denen jeweils detaillierte Kriterien
zugeordnet sind. Im Vergleich mit weiteren Krankenhäusern und insbesondere den als
Referenzobjekten identifizierten Betrachtungseinheiten sollen so strukturelle
Unterschiede identifiziert werden. Zentrale Ergebnisse des Vorgehens sind:
die Identifikation von individuellem Verbesserungsbedarf aufgrund der Analyse
der Kriterienausprägungen je Strukturdimension,
die Herstellung von Strukturtransparenz hinsichtlich der Vergleichsgruppe und
der individuell zugewiesenen Referenzeinheiten,
die Priorisierung von Maßnahmen aufgrund der absoluten Entfernung der
eigenen Leistung zum Benchmark und der prozessindividuellen Kostenposition.
Die Ausführung der Prozesse ist nicht nur von der Ressourcenausstattung abhängig,
sondern wird in erheblichem Maß von moderierenden Faktoren beeinflusst. Dabei
können qualitative Moderatoren, wie z. B. die Qualität und Vollständigkeit von
Produktinformationen bei Bestellvorgängen medizinischer Güter oder der Einfluss des
medizinischen Personals auf betriebswirtschaftliche Entscheidungen einen
wesentlichen Einfluss auf die Leistungsfähigkeit der Prozesse ausüben. Zudem ist die
Effizienz der Leistungserbringung in indirekten Bereichen von Krankenhäusern in
hohem Maße durch den Entwicklungs- und Implementierungsstand der IKT-Systeme
beeinflusst. Dabei spielt die IT-Einbindung sowohl unternehmensintern als auch
unternehmensübergreifend eine zentrale Rolle. Ein unterdurchschnittlicher
Entwicklungsstand, insbesondere hinsichtlich der Automatisierung von Prozessen und
167 Schwegmann und Laske (2012) weisen darauf hin, dass die mangelnde Vergleichbarkeit von Kennzahlen
aufgrund der unterschiedlichen Rahmenbedingungen (siehe Kap. 5 dieser Arbeit) bei der Interpretation der
Kennzahlen und der darauf basierenden Ableitung konkreter Maßnahmen berücksichtigt werden müssen.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 177
der Einbindung in IKT-Netzwerke, kann die Prozesseffizienz erheblich beeinflussen.
Darüber hinaus ist die Ausführung von Prozessen und damit verbundenen
Entscheidungen organisationsspezifisch häufig von formalen Rahmenbedingungen und
Vorgaben abhängig. Die so verkörperte Unternehmenskultur kann entscheidenden
Einfluss auf die Ausführung von Prozessen und somit auf die Leitungsfähigkeit ganzer
funktionaler Einheiten ausüben. Oben wurde bereits ausgeführt, dass die Ausführung
der Unterstützungsprozesse im Krankenhaus in erheblichem Maß durch
funktionsbereichsexterne Mitarbeiter determiniert wird. Dabei kann einerseits direkter
Einfluss durch Eingreifen in die Prozessausführung (operativ) ausgeübt werden,
andererseits kann die Prozessausführung mithilfe der systematischen Beeinflussung
von Zielsetzungen und Entscheidungskriterien (strategisch) beeinflusst werden. Der
Einfluss gerade des medizinischen Fachpersonals wird im Rahmen der Betrachtung
explizit berücksichtigt. Die Dimensionen Komplexität der Ausführung,
Informationsverfügbarkeit, Unterstützung durch IKT, Formvorschriften und
Mitarbeiterspezifika bilden den Analyserahmen zur Beschreibung der
dimensionsspezifischen Kriterien. Die erhobenen Daten basieren auf den qualitativen
Informationen, erhoben im Rahmen der Interviews zur Datenerhebung zum
Leistungsbenchmarking. Dabei ist zu erwähnen, dass die qualitativen Einschätzungen
der Manager oder Verantwortungsträger zur eigenen Organisation subjektiv sind und
entsprechenden Verzerrungen unterliegen, was zu Validitätsproblemen und
Manipulationsspielräumen führt (Hammerschmidt, 2006).168 Zudem muss darauf
hingewiesen werden, dass die Maßnahmen häufig erst im Verbund zu den
gewünschten Effekten führen und es sich bei den generierten Handlungsempfehlungen
um Beispiele handelt, die im Anwendungsfall jeweils weiter konkretisiert werden
müssten.169 Die Auswertung erfolgt anhand des eingangs beschriebenen
Krankenhauses (DMU 26). Tabelle 10 zeigt einen beispielhaften Ausschnitt für die
Dimension „Komplexität der Leistungserbringung“.170 Durch die Systematisierung
168 Die Standardversion der DEA fokussiert auf quantitative Angaben, da sich die Interpretation unscharfer
Größen im Rahmen der zugrunde liegenden methodischen Überlegungen als schwierig erweist. Jedoch
existieren entsprechende Anwendungen, bspw. Cook (2011); Saati et al. (2013) und Despotis und Smirlis
(2002). Donthu et al. (2005) verwenden im Rahmen ihrer Betrachtung qualitativ anmutende Messgrößen wie
bspw. Managementerfahrung, die jedoch durch konkrete Zahlen operationalisiert werden (in dem Fall durch
Jahre an Berufserfahrung). 169 Die Gesamtliste potenzieller Handlungsempfehlungen wurde im Rahmen eines Spezialistenworkshops
(11.03.–12.03.2015) erhoben. Zudem ist darauf hinzuweisen, dass insbesondere Best Practices, die in
anderen Industrien identifiziert werden können, hohes Potenzial für innovative Ansatzpunkte liefern. 170 Ein Überblick zu den Ergebnissen und möglichen Handlungsfeldern der weiteren Dimensionen findet sich in
Anhang 6.
Systematische Ableitung prozessbasierter Zielwerte und Handlungsempfehlungen 178
wird eine systematische Identifikation von Bereichen mit besonderem
Entwicklungspotenzial ermöglicht. Dabei werden neben dem eigenen Wert, der in
Abhängigkeit von der Ausprägung mit einer grünen (überdurchschnittlich), grauen
(neutral) oder roten (unterdurchschnittlich) dreieckigen Markierung versehen ist, die
minimalen und maximalen Ausprägungen der betrachteten Variable dargestellt.
Zudem wird sowohl der Median (senkrechter Strich) als auch der Mittelwert (Quadrat)
des Gesamtsamples vermerkt. Die grau markierte Fläche kennzeichnet dabei die
mittleren 50 % der beobachteten Werte.
Dimen
sion Kriterium 171
Handlungs-
bedarf Handlungsempfehlung
Ko
mp
lex
ität
der
Lei
stu
ng
serb
rin
gu
ng
An
zah
l
Pro
zess
sch
ritt
e*
Jobrotation zur Sicherstellung der Kenntnis der gesamten
Beschaffungsprozesses
Initiierung eines regelmäßigen Austauschs, z. B. in Form
eines „KVP-Marktplatzes“
Etablierung von Notfallplänen und Freiraum, um aus