Evaluierungsmethoden (EVALU)

Inhaltsverzeichnis[Verbergen]

Lernziele

Sie kennen den Zweck von Evaluierungsmethoden und können daraus die Aufgaben der Evaluierung ableiten. Sie können diese Aufgaben mit eigenen Worten beschreiben. Sie kennen die Organisation des Evaluierungsprozesses und eine Vorgehensweise beim Evaluieren. Sie können die Anwendung von Evaluierungsmethoden in die Aufgaben des Informationsmanagements einordnen.

Definitionen und Abkürzungen

  • CC = Common Criteria for Information Technology Security Evaluation; Weiterentwicklung und Harmonisierung der ITSEC und anderer Sicherheitsstandards.
  • Evaluierungskriterium (evaluation criterion) = Eigenschaft des Evaluierungsobjekts, die unter Berücksichtigung des Evaluierungsziels aus diesem abgeleitet und mit der im Einzelnen festgelegt wird, was zu evaluieren ist.
  • Evaluierungsobjekt (evaluation object) = beliebiges Objekt, für das ein Evaluierungsbedarf besteht und das zur Evaluierung vorgegeben ist.
  • Evaluierungsziel (evaluation objective) = Aussage darüber, welche Information der Auftraggeber einer Evaluierungsstudie erwartet bzw. der Evaluator erarbeiten soll.
  • Extremalkriterium (unlimited criterion) = Kriterium, das hinsichtlich des Ausmaßes der Zielerreichung unbegrenzt (maximal oder minimal) formuliert ist.
  • HGB = Handelsgesetzbuch (Deutschland, Österreich).
  • ITSEC = Information Technology Security Evaluation Criteria.
  • ITSEF = Information Technology Security Evaluation Facility.
  • ITSEM = Information Technology Security Evaluation Methodology; Vorgehensweise zur Prüfung und Bewertung der Sicherheit von IT-Produkten.
  • Kriterium (criterion) = Eigenschaft eines Evaluierungsobjekts, dessen Ausmaß durch Messung, Schätzung oder Prognose ermittelt wird. Synonym: Zielkriterium.
  • Kriterienertrag (criterion production) = Ausmaß der Zielerreichung der Kriterien.
  • Kriteriengewicht (criterion weight) = relative Bedeutung der Kriterien in einer bestimmten Evaluierungssituation (Präferenzordnung).
  • Limitierungskriterium (limited criterion) = Kriterium, das hinsichtlich des Ausmaßes der Zielerreichung begrenzt formuliert ist.
  • Messen (measuring) = Zuordnen von Zahlen oder anderen Symbolen zu Objekten, Ereignissen oder Situationen nach einem festgelegten Verfahren (einer Regel).
  • Messgröße (metric) = Eigenschaft eines Objekts, deren Ausprägung mit einer Messmethode ermittelt werden kann. Synonym: Metrik.
  • Metrik (metric) = Synonym für Messgröße.
  • Präferenzordnung (preference order) = durch ein Individuum oder eine Gruppe vorgenommene Ordnung einer Menge von Kriterien auf Grund bestehender Präferenzen.
  • Re-Evaluierung (re-evaluation) = erneute Evaluierung eines Objekts nach erfolgter Vornahme von Änderungen am Objekt auf Grundlage einer Evaluierung.
Zweck der Evaluierungsmethoden
Vorgehensweise bei der Evaluierung
Organisation des Evaluierungsprozesses

 

Forschungsbefunde

Gappmaier/Häntschel berichten über die Evaluierung von Workflow-Management-Systemen (WFMS) u. a. Folgendes (Hypothesenprüfung in zwei Laborstudien an drei Softwareprodukten, Untersuchungszeitraum 1994-1995): Die Befunde erlauben die Schlussfolgerung, dass WFMS mit Laborstudien anhand betriebswirtschaftlich relevanter Kriterien, wie sie für Entscheidungen über den Technologieeinsatz in der Praxis verwendet werden, evaluiert werden können. Die Anforderungen, die an Laborexperimente gestellt werden müssen, konnten allerdings nicht voll erfüllt werden (z. B. konnte Objektivität, insbesondere Durchführungsobjektivität, nicht immer gesichert werden). Trotz dieser Einschränkung wird behauptet, mit Laborstudien Informationen über WFMS erarbeiten zu können, die mit gleicher Qualität mit keiner anderen Untersuchungsmethode gewonnen werden können. Es kann angenommen werden, dass diese Aussage auch für andere Softwareprodukte gilt.

Gappmaier, M. / Häntschel, I.: Die Evaluierung von Workflow-Management-Systemen in Laborstudien. In: Grün, O. / Heinrich, L. J. (Hrsg.): Wirtschaftsinformatik – Ergebnisse empirischer Forschung. Wien/New York1997, 63–77


Goldberg untersuchte die Anwendung der Fehlerbaumanalyse (FBA) in fehlertoleranten Systemen und erarbeitete eine Reihe von Anwendungsproblemen, u. a. die Schwierigkeit der Vorhersage der Fehlerwahrscheinlichkeit von Basisereignissen (Art und Zeitpunkt der Untersuchung nicht bekannt).
Goldberg, J.: A Survey of the Design and Analysis of Fault-Tolerant Computers. In: Proceedings of the Conference an Reliability and Fault Tree Analysis, Berkeley/CA 1974, 687-732


Fryer untersuchte die Anwendung der Fehlerbaumanalyse (FBA) bei Hardware-/Softwaresystemen; er bezeichnet die FBA als eine brauchbare Methode zur Bestimmung der Zuverlässigkeit von derartigen Systemen und sieht in der FBA insbesondere ein ergänzendes Instrument zum traditionellen Testen von Softwareentwürfen (Art und Zeitpunkt der Untersuchung nicht bekannt).
Fryer, O. M.: Risk Assessment of Computer Systems. In: IEEE Transactions on Software Engineering, Vol. Se-11 No. 1, January 1985, 125-129


Heinrich/Roithmayr berichten über die Ergebnisse von Benchmarktests, bei denen lokal vernetzte PCs Evaluierungsobjekte waren. Die Messergebnisse führten u. a. zu einer Veränderung der geplanten Organisation der Arbeitslast, um das Leistungspotenzial der optimalen Alternative besser nutzen zu können. Derartige Aussagen seien nur mit empirischen Verfahren wie dem Benchmarktest zu gewinnen.
Heinrich, L. J. / Roithmayr, F.: Leistungsmessung mit Benchmarks. In: Information Management 3/1986, 46-49


Miller et al. berichten über Ergebnisse von Benchmarktests, mit denen die Zuverlässigkeit des Betriebssystems UNIX gemessen wurde. Im Ergebnis wird festgestellt, dass über 24 % der 90 getesteten Systemprogramme zum Absturz gebracht werden konnten.
Miller, B. P. / Fredriksen, L. / So, B.: An Empirical Study on the Reliability of UNIX Utilities. In: Communications of the ACM 12/1990, 32-44


Herring berichtet über Ergebnisse von Benchmarktests mit dem TPC-A, deren Zweck es war, verschiedene DEC-Systeme (Hardware und Systemsoftware) zu evaluieren.
Herring, J. B.: TPC Benchmark A – An Industry standard performance test. In: Duisterhout, J. S. / de Moel, E. J. P. M. (Eds.): Proceedings of the Fifteenth Annual Meeting of the MUMPS User´s Group Europe, Rotterdam 1990, 111-115


Dirlewanger berichtet über die Anwendung des Verfahrens nach DIN 66271 zur Evaluierung von Rechnern mit Betriebssystemen verschiedener Hersteller u. a., dass das Betriebssystem BS2000 bei einer für Mainframes typischen Arbeitslast erhebliche Leistungsvorteile gegenüber MSV hat. Für vergleichbare Hardware-Konfigurationen ergab sich nach DIN eine bis zum Faktor 3 höhere Arbeitslast. Das Verfahren sei für alle Systemarten – vom Mainframe bis zum Minirechner – einsetzbar und vergleicht die Systeme mit einer bisher nicht möglichen Objektivität. Im Gegensatz zu bisherigen herstellerspezifischen Leistungsangaben stellt das Verfahren eine neutrale Messlatte dar.
Dirlewanger, W.: Messung und Evaluierung der DV-Leistung auf Basis der Norm DIN 66273. Heidelberg 1993


Die Forschungsgruppe Leistungsmessung der Universität Kassel (Leitung Dirlewanger) befasst sich u. a. mit der Entwicklung und Erprobung von Verfahren zur Messung und Bewertung der IT-Leistung sowie der Softwareeffizienz. In einem aktuellen Projekt erfolgt eine vergleichende Untersuchung von Verfahren zur Messung der Intranet-Performance. Untersucht werden in der Praxis verwendete Netz-Performance-Messverfahren und einem Betriebstest unterzogen. Es werden mehrere Verfahren zur Vermessung eines Versuchnetzes im Labor implementiert und Messserien durchgeführt. Auf diese Weise soll die Aussagekraft der Verfahren bezüglich ihrer Fähigkeit zur Quantifizierung der Netz-Performance ermittelt werden. Die Verfahren werden mit dem Kriterium Messaufwand verglichen, um Anforderungen an ein neu zu entwickelndes Verfahren abzuleiten. Kennzeichnend für das Projekt ist der interdisziplinäre Ansatz, insbesondere die Verwendung von Erkenntnissen der Wirtschaftsinformatik, um neben den technischen Merkmalen von Rechnerlast-Modellen auch betriebswirtschaftliche Ziele (z. B. IT-Kosten) zu berücksichtigen.
Dirlewanger, W.: Lastsimulation; Normenlast; Benutzerorientierte DV-Leistungsmessung nach dem DIN-Verfahren. iX – Magazin für professionelle Informationstechnik 12/1994, 172-174


Thong et al. evaluierten vier Sets von Rahmenbedingungen für die Implementierung von Informationssystemen in Klein- und Mittelbetrieben (schriftliche Befragung, N = 114), die mit den Dimensionen Top Management Support (high vs. low) und External Expertise (high vs. low) gebildet wurden; sie fanden, dass das Set „Top Management Support high / External Expertise high“ den größten Beitrag zur Effektivität der IT leistet.
Thong, Y. L. / Yap, Ch. S. / Raman, K. S.: Environments for Information Systems Implementation in Small Business. In: Jour¬nal of Organizational Computing and Electronic Commerce 4/1997, 253-278


Lewe leitet aus den Ergebnissen der Evaluierung von computerunterstützter Teamarbeit mit GroupSystem und anderen Versuchsanordnungen (Laborstudien, Untersuchungszeitraum 1993 bis 1995) folgende Empfehlung ab: „Soll die Produktivität von Sitzungen nachhaltig verbessert werden, dann sollte nicht allein auf Moderation, sondern auch auf Computerunterstützung gesetzt werden. Sie ist in der Lage, dem Leistungsabfall nicht nur zu begegnen, sondern zusätzliches Leistungspotenzial aus der Beteiligung weiterer Personen zu erschließen.“
Lewe, H.: Messung der Produktivitätswirkung einer Computerunterstützung in Sitzungen. In: Grün, O. / Heinrich, L. J. (Hrsg.): Wirtschaftsinformatik – Ergebnisse empirischer Forschung. Sprin¬ger, Wien/New York 1997, 79-89


Miller/Dunn stellen bezüglich der Ex-post-Evaluierung von IT-Projekten mit einer in Großbritannien durchgeführten Feldstudie (schriftliche Befragung, N = 150, Rücklaufquote 22 %, Befragungszeitraum 2+3/1996) fest, dass 85 % der befragten Unternehmen Ex-post-Evaluierungen durchführen und dass die Größe der IT-Abteilung (IS/IT department) der entscheidende Einflussfaktor ist. Dies führt zu folgender Hypothese: Je kleiner die IT-Abteilung, desto weniger wahrscheinlich ist die Durchführung von Ex-post-Evaluierungen. 61 % der Befragten vertreten die Meinung, dass das Ausmaß, in dem Ex-post-Evaluierung in ihrem Unternehmen durchgeführt wird, zu gering ist.
Miller, K. / Dunn, D.: Post-Implementation evaluation of information systems/technology: a survey of UK practice. In: Berghout, E. W. / Remenyi, D. S. J. (Eds.): Evaluation of Information Technology. Delft 1997, 47-55

 

Demonstrationsbeispiel

Es wird das Gewichten der Evaluierungskriterien mit einem Verfahren des paarweisen Vergleichs gezeigt. Bei jedem Vergleich werden zehn Punkte vergeben (vgl. Abbildung 1). Das Ergebnis wird in Abbildung 2 dargestellt. Es wurde wie folgt vorgegangen (EVK = Evaluierungskriterien):

  • Vergleich von „1 anwenderbezogene EVK“ mit „2 systemtechnische EVK“. Die anwenderbezogenen EVK werden als sehr viel wichtiger beurteilt als die systemtechnischen EVK; Ergebnis: 9 Punkte für die anwenderbezogenen EVK und 1 Punkt für die systemtechnischen EVK.
  • Vergleich von „1 anwenderbezogene EVK“ mit „3 anbieterbezogene EVK“. Beide EVK werden als gleich wichtig beurteilt; Ergebnis: 5 Punkte für die anwenderbezogenen EVK, 5 Punkte für die anbieterbezogenen EVK.
  • Vergleich von „2 systemtechnische EVK“ mit „3 anbieterbezogene EVK“. Die systemtechnischen EVK werden als weniger wichtig beurteilt als die anbieterbezogenen EVK; Ergebnis: 4 Punkte für die systemtechnischen EVK, 6 Punkte für die anbieterbezogenen EVK.
Die Quersummen der Zeilen in Abbildung 2 sind das Evaluierungsergebnis je Evaluierungskriterium (z. B. 14 Punkte für die anwenderbezogenen Evaluierungskriterien). Die Quersummen werden in Prozentwerte in Bezug auf die Gesamtzahl der Punkte aller Evaluierungskriterien einer Ebene umgerechnet. Die Summe aller Punkte, also die Basis für die Umrechnung in Prozente, lässt sich nach der Formel Summe = 5n (n-1) errechnen und die Evaluierung damit überprüfen, wobei n die Anzahl der Evaluierungskriterien ist.

evalu_gewichtung_der_evaluierungskriterien

Abb. 1: Gewichtung der Evaluierungskriterien (Quelle: nach SVD)

evalu_beispiel_fr_die_gewichtung_eines_kriterienbereichs

Abb. 2: Beispiel für die Gewichtung eines Kriterienbereichs (Quelle: nach SVD)

Quelle

Schweizerische Vereinigung für Datenverarbeitung (Hrsg.): Evaluation von Informatiklösungen. Bern/Stuttgart 1985, 101-188

Aus der Praxis

Aufgabenverweise

  • Evaluierungsprobleme gibt es bei fast allen strategischen und administrativen IM-Aufgaben.

Kontrollfragen

  1. Welche Aufgaben ergeben sich aus dem Zweck der Evaluierungsmethoden?

  2. Welcher Unterschied besteht zwischen Evaluierungsziel und Evaluierungskriterium?

  3. Warum müssen die meisten Evaluierungskriterien in Messgrößen transformiert werden?

  4. In welche Phasen wird der Evaluierungsprozess gegliedert und was ist Zweck jeder dieser Phasen?

  5. Welche Entscheiungsprobleme auf strategischer Aufgabenebene erfordern die Verwendung von Evaluierungs- methoden?

  6. Wie kann das Gewichten der Evaluierungskriterien methodisch unterstützt werden?

Quellen

  • Daumenlang, K. / Altstötter, C. / Sourisseaux, A..: Evaluation. In: Roth, E. / Holling, H. (Hrsg.): Sozialwissenschaftliche Methoden. 5. A., München/Wien 1995, 702-713

  • Mäder, B. / Ziegler, M.: Erfolgsfaktoren im Auswahlprozess betriebswirtschaftlicher Software für KMU. In: BFuP 5/2010, 558–574

  • Michaels, A.: Die große Begehung der Mittelbaustelle. F.A.Z. vom 11.8.2010, N5

  • Miller, K. / Dunn, D.: Post-implementation evaluation of information systems technology: a survey of UK practice. In: Berghout, E. W. / Remenyi, D. S. J. (Eds): Evaluation of Infor­ma­tion Technologiy. Delft 1997, 47-55

  • Osterloh, M. / Frey, S.: Evaluations - hidden costs, questionable benefits, and superior alternatives. Unveröffentlichtes Manuskript, Universität Zürich 2007

  • Sibley, E. H. / Editor, P.: Post Implementation Evaluation of Computer-Based Information Systems: Current Practices. In: Communications of th ACM 2/1990, 203–212

  • Schweizerische Vereinigung für Datenverarbeitung (Hrsg.): Evaluation von Informatiklösungen. Bern/Stuttgart 1985, 101-188

Vertiefungsliteratur

  • Irani, Z.: Information systems evaluation: navigating through the problem domain. In: Information & Management 2002, 111–124

  • Reichwald, R. et al.: Telekooperation im Innovationstest – Strategieorientierte Evaluation von Pilotprojekten. In: WIRTSCHAFTSINFORMATIK 3/1998, 205–213

  • Walter, S. G. / Spitta, T.: Approaches to the Ex-ante Evaluation of Investments into Information Systems. In: WIRTSCHAFTSINFORMATIK 3/2004, 171–180

Informationsmaterial

Normen

  • DIN 66273 Teil 1: Messung und Evaluierung der Leistung von DV-Systemen; Teil 2: Normlast Typ A. 1991

  • DIN ISO/IEC 15408-2 bzw. ÖNORM ISO/IEC 15408-2: Information technology - Security techniques - Evaluation criteria for IT security - Security functional requirements. 2007

  • EN 1325-1: Value Management, Wertanalyse, Funktionenanalyse Wörterbuch, Teil 1: Wertanalyse und Funk­tio­nen­analyse. 1996

  • ISO/IEC 9126: Information Technology - Software Product Evaluation - Quality Characteristics and Guidelines for their Use. 2001

  • ISO/IEC 14598: Information Technology - Software Product Evaluation. 2001

  • ISO/IEC 15408-1: Information technology - Security techniques - Evaluation criteria for IT security. 2005

  • ÖNORM A 6757: Wertanalyse-Management: Planung, Durchführung und Controlling der Wertanalyse (WA). 1991

  • Abbildungsarchiv: Evaluierungsmethoden (EVALU)