Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Aufgabenstellung 1 „If you can’t measure it, you can’t manage it“, so lautet ein berühmtes Zitat des US-amerikanischen Ökonomen Peter Drucker. Management im Sinne von Lenkung und Steuerung setzt eine sinnvolle Messung des Ist-Zustandes und Formulierung eines Soll-Zustandes voraus. Dies gilt selbstverständlich auch für das weite Feld von Forschung, Entwicklung und Innovation. Gerade hier gibt es eine Vielzahl von Akteuren, die aus den unterschiedlichsten Motiven an einer Messung und Steuerung von Forschung und Entwicklung bzw. Innovation interessiert sind. Da ist zunächst die Politik, die in der festen Überzeugung, Forschung und Entwicklung trage positiv zur wirtschaftlichen und gesellschaftlichen Entwicklung bei, diese gerne steuern, also meist fördern, möchte (Bérubé und Mohnen 2009; Fromm und Grözinger 2010; Grözinger 2011; Ketzler und Zimmermann 2007). Da ist die Wissenschaft, die den Einfluss von FuE und Innovation auf die Gesellschaft untersuchen möchte. Und zuletzt sind da die Unternehmen. Ihre Aufgabe ist zwar nicht primär die Gestaltung von Staat und Gesellschaft, aber sie fragen sich oftmals, ob sie innovativ genug sind, um ihre Wettbewerbsfähigkeit langfristig zu erhalten. Auch bei der Frage, wo man im Vergleich zu den Mitbewerbern steht, ist Messung nötig, um Management zu ermöglichen (Albers 2009). Nicht nur die beschriebenen unterschiedlichen Interessenlagen bezüglich einer Messung von FuE und Innovation geben einen kleinen Vorgeschmack auf die Komplexität des Themas. Auch die Fragestellungen können extrem unterschiedlich sein. Ganz oben steht dabei zunächst die Frage nach der Quantität von FuE. Wie messe ich, wie viel Forschung z. B. in einem Land betrieben wird? Hier setzen die traditionellen FuE- und Innovationsstatistiken an, obwohl man den Zusammenhang zwischen den dort verwendeten Indikatoren und der Quantität von Forschung durchaus bezweifeln darf (vgl. Kap. 2). Darüber hinaus kann man auch nach der Qualität der Forschung fragen, ohne jetzt an dieser Stelle definieren zu wollen, was damit eigentlich überhaupt gemeint ist. Abb. 1.1 stellt den Forschungsprozess in sehr vereinfachter Form dar und zeigt so verschiedene Ansatzmöglichkeiten für eine quantitative und/oder qualitative Messung von FuE.1 1 Natürlich kann man das Ganze auch kritisch sehen, vgl. dazu z. B. Allmendinger (2002) oder Adler und Harzing (2009). © Der/die Autor(en) 2021 A. Kladroba et al., Indikatoren für die Messung von Forschung, Entwicklung und Innovation, FOM-Edition, https://doi.org/10.1007/978-3-658-32886-3_1 1 2 1 Aufgabenstellung Projektstart Zeitpunkt: t Projektende Zeitpunkt: t+n Zeitpunkt: t+n+k Output = „Wissen“ OutputIndikator Input = FuE-Aufwendungen FuE-Personal Jahre t+1 Forschungsprojekt t+n … „Die Zeit danach“ … t+n+k Messung des Inputs Abb. 1.1 Messung des Outputs Schematische Darstellung eines Forschungsprozesses Angenommen, ein Forschungsprojekt dauere n Jahre. Es beginnt zu einem Zeitpunkt t und endet bei t + n. In diesem Zeitraum wird dem Forschungsprozess kontinuierlich ein gewisser materieller Input (zu dem wir der Einfachheit halber auch das Personal rechnen wollen) zugeführt. Immaterieller Input sei an dieser Stelle erst einmal vernachlässigt. Auch eine bestimmte „Qualität“ vor allem des Forschungspersonals sei hier einfach einmal angenommen. Dieser materielle Input kann relativ problemlos gemessen werden, wobei materielle Güter in der Regel einen in Geldeinheiten messbaren Wert haben. Personal kann in Köpfen (Headcounts) oder Vollzeitäquivalenten (FTE = Full Time Equivalent), sprich vollen Stellen gezählt werden. Nimmt man wie in der offiziellen FuE-Statistik den Zusammenhang „je mehr Geld/Personal, desto mehr FuE“ als gegeben an, erhält man einen leicht zu bestimmenden Input-Indikator für die Quantität von FuE. Über die Effizienz des Prozesses oder die Qualität des Ergebnisses sagt das zunächst nichts. Auf Kritikpunkte an diesem Ansatz kommen wir in Kapitel 2 noch einmal zurück. Im durch Abb. 1.1 dargestellten Prozess können aber auch andere, outputorientierte Ansätze für die quantitative Messung von FuE gefunden werden. Der originäre Output von Forschung ist gemäß der Definition des Frascati-Handbuchs „neues Wissen“ (vgl. Kap. 2). Leider 1 Aufgabenstellung 3 handelt es sich dabei um eine latente Variable.2 Sie benötigt also einen Indikator, um messbar zu sein, wobei das nächste Praxisproblem zu erkennen ist. Die meisten Outputindikatoren werden erst nach einer bestimmten Zeit sichtbar. Zwischen der Niederschrift eines Aufsatzes oder Buches und seinem Erscheinen vergeht eine gewisse Zeit (Monate, wenn nicht sogar Jahre). Auch die Erteilung eines Patentes ist zeitintensiv. Der Output eines Forschungsprozesses ist also nur mit einer mehr oder weniger großen Verzögerung zu erkennen. Darüber hinaus liegt auch hier der Teufel oftmals im Detail. Dies soll an einigen Fragen, die wir an verschiedenen Stellen dieses Buches noch einmal aufgreifen werden, verdeutlicht werden (Alexander-von-Humboldt-Stiftung 2009; CEST 2007): 1. Ist Forschung in einer Hochschule vergleichbar mit Forschung in einem Unternehmen? 2. Spielen Patente in Hochschulen die gleiche Rolle wie in Unternehmen? 3. Gibt es Unterschiede im Patentverhalten von Unternehmen? Wenn ja, wie sind diese zu bewerten? 4. Inwiefern ist die Publikation eines Buches vergleichbar mit der Publikation in einer wissenschaftlichen Zeitschrift? 5. Bewerte ich Publikationen in einem A-Journal genauso wie in einem C-Journal? 6. Wie ist das Publikationsverhalten in den unterschiedlichen Wissenschaftsdisziplinen? Diese Liste ließe sich noch deutlich erweitern. Wie man an diesen Fragen aber auch sieht, ist die Outputseite des Forschungsprozesses gleichzeitig gut geeignet, um auch die Qualität einer Forschungsarbeit zu erfassen. Allein die Tatsache, dass ein Patent erteilt wird oder ein Aufsatz zur Publikation in einem A-Journal angenommen wurde, zeugt von einer gewissen „Qualität“, auch wenn diese nicht explizit gemessen werden kann. Wir werden in den Kapiteln 3 bis 11 eine ganze Reihe von Indikatoren in Form von „Streckbriefen“ vorstellen. Neben einer Beschreibung des Indikators und mindestens einem Anwendungsbeispiel in der Literatur werden wir immer auf die Fragen eingehen:      Handelt es sich um einen Input- oder Outputindikator? Misst er die Quantität, die Qualität oder werden vielleicht sogar beide Aspekte erfasst? Ist er eine Absolut- oder eine Relativgröße? Inwiefern ist er aggregierbar? Berücksichtigt er auch erfolglose Forschung? Eine kurze Übersicht über die Indikatoren der jeweiligen Kapitel befindet sich direkt vor den Steckbriefen. In den meisten Kapiteln wird dabei auch die innere Logik, die sich aus der gewählten Reihenfolge der Indikatoren ergibt, verdeutlicht. 2 Unter „latent“ versteht man in der Statistik eine Variable, die nicht direkt messbar ist und einen Indikator benötigt. Eine direkt messbare Variable ist eine manifeste Variable. Zum Beispiel ist die Körpergröße eines Menschen manifest, seine Intelligenz dagegen latent. Sie kann nur indirekt über den Intelligenzquotienten gemessen werden (vgl. z. B. von der Lippe 1993, S. 6). 3 4 Literatur Literatur Adler, N., & Harzing, A.-W. (2009). When Knowledge Wins: Transcending the Sense and Nonsense of Adademic Rankings. The Academy of Management Learning and Education, 8, 72–95. Albers, S. (2009). Misleading Rankings of Research in Business. German Economic Review, 10, 352–363. Alexander-von-Humboldt-Stiftung (Hrsg.). (2009). Publikationsverhalten in unterschiedlichen wissenschaftlichen Disziplinen. Diskussionspapier 12. Bonn: Alexander-von-Humboldt-Stiftung. Allmendinger, J. (2002). Eine drei-Welten-Lehre wissenschaftlicher Reputation und ihre Messung. Soziologie, 3, 56–58. Bérubé, C., & Mohnen, P. (2009). Are Firms That Receive R&D Subsidies More Innovative? Canadian Journal of Economics, 42, 206–225. CEST (2007). Darstellung, Vergleich und Bewertung von Forschungsleistungen in den Geistes- und Sozialwissenschaften. Bern: https://wissenschaftsrat.ch/images/stories/archiv/Bericht_CEST_SciencesHumaines_2007.pdf. Zugegriffen: 18. Sep. 2020 Fromm, N., & Grözinger, G. (2010). Sollte auch die DFG ein EPSCoR-Programm auflegen? Ein USBeispiel zur Gestaltung von fairen Ausgangsbedingungen im Wettbewerb um öffentliche Forschungsgelder. Qualität in der Wissenschaft, 3, 66–70. Grözinger, G. (2011). Eine Verengung in der öffentlichen Forschungsförderung? Hochschulmanagement, 3, 62–67. Ketzler, R., & Zimmermann, K. F. (2007). Anreize wirken: Deutsche Wirtschaftsforschungsinstitute im Aufwind. DIW-Wochenbericht, 46(74), 685–695. Von der Lippe, P. (1993). Deskriptive Statistik. Stuttgart/Jena: UTB Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.