Sie befinden Sich nicht im Netzwerk der Universität Paderborn. Der Zugriff auf elektronische Ressourcen ist gegebenenfalls nur via VPN oder Shibboleth (DFN-AAI) möglich. mehr Informationen...
Ergebnis 17 von 17

Details

Autor(en) / Beteiligte
Titel
Essays on crowd-based idea evaluation - empirical evidence from an anonymous online crowd
Ort / Verlag
Paderborn
Erscheinungsjahr
2019
Verknüpfte Titel
Beschreibungen/Notizen
  • Tag der Verteidigung: 26.08.2019
  • ger: Unternehmen setzen bei der Suche nach Ideen für neue Produkte oder Geschäftsmodelle verstärkt auf Crowdsourcing. Teilweise resultiert der Einsatz von Crowdsourcing zur Ideengenerierung in tausenden von Ideen, die im nächsten Schritt evaluiert werden müssen, um die besten Ideen zu identifizieren. Aufgrund der großen Zahl an Ideen wird die Crowd vermehrt auch zur Evaluation der Ideen eingesetzt. In den vergangenen Jahren haben sich Forscher mit verschiedenen Aspekten der Ideengenerierung und Ideenselektion durch die Crowd beschäftigt. Hierbei zeigen die bisherigen Arbeiten widersprüchliche Ergebnisse in Bezug zur zentralen Frage, ob eine Crowd die vielversprechendsten Ideen identifizieren kann. Folglich ist das Ziel dieser Dissertation, verschiedene Aspekte crowd-basierter Ideenevaluation zu betrachten. Diese Dissertation umfasst fünf Forschungsarbeiten, bei denen die ersten vier Arbeiten sich mit dem Kontext der Ideenevaluation durch eine Crowd befassen wohingegen die letzte Arbeit einen Aspekt der Ideengenerierung beleuchtet. Ausgehend von einem Vergleich der Evaluationen von Experten und einer anonymen Crowd auf einer Crowdsourcing Plattform (Görzen und Kundisch 2016), werden im zweiten Beitrag (Görzen und Laux 2019) Mechanismen zur Aggregation der Meinungen einer Crowd verglichen, wohingegen im dritten Beitrag (Görzen und Kundisch 2019) eine mögliche Lösung entwickelt wird, um qualitativ hochwertige Ideen durch eine Crowd zu identifizieren. Im vierten Beitrag (Görzen 2019a) wird der Einfluss von Erfahrung der Individuen innerhalb der Crowd auf das Auftreten des sog. Ankereffekts untersucht. Die Arbeit schließt mit einem Beitrag im Kontext der Ideengenerierung durch die Crowd, der untersucht, inwiefern die Hervorhebung der positiven Bedeutung einer Aufgabe die Quantität sowie Qualität der generierten Ideen beeinflusst.
  • eng: Companies increasingly rely on crowdsourcing in their search for ideas for new products, services or business models. Asking a crowd to generate ideas can easily result in thousands of ideas that need to be evaluated in the next step, aimed at identifying the most promising ideas. Due to the large number of ideas, the crowd is increasingly used not only for the generation, but also for the evaluation of ideas. Scholars have recently started to investigate different aspects of idea generation and idea selection by the crowd. Previous studies in this context show contradictory results in answer to the central question of whether a crowd can be trusted to identify the most promising ideas. Consequently, the overall goal of this dissertation is to consider various aspects of crowd-based idea evaluation. This dissertation comprises five research papers. The first four studies deal with crowd evaluation, whereas the last study addresses idea generation. While the first study compares the evaluations of experts and evaluations of an anonymous crowd on a crowdsourcing platform (Görzen and Kundisch 2016), the second article (Görzen and Laux 2019) compares different mechanisms for aggregating the opinions of a crowd. The third article (Görzen and Kundisch 2019) proposes the potential of identifying high quality ideas by developing an appropriate approach, using the established anchoring effect as a basis for a mechanism, and the variance of ratings as a key metric. The fourth article (Görzen 2019a) investigates the influence of the experience of individuals in the crowd on the so-called anchor effect. The dissertation is rounded off with a fifth article in which the influence of positive task meaning on the quantity and quality of ideas generated is examined.
Sprache
Englisch
Identifikatoren
Titel-ID: 990020895630106463
Format
II, 31 Seiten

Lade weitere Informationen...