Von Marktstudien und anderen Halbwahrheiten

Reppesgaard studierte in Hannover und arbeitete danach als Reporter und Moderator bei Hörfunk von Radio Bremen zu innen- und jugendpolitischen Themen und in den Bereichen Technologie und Wissenschaft. Seit dem Jahr 2000 lebt er in Hamburg, seit 2001 arbeitet er mit Christoph Lixenfeld im druckreif Redaktionsbüro zusammen.
Zu Zeiten des Internet-Booms galten sie als Propheten einer goldenen Zukunft. Unternehmensberatungen ließen potenzielle Klienten von Zukunftstechnologien wie Avataren oder WAP-Netzen träumen. Mittlerweile sind viele, die sich auf die Vorhersagen der Auguren verlassen haben, ernüchtert oder pleite, denn oftmals lag die Prognosebranche ziemlich daneben.

Die Analysten der International Data Corp. (IDC) hatten Bill Gates augenscheinlich unterschätzt. 1997 taxierten sie zwar erstaunlich treffsicher die Zahl der US-Bürger, die im Jahr 2001 online sind, auf rund 50 Prozent. Heute liegt die Zahl tatsächlich knapp über dieser Marke. Bei der Frage, wer in Zukunft die Einnahmen auf dem Milliardenmarkt Internet machen wird, tippten die Analysten aber gehörig daneben.

Wolfgang Bleh, Geschäftsführer von Internet Intern: "Nicht alles, was veröffentlicht wird, ist Humbug. Aber alles ist interessengeleitet."
Wolfgang Bleh, Geschäftsführer von Internet Intern: "Nicht alles, was veröffentlicht wird, ist Humbug. Aber alles ist interessengeleitet."

Sie vermuteten einen anhaltenden Zweikampf zwischen Microsoft und einem Unternehmen, das es längst nicht mehr gibt: Netscape. Während der Softwareriese aus Redmond mit seiner .NET-Strategie tatsächlich heute vehementer denn je versucht, im Internet Geld zu machen, ist von den Träumen des einstigen Browser-Königs Marc Andreessen kaum mehr als eine Entwicklungsabteilung des Netscape-Aufkäufers AOL übrig geblieben. Und auch die Vermutung, dass die Vorherrschaft über den Internet-Browser zugleich bedeutet, im Internet Geld zu verdienen, hat sich trotz einer Marktdurchdringung von Microsofts "Internet Explorer" von 94 Prozent als unzutreffend erwiesen.

Prognoseunternehmen aus dem IT-Bereich liegen bis heute mit ihren Vorhersagen häufig daneben. Nach wie vor begegnen aufmerksamen Lesern Belege für die Diskrepanz zwischen antizipierter und der realen wirtschaftlichen Entwicklung: So veröffentlichten die US-Marktforscher von Jupiter Communications im September 2000 die Schätzung, dass der Markt für Online-Autohändler im Jahr 2004 einen Wert von 128 Milliarden Dollar haben wird. Ausgerechnet drei Tage, bevor diese Prognose publiziert wurde, schloss mit Carorder.com der erste Online-Autohändler in den Vereinigten Staaten seine Website und setzte 100 Angestellte vor die Tür. Die Erfahrung des vergangenen Jahres habe gezeigt, dass die Online-Vermittlung von Autos absolut keine Aussicht auf profitable Geschäfte biete, erklärte eine Firmensprecherin.

Die Erklärung für solche Fehlschüsse liegt in der Methode, die in vielen Untersuchungen angewendet wird. Beim Top-down-Ansatz begnügen sich die Researcher damit, eine verhältnismäßig kleine Zahl von Entscheidern und Fachleuten aus den wichtigsten Unternehmen einer Branche nach ihren Einschätzungen für einen bestimmten Markt zu fragen und daraus abzuleiten, wie er sich in Zukunft entwickelt. "Die Top-down-Methode ist üblich unter Marktforschungsunternehmen, muss aber mit Skepsis betrachtet werden", schreiben die US-Marktforscher Frost & Sullivan in einer eigenen Methodenanalyse. "Sie ist sehr unpräzise und kann zu ernsten Problemen führen, wenn sie Grundlage strategischer Entscheidungen ist." Das Problem ist, dass sich dieses kostengünstige und deshalb verbreitete Verfahren allein auf die Kompetenz der wenigen Befragten verlässt. Liegen diese mit ihren Schätzungen daneben, sind die Prognosen nicht den Speicherplatz wert, den sie als PDF-Datei beanspruchen.

Diese Schwächen vor Augen, gehen einige Studienanbieter dazu über, dass sie auf das Bottom-up-Verfahren setzen, bei dem Vorhersagen aus einem sehr viel breiteren Befragungs-Pool generiert werden, in dem nicht nur die Schlüsselunternehmen einer Branche zu Wort kommen. Frost & Sullivan hat dabei ein Verfahren entwickelt, das zwölf Schritte zwingend festschreibt: Es reicht von der Analyse möglicher Themen über die Entwicklung der Fragestellung, die Durchsicht von bereits vorhandenen Untersuchungen und Statistiken, die Entwicklung der Interviewfragen und die Interviews selbst bis zu den daraus abgeleiteten Zusammenfassungen. Sabrina Uthe, Marketing-Leiterin bei der Meta Group in München, erklärt, wie ihr Unternehmen vorgeht: "Für eine Untersuchung, die etwas über den E-Business-Markt der Zukunft in Deutschland aussagen soll, führen wir beispielsweise 800 bis 1000 Telefoninterviews. Interviewt werden Anwender und Entscheider, die im jeweiligen Themenumfeld tätig sind. Wir fragen nach Entscheidungswegen, Budgets und Markteinschätzungen." Drei bis vier Monate dauert eine solche Untersuchung, dann fassen Mitarbeiter der Meta Group die Ergebnisse zusammen und interpretieren sie.

Billig sind solche Verfahren nicht. Bevor die Frankfurter Marktforscher Forit von Forrester Research aufgekauft wurden, wendeten sie bis zu 50 000 Mark dafür auf, den gegenwärtigen Markt eines Produktes zu analysieren, Zahlen vom Statistischen Bundesamt anzufordern, je nach Thema 30 bis 50 Expertengespräche mit Politikern, Professoren und/oder EU-Beamten zu führen und schließlich aus angekauften Adressdatenbanken eine repräsentative Verbrauchergruppe zur telefonischen Befragung auszulosen. Untersuchungen von Unternehmen wie Forrester übertreffen diese Kosten mitunter um das Drei- bis Vierfache.

Nicht immer hat sich diese Ausgabe gelohnt. Mal sind es Binsenweisheiten, die am Ende als Ergebnis einer Untersuchung publiziert werden. So verkündete Nielsen Netrating erst kürzlich stolz, man habe herausgefunden, dass Internet-Surfer vor allem Suchmaschinen, Portale und Community-Sites ansteuern - ein Ergebnis, das wohl niemanden in der Computerwelt überrascht haben dürfte. Oder die Internet-Auguren kommen bei gleichen Fragestellungen zu grundlegend anderen Ergebnissen. So prognostizierte Forrester Research noch im September 2000 uneingeschränkt den Erfolg der WAP-Technologie, während zwei Monate zuvor der Wirtschaftsinformatik-Professor Edgar Einemann von der Hochschule Bremerhaven in einer Untersuchung versicherte, WAP werde zweifelsfrei ein Flop. Besonders schwierig ist es, aus den gesammelten Daten präzise Voraussagen abzuleiten. Ein Grund für die unterschiedlichen Ergebnisse ist, dass die Auguren dabei die sicheren Daten der Gegenwart mit unterschiedlichen Methoden in eine unsichere Zukunft hochrechnen. Wer zum Beispiel aus dem Umsatzwachstum eines bestimmten Jahres ableiten will, wie sich dieses in Zukunft weiterentwickelt, rechnet die durchschnittliche Jahreswachstumsrate (Average Annual Growth Rate) in die Zukunft weiter. Bei der zusammengesetzten Jahreswachstumsrate (Compound Annual Growth Rate) werden dagegen einzelne Jahresabschnitte gesondert in die Zukunft fortgeschrieben. Und je nach dem Ausgangsmaterial sind die daraus resultierenden Thesen mehr oder minder brauchbar.

Der Wirtschaftsinformatiker Bernd Viehweger von der Humboldt-Universität Berlin betont, dass die meisten Untersuchungen auf wissenschaftlichen Verfahren fußen. "Entweder handelt es sich um statistische Zeitreihen, die aus der Vergangenheit bestimmte Entwicklungen linear fortschreiben, oder man verwendet dynamische Systeme, die viele Variablen berücksichtigen. Man kann aber nicht sagen, dass dieses oder jenes Verfahren genauere Ergebnisse liefert." Der Statistikexperte der Deutschland-Abteilung eines großen Marktforschungsunternehmens räumt ein: "Natürlich hat niemand eine Kristallkugel und kann in die Zukunft sehen. Die Realität ist zu komplex, um alle Faktoren korrekt vorherzusagen."

Doch nicht nur an unterschiedlichen Befragungs- und Berechnungsmethoden liegt es, dass sich mit diesen Studien fast alles be- und im nächsten Atemzug widerlegen lässt. Die Hauptursache sieht Wolfgang Bleh, Geschäftsführer des Informationsdienstes Internet Intern, in der direkten Verquickung von Untersuchungen und wirtschaftlichen Interessen: "Es ist nicht alles Humbug, was veröffentlicht wird. Aber es ist immer interessengeleitet." Wenn Hersteller von Antivirussoftware vor kommenden Virusgenerationen warnen oder Mobilfunkunternehmen mögliche UMTS-Nutzerzahlen schönrechnen, ist die Interessenlage offensichtlich. Auch ein Unternehmen wie Magex, ein Londoner Online-Vertrieb für Musikdateien und Software, finanziert Studien, laut denen es 80 Prozent der befragten User akzeptabel finden, für Musik-Downloads zu bezahlen. Mit so einem Wert lassen sich Investoren ködern, auch wenn die These angesichts der dramatisch gesunkenen Nutzerzahlen beim angehenden Abodienst Napster reichlich kühn erscheint. Bei den meisten Untersuchungen sind die Interessenlagen aber weniger eindeutig erkennbar. Die Meta Group gibt Unternehmen die Möglichkeit, die den Studien zugrunde liegenden Fragebögen mitzugestalten. "Wir sprechen dabei Anbieter an, die ein gemeinsames Marktforschungsinteresse haben", sagt Sabrina Uthe. "Für beide Seiten entsteht so eine Win-Win-Situation.“ Ein ehemaliger Meta-Mitarbeiter beziffert die Kosten für eine repräsentative Einzelstudie zu einem bestimmten Thema auf 100 000 bis 150 000 Mark. In den Befrager-Pool einzusteigen ist ihm zufolge dagegen für 15 000 bis 20 000 Mark möglich. Meta-Marketing-Leiterin Uthe betont aber: "Im beschreibenden Teil der Untersuchungen dürfen die Unternehmen dann mitreden, garantiert aber nicht im Analyseteil. Den machen unsere Consultants allein."

Reine Analyseunternehmen wie Forrester oder die Meta Group sind eben keine mit öffentlichen Mitteln geförderten Forschungsinstitute. Fehlen externe Finanziers, sind sie gezwungen, ihr Geld mit dem Verkauf ihrer Studien zu verdienen. Wegen des Kostendrucks muss fast alles veröffentlicht werden, auch wenn die Ergebnisse eigentlich wenig eindeutig oder banal sind oder bei der Erstellung geschlampt wurde. "Der Trick ist, die Wahrheit zu sagen und doch nicht die Wahrheit zu sagen", verrät ein ehemaliger Mitarbeiter eines Prognoseunternehmens. "Wenn wir schrieben, dass wir 1000 Unternehmen aus der Branche befragt haben, hieß es ja nicht, dass die auch geantwortet haben. Der Rücklauf betrug meist fünf bis acht Prozent. Dann mit irgendwelchen Excel-Funktionen Zahlen bis auf zwei Nachkommastellen auszurechnen war natürlich Blödsinn, aber es wirkte präzise. Zusätzlich musste immer irgendwas Bemerkenswertes herausgearbeitet werden, das sich zu PR-Zwecken ausschlachten ließ.

Sind also alle Vorhersagen, auf die immerhin Unternehmen Business-Pläne und manche Anleger ihre Aktienauswahl stützen, nur mehr oder minder gut gemeinte Rateversuche? Unterscheidet sich die Zunft der Netzauguren im Grunde nicht von der Handleserin auf dem Jahrmarkt, die mit Blick auf die eigene Kasse das vorhersagt, was die Kundschaft hören will? Die Antwort lautet: Jein. Der eigentliche Wert solcher Studien liegt für den Geschäftsführer des Electronic Commerce Forum, Harald Summa, nicht in den Zahlen, die veröffentlicht werden: "Man kann diese Berichte als Trendvorhersagen nutzen. In diese oder jene Richtung geht die Reise. Ob dabei aber eine oder zehn Milliarden umgesetzt werden, darauf verlasse ich mich auf keinen Fall."

Allerdings ist die Frage, ob die angeblichen Themen der Zukunft wirklich welche sind, kniffelig, wenn Unternehmensberatungen hinter den Studien stecken. Auch sie bringen immer mehr Untersuchungen auf den Markt - vor allem, um für ihre Beratungsleistung zu werben. KMPG veröffentlichte zur Eröffnung eines E-Business-Kompetenzzentrums in Hallbergmoos eine Untersuchung, nach der Deutschland spätestens im Jahr 2004 der größte europäische E-Commerce-Markt ist. Ob die Berliner auch eine skeptische Marktprognose bei entsprechend negativem Zahlenmaterial abgegeben hätten, darf bezweifelt werden. Wenn E-Commerce hierzulande keine Zukunft hat, gibt es ja keinen Grund, Geld für die Beratung im KPMG-Kompetenzzentrum auszugeben. Wenn Cap Gemini Ernst & Young (CGEY) etwas zu den Chancen des Autohandels im Internet publiziert, ist ebenfalls Vorsicht geboten. Schließlich betreibt CGEY mit Tradingcars.com selbst einen auf Business-to-Business-Kontakte spezialisierten Pkw-Marktplatz. CGEY-Deutschland-Sprecher Thomas Becker: "Natürlich werden Studien in dem Bereich gemacht, in dem wir ein Geschäft haben. Das ist doch überall so." Fragt sich nur, wie brauchbar die publizierten Ergebnisse solcher Allianzen für die strategischen Entscheidungen für Unternehmer sind, die abschätzen wollen, wie sinnvoll eine neue technische Entwicklung ist.

Während der Prognoseindustrie zu Zeiten des Internet-Booms beinahe alles unbesehen geglaubt wurde, sind Teile der Netzöffentlichkeit heute misstrauischer geworden. Überraschend feindselig fiel vor kurzem das Echo auf eine Frost & Sullivan-Studie zum Thema "Drahtlose Endgeräte als Marketing-Instrumente" aus: Die Londoner Frost-Analystin Allison Webb hatte antizipiert, dass im Jahr 2006 allein in Europa rund 37 Milliarden Werbebotschaften an mobile Endgeräte wie Handys oder PDAs verschickt werden. 65 Prozent der Gerätebesitzer sollten ihrer Schätzung nach bereit sein, diese Nachrichten zu empfangen. "Werbung ist nervig, sie ist nie erwünscht, und kein Mensch ist bereit dazu, sie zu empfangen. Vor allem dann nicht, wenn er mit GRPS oder UMTS ein Heidengeld zum Download von Multimedia-Werbeblättchen ausgeben soll – einfach lächerlich!", kommentierte ein hier stellvertretend für viele zitierter Surfer in einem Online-Forum. Und weiter: "Angesichts der unsinnigen Studien und Prognosen oben genannter Leutchen glaubt man nur noch, dass diese keine Ahnung vom Internet-User und keinen gesunden Menschenverstand haben."