Wenn die Gier sich selbst frisst

Der globale Finanzcrash hat ein Schreckensszenario für alle Jünger des freien Marktes heraufbeschworen : Ist der Kapitalismus am Ende ? Dreht sich die Geschichte zurück ? Ist Geld am Ende gar ein Fetisch ?
Die brennende Frage, wie die Finanzwelt der Zukunft aussehen wird, stellen sich heutzutage nicht nur verlustgeplagte Investoren, größenwahnsinnig gewordene Sparkassendirektoren und gerichtsanhängige Investmentbanker voller Sorge. Man ringt nun sogar schon nach Erklärungen abseits der üblichen Wege. Der deutsche Finanzminister Peer Steinbrück (SPD) hatte in einer schwachen Minute öffentlich zugegeben, dass die marxsche Krisentheorie wohl doch nicht so gefehlt gewesen sei : „Gewisse Teile der marxistischen Theorie waren doch nicht so verkehrt. Ein maßloser Kapitalismus, wie wir ihn erlebt haben, mit all seiner Gier, frisst sich am Ende selbst auf. “Steinbrück spielte damit auf den Zusammenbruch der US Investmentbanken und dessen Folgen an : Die „Finanzarchitektur“ der Welt werde sich in Zukunft drastisch ändern, so Steinbrück. Und weiter : „Man muss aufpassen, dass der aufgeklärte Kapitalismus kein Legitimations, Akzeptanz oder Glaubwürdigkeitsproblem bekommt.“ Dass es schon längst so weit ist, zeigen Konsequenzen der Misere wie die ungewohnt gewalttätigen Ausschreitungen kürzlich beim G20Gipfel in London, die Antikapitalismusdemonstrationen in zahlreichen Industriestaaten oder Einzelaktionen wie Geiselnahmen von Managern durch Angestellte in Frankreich, zuletzt bei Sony, Caterpillar und 3M, schön be schrieben durch das neue Modewort „Bossnapping“. Auch in Österreich ist nichts mehr, wie es war, seit der ehr würdige Herr Julius Meinl V. zumindest kurze Zeit gesiebte Luft im Wiener Häf’n atmen musste. Was wohl Marx dazu ge sagt hätte?Im Zeitalter des Neoliberalismus – der nun wirklich zu Ende ist, im Gegensatz zum Kapitalismus – war Marx ziemlich pfui. Abseits von den notorischen Lesezirkeln tauchte er höchstens hin und wieder in Management Seminaren auf, wenn es um die volkswirtschaftlichhistorische Bedeutung von Begriffen wie Produktivkraft (Produktivität) oder Mehrwert ging. Ansonsten hatte er ausgedient, hin gen doch viele Neoliberale dem dämlichen Diktum vom „Ende der Geschichte“ (dem Sieg des Kapitalismus) von Francis Fukuyama an, das sich im Gegen satz zu Marxens Analysten als atemberaubender Unsinn he rausgestellt hat.
System aus den Fugen
Von wegen Ende der Geschichte. Wir erleben heute, was Marx vor rund 150 Jahren – unter anderen Voraussetzungen – vorhergesagt hat. Der Zwang des Kapitalismus zur Produktivität, zu Wachstum kann nur so lange gut gehen, solange genügend Konsumenten Waren und Dienstleistungen auch wirklich konsumieren. Sonst gerät das gesamte System aus den Fu gen. Durch Rationalisierungen, technologischen Fortschritt und niedrigere Löhne sind die Konsumenten aber nicht mehr in der Lage, alles zu konsumieren, was die Wirtschaft bereitstellt, und das System kollabiert.Addiert man zu diesen Bedingungen die heute wesentlich komplexere wirtschaftliche Realität mit ihrem Kreditwesen, der globalisierten Warenwirtschaft und der längst verselbst ständigten Finanzwelt, verwundert es nicht, dass es ganz ordentlich kracht, wenn der Bo gen einmal überspannt ist. Und wie vor jedem Höhepunkt einer Blase schwemmt es die ganzen übergeschnappten Handlungsträger hervor, die vom über spannten Kapitalismus der letzten Jahre schmarotzten, die Madoffs, die Lehman Brothers und eben auch die vielen Meinls dieser Welt.Was den frohen Tagen folgt, ist ein Weltwirtschaftsgewitter, Dem Crash durch die ökonomische Anarchie des Neoliberalismus folgt ein reinigendes Weltwirtschaftsgewitter ein Zyklus der Reinigung, wie es ihn im Kapitalismus zwangsläufig immer wieder geben muss – auch das wusste Marx. Schlechte Zeiten also für abgehobene „Fat Cats“ wie einen General Motors Chef Rick Wagoner, für Heuschreckenfonds wie Cerberus, aber auch schlechte Zeiten für Millionen von Arbeitslosen, Sparern und Kleinanlegern. Der große Irrglaube der Neo liberalen war ja, dass die Ausformung einer alles dominierenden Finanzwirtschaft einFortschritt war. Das Gegenteil ist aber wahr : Von den Wall StreetHaien der 1980er Jahre bis zu den modernen zerstörerischen Hedgefonds zog sich als einzige Moral die Gier nach Brot. Das als Fortschritt zu sehen, ist ziemlich banal. Und daraus Sprüche abzuleiten wie „Geht’s der Wirtschaft gut, geht’s uns allen gut“, lässt auf die Schlichtheit des Wirtschaftskammer Marketings blicken.
Wahr ist, dass diese Art von Wirtschaft, die die Welt fast in den Ruin getrieben hat, nur jenen genutzt hat, die schon völlig abgehoben von der produktiven Realität nur mehr mit dem Fetisch Geld jongliert haben. Genützt hat sie den Steuer hinterziehern, den Korrupten, den Selbstdarstellern und den ganz Schlauen. Repariert wird die Misere jetzt von allen Steuerzahlern mithilfe besonnener Ökonomen.Lange Erholungsphase
Was kommt danach ? Die Zyklenforscher des Kapitalismus gehen davon aus, dass sich ein Crash ungefähr in der dreifachen Anzahl der Monate, die es zum Verfall gebraucht hat, wieder erholt. In der derzeitigen Situation nehmen wir also die 18 Monate der Krise mal drei, was eine Erholungsphase von 4,5 Jahren ergibt. Geht man davon aus, dass die Krise Mitte 2009 ihren Boden erreicht, ist die Wirtschaft Ende 2014 wieder auf dem Stand von zuvor.
Doch die Vorzeichen werden nicht mehr dieselben sein : Der ungezügelte, unproduktive und zerstörerische freie Kapitalismus der Hochfinanz wird ein Ende haben, wenn auch nicht gleich. Steueroasen werden aus gedünnt, Kreditsysteme verbessert und Spekulanten gezügelt. Die Rückorientierung zu einer Wirtschaft, deren innerer Wert sich wieder auf Produktion von Waren und das Anbieten von Dienstleistungen besinnt statt auf das Jonglieren mit ktiven Finanzwerten, wird reinigend wirken. Gleichzeitig verschafft sie den Produktivkräften der Gesellschaft wieder einen höheren Stellenwert, sprich : den Angestellten und Arbeitern und deren Interessen.Aus für Neoliberalismus
Der Neoliberalismus hat versagt. Jedenfalls in dem Sinne, durch freie Wirtschaft eine freie und gerechte Gesellschaft zu schaffen. Gebracht hat er wirtschaftliche Anarchie, Privilegierung weniger auf Kosten der Mehrheit, die Herrschaft von Konzernen und Kartellen, Hegemonialkriege und soziale Ungleichheit mehr denn je. Neoliberalismus bringt nicht im Geringsten eine funktionierende Wettbewerbsordnung hervor .Und GM Boss Rick Wagoner nimmt 20 Mio. Dollar mit in die Rente.Ausgewählter Artikel aus dem Jahr 2009
Stromlösung steht vor Blackout

Entgegen den öffentlichen Liebesschwüren sind sich die heimischen Strombosse in den vierjährigen Verhandlungen zur österreichischen Stromlösung überhaupt nicht näher gekommen. Anstatt mit Hochdruck Kooperationsansätze zu suchen, arbeitet so mancher an einem eleganten Ausstieg, ohne aber dafür den schwarzen Peter zu kassieren.
In der E‑Wirtschaft sprühen die Funken. Vier Jahre nach dem Beginn der Verhandlungen zur großen österreichischen Stromlösung (Ösl) droht den Verhandlungen der beteiligten Unternehmen im Endspurt der Saft auszugehen. In der Ösl wollen der Verbund sowie die EnergieAllianz aus den Landesversorgern EVN, Wienstrom, Bewag, Energie AG Oberösterreich (EAG) und die Linz AG wesentliche Teile ihrer Stromgeschäfte zusammenspannen. Der Verbund hat fünf Minuten vor zwölf neue Forderungen für eine Zustimmung zur elektrischen Ehe auf den Tisch gelegt. Er verlangt die Quadratur des Kreises : Trotz gemeinsamer Stromlösung soll der Wettbewerb der beteiligten Firmen weitergehen. Zweite Forderung : Wenn ein Unternehmen aus der Allianz aussteigt, soll der Verbund ein Aufgriffsrecht erhalten.
Das ist eine weitere Hürde für die seit April 2002 laufenden Gespräche über die Schaffung größerer Einheiten in der EWirtschaft. Nun läuft den Verhandlern die Zeit davon, denn Deadline für einen Abschluss ist laut Insidern Ende März. So mancher Stromboss wird sich wohl im stillen Kämmerlein freuen, sollte die von der Regierung favorisierte Lösung nicht Realität werden. Öffentlich will niemand an der Ösl zweifeln, denn dann hätte man den schwarzen Peter. Besonders in Oberösterreich hat die Ösl alles andere als einen guten Klang : Nun steht in Linz gar die Energie-Allianz zur Disposition. Ende März können die beteiligten fünf Unternehmen den Kooperationsvertrag verlängern oder aufkündigen. Die Linz AG denkt schon laut über einen Ausstieg aus der Vertriebs- und Großhandelsallianz nach. Mitmachen will man nur, wenn der Vertrag mit den Allianz-Partnern alle fünf Jahre gekündigt werden kann. Mit einer kolportierten Vertragslaufzeit bis zum Jahr 2022 will sich die Linz AG nicht abfinden. Alles andere als im siebten Himmel ist auch die Energie AG Oberösterreich. Weil aber EVN, Wienstrom und Begas ein Viertel an der EAG halten, ist ein Allianz-Ausstieg für das Unternehmen nur eine theoretische Option. Denn das Land müsste dann den drei Versorgern die Kaufsumme (420 Mio. Euro) zurückerstatten.Auch im Verbund gibt es Kräfte, die nicht gerade Fans der Ösl sind. Diese favorisieren eine Kooperation mit der steirischen Energieholding Estag und der Energie AG Oberösterreich. Damit wäre man nach sieben Jahren Verhandlungen am Ausgangspunkt aller Kooperationspläne angekommen. 1999 wollte Verbund-Vorstandschef Hans Haider mit der steirischen Energieholding Estag und der EAG zusammengehen. Zurück in die Zukunft Gescheitert war dies am Veto von EVN, Wienstrom und Tiroler Tiwag, die eine Sperrminorität am Verbund halten. Auch der zweite Partnerschaftsversuch des Verbunds hatte glücklos geendet. Im Juli 2001 hatte der Konzern eine wässrige Ehe mit dem deutschen Atomstromriesen E.On ausgehandelt, diese war am innerösterreichischen, auch medialen Widerstand (Schlagwort „Ausverkauf der Wasserkraft“) gescheitert. Der Deal war unter Pomp im Kanzleramt in Wien verkündet worden. Nur ein Jahr später (April 2002) wurde ebenfalls im Kanzleramt die Ösl als Stein der Waisen beschworen. Vorangegangen war der energiepolitischen Wende ein Machtwort von Bundeskanzler Wolfgang Schüssel. Um die Stromlösung doch zustande zu bringen, wartet man auf ein weiteres Machtwort. Denn eines ist auch Ösl-Kritikern klar : Platzen die Gespräche, haben alle Beteiligten viel Geld und viele Stunden ergebnislos investiert. Nicht unbedingt als Freund der Ösl gilt auch der EVN-Groß- aktionär, die deutsche Energie Baden-Württemberg (EnBW). Verhindern könnte sie den Deal wegen der EVN-Satzung nicht.
Ungeachtet dessen haben die Schwaben peu à peu knapp 30 Prozent des niederösterreichischen Landesversorgers erworben. Pläne, weiter aufzustocken, hat die EnBW laut einem Firmensprecher auf Eis gelegt. Rittern um den Chefsessel Auch wenn der Vertrag von Verbund-Vorstand Hans Haider erst 2008 ausläuft, hat das das Karussell mit den möglichen Nachfolgekandidaten schon Fahrt aufgenommen. Wer künftig die Geschicke des Wasserkraftkonzerns bestimmt, hängt maßgeblich von der Politik ab. Das letzte Wort bei der Postenbesetzung hat Bundeskanzler Wolfgang Schüssel, meinen Insider. Der Verbund solle ungeachtet des Ausgangs der Nationalratswahlen schwarz bleiben oder gar noch schwärzer werden. Derzeit steht es in der Polit-Farbenlehre im VerbundVorstand zwei zu eins für die Kanzlerpartei : Neben Haider ist auch Finanzchef Michael Pistauer ÖVP-nahe, ein prononcierter Roter ist Hannes Sereinig. Die besten Chancen für die Neubesetzung des Chefsessels beim Verbund geben Insider Ulrike Baumgartner-Gabitzer, Generalsekretärin des Verbands der Elektrizitätsunternehmen Österreichs (VEÖ), VP-Nationalratsabgeordnete und ExKabinettschefi n von Schüssel. Ihr Manko : Sie hat keine Vorstandserfahrungen. Gleiches gilt für Stromregulator Walter Boltz : Ungeachtet der Verlängerung seines Vertrags bei der E‑Con-trol liegt er gut im Rennen. Ebenfalls als HaiderNachfolger gehandelt wird Leo Windtner, Chef der Energie AG Oberösterreich. Gegen ihn spricht, dass er aus einem Bundesland kommt. Gleiches gilt für den auch ins Spiel gebrachten Günter Ofner, den „schwarzen“ Vorstand im „roten“ burgenländischen Landesversorger Bewag.Ausgewählter Artikel aus Printausgabe 04/2006
Emanzipation mit Hindernissen

Der Erfolg der Kompetenzzentren in Österreich treibt die Forschungspolitik in den Bundesländern an. Während der Bund das neue Programm nahezu alleine realisiert, setzen die Länder ihren eigenen Kopf durch. Über die frisch gewonnene Eigenständigkeit, komplexe Evaluierungen und den Ehrgeiz, Vorzeigeregion zu werden.
Dass sich die Verhandlungen für die neue Kompetenzzentrumsförderung so kompliziert gestalten, ist für Eva Czernohorszky, Leiterin des Bereichs Kompetenzzentren im Zentrum für Innovation und Technologie (ZIT), Ausdruck einer sehr positiven Entwicklung : Die Länder emanzipieren sich in ihrer Forschungspolitik von den einst starren Vorgaben des Bundes. Dieser will unterdessen K‑neu – so der vorläufige Name für die Zukunftsstrategie der Kompetenzzentren – in Eigenregie über die Bühne bringen. Vorgegeben soll nur noch ein Rahmen werden, innerhalb dessen die Länder Akzente setzen, Lücken schließen und für die Region Relevantes vorantreiben. Drei Stufen der Zusammenarbeit könnten dabei zur Auswahl stehen : Einerseits eine ähnlich enge Kooperation wie bisher, andererseits eine lose Verbindung inklusive eigener Evaluierung oder die völlige Entkoppelung der Förderungsleistungen mit der Konzentration auf eigene Stoßrichtungen. Ob schließlich Wissenschaftlicher Rat und Finanzministerium in den positiven Grund tenor über die Emanzipation der Länder einstimmen, bleibt indes noch dahingestellt. Anno 1998 war noch alles ganz anders : Aus der Planung für die Strukturförderung K‑plus wurden die Länder herausgehalten, den finanziellen Beitrag hatten sie dennoch zu leisten. Der politische Druck, mitzumachen, war groß, ein Nein keine Option. Auch konnte man dem Bund nur wenig Expertise entgegensetzen, die Forschungsförderung steckte noch in den Kinderschuhen, abgesehen von der finanziellen Unterstützung von Einzelprojekten wurde kaum etwas unternommen.
Getrennte Wege
Doch K‑plus und seine Abwandlungen K‑ind und K‑net wurden zum Erfolg, die Länder versuchten sich an einer Forschungspolitik. Heute wird von eigens dazu abgestellten Agenturen ein zum Teil ausgeklügeltes Förderungsportfolio verwaltet. „K‑plus hat eine Vervielfachung der Mittel bewirkt“, resümiert Harald Gohm, Geschäfsführer der Tiroler Zukunftsstiftung. Dass Bund und Länder bei den Kompetenzzentren hinkünftig getrennte Wege gehen, ist vor allem auf den Widerstand Wiens zurückzuführen. „Es gab immer größere Probleme, die Trennung war die einzige logische Konsequenz“, so Czernohorszky. Die bisher bereits schwierige budgetäre Kalkulierbarkeit würde mit den sogenannten K2-Zentren – Forschungseinrichtungen mit bis zu 200 Mitarbeitern und einem Förderbudget von bis zu zehn Mio. Euro – einen Grenzwert erreichen. Budgets in dieser Größenordnung könne man nicht einfach so reservieren, heißt es beim ZIT. Gleichzeitig gestalteten sich trotz zum Teil überregionaler Strategien die finanziellen Verhandlungen zunehmend als „kleinlich und mühsam“. Auf der anderen Seite mussten sich die Länder trotz finanzieller Beteiligung bei den Evaluierungen auf das Urteilsvermögen des Bundes verlassen. Ein doppeltes Reviewing schien von Seiten der Forschungsinstitute mehr zeitraubend als zielführend : „Es ist kaum sinnvoll, wenn jeder seine eigene Evaluierung macht“, erklärt Markus Kommenda, Geschäftsführer des K‑plus-Zentrums Forschungszentrum Telekommunikation Wien (FTW). Eine weitere treibende Kraft bei den „Unabhängigkeitsbestrebungen“ war Oberösterreich. Auch wenn Gerlinde Pöchhacker, Geschäftsführerin der Oberösterreichischen Technologie- und Marketinggesellschaft (TMG), die künftige Zusammenarbeit mit dem Bund unverändert als eine „ganz enge“ beschreibt. Das bis dato einzige Land, das auch weiterhin sein Geld ohne Mascherl in den Fördertopf leert, ist die Steiermark. „Die Steirer wollen die Aufteilungen in Bundesund Landesinteressen nicht“, weiß Rupert Pichler, Leiter der Abteilung für Forschungs- und Technologieförderung im Bundesministerium für Verkehr, Innovation und Technologie. Da sich der Anwendungsforschung in der Steiermark ohnehin bereits die Joanneum Research annimmt, sei man wohl mit der Grundlagenausrichtung der Kompetenzzentren zufrieden, keine große Veränderung täte Not, vermutet Pichler. Gleichzeitig sei jedoch unklar, warum das Bundesland bei finanziellen Leistungen für inzwischen elf Kompetenzzentren auf eine größere Bewegungsfreiheit verzichten will. Um weitere Komplexität zu verhindern, sind die Standortgemeinden nicht zu den Verhandlungen eingeladen. Graz etwa, das sich an der Förderung der ersten Kompetenzzentren beteiligt, kommt dies wohl nicht ungelegen : Die Finanzprobleme der steirischen Landeshauptstadt würden sich durch weitere Projekte nur noch verschärfen.Führungsanspruch in der EU
Ehrgeizige Pläne werden unterdessen in Oberösterreich geschmiedet : Die Initiative „Innovatives OÖ 2010“ definiert 18 Strategien und 43 Maßnahmen, die das Bundesland in vier Jahren zur „führenden innovativen Region“ in Europa machen sollen. 600 Mio. Euro werden zu diesem Zweck bis zum Ende des Jahrzehnts investiert, Schwerpunkte sind Mechatronik, Informations- und Kommunikationstechnologie (IKT), Life Sciences, Leichtbau und innovative Werkstoffe sowie Logistik.Öffnung zur EU
Wien konzentriert sich neben der wettbewerbsrechtlich kniffligen Co- und Anbahnungsfinanzierung für EU-Projekte auf die Vienna Spots of Excellence (VSOE). Als Ergänzung zu den Kompetenzzentren sollen mehrjährige Partnerschaften zwischen Unternehmen und wissenschaftlichen Einrichtungen entstehen. Für die Firmen gilt es dabei, ihr Interesse durch einen Anteil an Barleistungen an die Gemeinschaft zu belegen, die Prozentsätze orientieren sich an der Unternehmensgröße : KMU zahlen 25 Prozent, für größere Betriebe muss die Quote 50 Prozent übersteigen. Die VSOE-Themen liegen nä- her an der wirtschaftlichen Verwertbarkeit, als dies bei den Kompetenzzentren der Fall ist, überdies werden weniger breit aufgestellte Konsortien verlangt. Die Forschungsergebnisse sind schließlich den Partnern gemeinsam zu überlassen. So kann es schon vorkommen, dass aus einer Erkenntnis ein Großunternehmen und drei KMU ihren Nutzen ziehen. Ebenfalls denkbar ist für die Bundeshauptstadt eine non-monetäre Unterstützung : So könnte der Zugang zu politischen Kontakten das eine oder andere Projekt nach sich ziehen.Ausgewählter Artikel aus Printausgabe 04/2006
Emanzipation mit Hindernissen

Der Erfolg der Kompetenzzentren in Österreich treibt die Forschungspolitik in den Bundesländern an. Während der Bund das neue Programm nahezu alleine realisiert, setzen die Länder ihren eigenen Kopf durch. Über die frisch gewonnene Eigenständigkeit, komplexe Evaluierungen und den Ehrgeiz, Vorzeigeregion zu werden.
Dass sich die Verhandlungen für die neue Kompetenzzentrumsförderung so kompliziert gestalten, ist für Eva Czernohorszky, Leiterin des Bereichs Kompetenzzentren im Zentrum für Innovation und Technologie (ZIT), Ausdruck einer sehr positiven Entwicklung : Die Länder emanzipieren sich in ihrer Forschungspolitik von den einst starren Vorgaben des Bundes. Dieser will unterdessen K‑neu – so der vorläufige Name für die Zukunftsstrategie der Kompetenzzentren – in Eigenregie über die Bühne bringen. Vorgegeben soll nur noch ein Rahmen werden, innerhalb dessen die Länder Akzente setzen, Lücken schließen und für die Region Relevantes vorantreiben. Drei Stufen der Zusammenarbeit könnten dabei zur Auswahl stehen : Einerseits eine ähnlich enge Kooperation wie bisher, andererseits eine lose Verbindung inklusive eigener Evaluierung oder die völlige Entkoppelung der Förderungsleistungen mit der Konzentration auf eigene Stoßrichtungen. Ob schließlich Wissenschaftlicher Rat und Finanzministerium in den positiven Grund tenor über die Emanzipation der Länder einstimmen, bleibt indes noch dahingestellt. Anno 1998 war noch alles ganz anders : Aus der Planung für die Strukturförderung K‑plus wurden die Länder herausgehalten, den finanziellen Beitrag hatten sie dennoch zu leisten. Der politische Druck, mitzumachen, war groß, ein Nein keine Option. Auch konnte man dem Bund nur wenig Expertise entgegensetzen, die Forschungsförderung steckte noch in den Kinderschuhen, abgesehen von der finanziellen Unterstützung von Einzelprojekten wurde kaum etwas unternommen.
Getrennte Wege
Doch K‑plus und seine Abwandlungen K‑ind und K‑net wurden zum Erfolg, die Länder versuchten sich an einer Forschungspolitik. Heute wird von eigens dazu abgestellten Agenturen ein zum Teil ausgeklügeltes Förderungsportfolio verwaltet. „K‑plus hat eine Vervielfachung der Mittel bewirkt“, resümiert Harald Gohm, Geschäfsführer der Tiroler Zukunftsstiftung. Dass Bund und Länder bei den Kompetenzzentren hinkünftig getrennte Wege gehen, ist vor allem auf den Widerstand Wiens zurückzuführen. „Es gab immer größere Probleme, die Trennung war die einzige logische Konsequenz“, so Czernohorszky. Die bisher bereits schwierige budgetäre Kalkulierbarkeit würde mit den sogenannten K2-Zentren – Forschungseinrichtungen mit bis zu 200 Mitarbeitern und einem Förderbudget von bis zu zehn Mio. Euro – einen Grenzwert erreichen. Budgets in dieser Größenordnung könne man nicht einfach so reservieren, heißt es beim ZIT. Gleichzeitig gestalteten sich trotz zum Teil überregionaler Strategien die finanziellen Verhandlungen zunehmend als „kleinlich und mühsam“. Auf der anderen Seite mussten sich die Länder trotz finanzieller Beteiligung bei den Evaluierungen auf das Urteilsvermögen des Bundes verlassen. Ein doppeltes Reviewing schien von Seiten der Forschungsinstitute mehr zeitraubend als zielführend : „Es ist kaum sinnvoll, wenn jeder seine eigene Evaluierung macht“, erklärt Markus Kommenda, Geschäftsführer des K‑plus-Zentrums Forschungszentrum Telekommunikation Wien (FTW). Eine weitere treibende Kraft bei den „Unabhängigkeitsbestrebungen“ war Oberösterreich. Auch wenn Gerlinde Pöchhacker, Geschäftsführerin der Oberösterreichischen Technologie- und Marketinggesellschaft (TMG), die künftige Zusammenarbeit mit dem Bund unverändert als eine „ganz enge“ beschreibt. Das bis dato einzige Land, das auch weiterhin sein Geld ohne Mascherl in den Fördertopf leert, ist die Steiermark. „Die Steirer wollen die Aufteilungen in Bundesund Landesinteressen nicht“, weiß Rupert Pichler, Leiter der Abteilung für Forschungs- und Technologieförderung im Bundesministerium für Verkehr, Innovation und Technologie. Da sich der Anwendungsforschung in der Steiermark ohnehin bereits die Joanneum Research annimmt, sei man wohl mit der Grundlagenausrichtung der Kompetenzzentren zufrieden, keine große Veränderung täte Not, vermutet Pichler. Gleichzeitig sei jedoch unklar, warum das Bundesland bei finanziellen Leistungen für inzwischen elf Kompetenzzentren auf eine größere Bewegungsfreiheit verzichten will. Um weitere Komplexität zu verhindern, sind die Standortgemeinden nicht zu den Verhandlungen eingeladen. Graz etwa, das sich an der Förderung der ersten Kompetenzzentren beteiligt, kommt dies wohl nicht ungelegen : Die Finanzprobleme der steirischen Landeshauptstadt würden sich durch weitere Projekte nur noch verschärfen.Führungsanspruch in der EU
Ehrgeizige Pläne werden unterdessen in Oberösterreich geschmiedet : Die Initiative „Innovatives OÖ 2010“ definiert 18 Strategien und 43 Maßnahmen, die das Bundesland in vier Jahren zur „führenden innovativen Region“ in Europa machen sollen. 600 Mio. Euro werden zu diesem Zweck bis zum Ende des Jahrzehnts investiert, Schwerpunkte sind Mechatronik, Informations- und Kommunikationstechnologie (IKT), Life Sciences, Leichtbau und innovative Werkstoffe sowie Logistik.Öffnung zur EU
Wien konzentriert sich neben der wettbewerbsrechtlich kniffligen Co- und Anbahnungsfinanzierung für EU-Projekte auf die Vienna Spots of Excellence (VSOE). Als Ergänzung zu den Kompetenzzentren sollen mehrjährige Partnerschaften zwischen Unternehmen und wissenschaftlichen Einrichtungen entstehen. Für die Firmen gilt es dabei, ihr Interesse durch einen Anteil an Barleistungen an die Gemeinschaft zu belegen, die Prozentsätze orientieren sich an der Unternehmensgröße : KMU zahlen 25 Prozent, für größere Betriebe muss die Quote 50 Prozent übersteigen. Die VSOE-Themen liegen nä- her an der wirtschaftlichen Verwertbarkeit, als dies bei den Kompetenzzentren der Fall ist, überdies werden weniger breit aufgestellte Konsortien verlangt. Die Forschungsergebnisse sind schließlich den Partnern gemeinsam zu überlassen. So kann es schon vorkommen, dass aus einer Erkenntnis ein Großunternehmen und drei KMU ihren Nutzen ziehen. Ebenfalls denkbar ist für die Bundeshauptstadt eine non-monetäre Unterstützung : So könnte der Zugang zu politischen Kontakten das eine oder andere Projekt nach sich ziehen.Ausgewählter Artikel aus Printausgabe 04/2006
Exzellenz mit Ablaufdatum

Die neue Förderung für Kompetenzzentren stellt ehrgeizige Möglichkeiten in Aussicht – aber auch die Trennung der Spreu vom Weizen : Warum Forschung ohne Beweglichkeit nicht funktioniert.
„Etwas ganz Großes“ plant das Industrielle Kompetenzzentrum für Mechatronik und Automation (IKMA). Gemeinsam mit der Uni Linz und dem Linz Center of Mechatronics (LCM) soll ein Exzellenzzentrum zur Entwicklung mechanisch-elekronischer Systeme entstehen, das „nicht nur strategische Forschung, sondern auch die vollständige industrielle Umsetzung vereint“, erklärt IKMA-Geschäftsführer Wilhelm Hofmann. Zeit will man dabei keine verlieren, ein detailliertes Dokument sei bereits am Weg in Richtung Bund und Land und das, obwohl das Konzept der neuen Zentren beim Fördergeber noch seiner Endfassung harrt.
Eine Exzellenzstrategie
Das österreichische Kompetenzzentrenprogramm K‑Plus mit der industrienahen Version Kind und den virtuellen K‑NetZentren hat sich zur internationalen Best Practice gemausert. K‑Plus sollte zeitlich begrenzt eine Brücke zwischen universitärer Forschung und Wirtschaft bauen und so die Innovationskraft in den heimischen Märkten vorantreiben. 1998 startete die Carinthian Tech Research (CTR) als erstes K‑Plus-Unternehmen mit Forschung im Bereich Sensorik. 39 weitere Zentren mit 450 Wirtschaftspartnern folgten. Inzwischen arbeiten 1.500 Wissenschaftler in den Forschungseinrichtungen. Doch der Erfolg der Zentren verlangte nach einer Nachfolgeregelung, nicht zuletzt, weil sich der Plan, die Zentren am Ende ihrer Förderlaufzeit in die wirtschaftliche Eigenständigkeit zu entlassen, als unrealistisch erwies. Vor knapp zwei Monaten veröffentlichte die Forschungsförderungsgesellschaft FFG den mit Spannung erwarteten ersten Programmentwurf für K‑Neu. Konkrete Zeitpläne für das weitere Vorgehen stehen zwar noch aus, der Start der zweiphasigen Ausschreibungen ist aber noch für das Jahr 2006 geplant. K‑Neu sieht drei Varianten vor : K‑Projekte, mit einer Laufzeit von drei bis fünf Jahren und einem maximalen jährlichen Fördervolumen von einer Million Euro und K1-Zentren, die den aktuellen K‑Plus- und KindKonzepten ähneln. Kräftigster Beitrag zur Exzellenzstrategie sind schließlich die K2-Zentren : internationale Sichtbarkeit mit dem Anspruch die Weltspitze der Forschung zu erreichen. Vier bis sechs solcher Zentren mit 200 Mitarbeitern und einem Förderwert von bis zu zehn Mio. Euro sind geplant. Eines der K2-Vorhaben soll rund um das Forschungszentrum Telekommunikation Wien (FTW) entstehen. Neben Informations- und Kommunikationstechnologie (IKT) will man auch verstärkt Multimedia und Content abdecken. Denkbar ist etwa eine Kooperation mit dem Zentrum für Virtual Reality und Visualisierung (VRVIS). Dies sei „thematisch und auch von der Unternehmensstruktur her relativ einfach vorstellbar“, verrät FTW-Geschäfsführer Markus Kommenda. Aufgenommen wird der KNeu-Entwurf von den mit der Sicherung ihrer Zwischenfi nanzierungen beschäftigen Zentren durchwegs positiv. Die verbesserte Planbarkeit gefällt, auch im unerfreulichsten der Fälle : „K‑Neu definiert nicht nur Geburt, sondern auch Tod eines Zentrums“, spricht VRVIS-Geschäftsführer Georg Stonawski die Regelung des Phasing Out nach einer negativen Evaluierung an. „Beschränkte Mittel bedingen, dass auf Qualität geachtet wird.“Bund finanziert K‑Neu
Deutlichere Positionen erwarten sich manche Zentren noch zur Klärung der Bundesund Landesinteressen, auch würde aus den Entwürfen nicht eindeutig hervorgehen, woher das Geld für den Ausbau der Infrastruktur kommen oder ob es weiterhin virtuelle Kompetenzzentren geben soll. Bedient wird K‑Neu nach aktuellem Stand nur aus Töpfen des Bundes. Anders als bei KPlus verzichtete man auf eine Zwangsverpflichtung der Länder. Vielmehr gilt es, einen Rahmen zu schaffen, in dem die Länder Akzente setzen können. Wien etwa plant Schwerpunkte auf internationaler Ebene, andere Länder fassen die Forschungsförderung für kleine und mittlere Unternehmen (KMU) ins Auge. Auf der Hand liegt überdies, dass Emanzipation in der Forschungspolitik auf der einen und endliche finanzielle Mittel auf der anderen Seite verstärkte Selektion mit sich bringen.
„40 Zentren sind zu viel, nur die Besten werden weiterhin K‑geförderte Zentren sein“, verweist Dorothea Sturn, FFGBereichsleiterin für Strukturprogramme, auf die anstehende Konsolidierung.Keine Türschilder
Dass K‑Förderungen bei Nicht-Erfüllen der Auflagen auch ein Ende haben können, stellte zuletzt die Biomolecular Research (BTM) fest. Laut Bernd Binder, Wissenschaftlicher Direktor von BMT, wurde bei der Zwischenevaluierung vor fünf Jahren die fehlende Identität des Unternehmens bemängelt. „Es gab bloß kein eigenes Gebäude mit einem Türschild, auf dem BMT stand“, kritisiert er die Prüfer. Immerhin sei dies bei einer Translational Research Platform zwischen Universität und Industrie nun einmal nicht anders. Naturgemäß anders sieht der Fall für die FFG aus : Die inhaltliche Integration der Projekte fehlte. „Es war eine Geldverteilungsmaschine für darunter liegende Projekte“, sagt Sturn. „Wofür ein Kompetenzzentrum finanzieren, das mit teurem Overhead Geld auf Einzelprojekte verteilt ? Was fehlte, war nicht das physische Türschild, sondern das inhaltliche.“ Einwände, dass mit der Nähe zur Industrie die Integration und auch Qualität der Projekte sinkt, lässt die FFG nicht gelten. Forschungszentren, die eine attraktive Palette anbieten, schaffen es, die Wirtschaft auch für strategische Projekte zu gewinnen. Gegen „kurzfristige Goodies“, die die Partner „befrieden“, spreche dabei nichts, ebenso wenig wie gegen Einzelinteressen in Form von reiner Auftragsforschung – nur eben nicht mit K‑Förderung.Finanzierungslücken
Für FTW-Chef Kommenda ist das weniger ein Spagat, als „ein Balanceakt, in dem wir laufend unter Ausnützung dynamischer Effekte ein labiles Gleichgewicht suchen“ – Forschung im Mobility-Zeitalter eben. Akutes Problem einiger Zentren ist unterdessen die noch nicht geklärte Zwischenfi nanzierung bis zum K‑Neu-Antrag : „Wir haben als erstes Zentrum mit Ende 2006 eine Lücke vor uns“, bringt VRVIS-Chef Stonawski seine aktuellen Sorgen auf den Punkt. Er zeigt sich gleichzeitig zuversichtlich, dass rechtzeitig „ein Netz geknüpft wird“. Ähnliches ist vom per Jahresende auslaufenden K‑Net-Zentrum Renet und dem Software Competence Center Hagenberg (SCCH) zu vernehmen : Mündliche Zusagen sind erteilt, die schriftliche Fixierung steht noch aus. Ganz ohne K‑Förderung brachte indes CTR die Monate Juli bis Dezember 2005 hinter sich : „Wir rechneten bei der Halbzeitevaluierung mit einer Überbrückungsfi nanzierung, haben jedoch für den Worst Case vorgesorgt“, erklärt CTR-Sprecherin Alexandra Bretschneider. Seit dem 1. Jänner 2006 können die Kärntner aufatmen, da inzwischen die bis Mitte 2007 bewilligte Zwischenfi nanzierung greift. Danach könnte, so glaubt Bretschneider, ein Antrag auf ein K1-Zentrum folgen : „Das passt wahrscheinlich am besten zu uns.“Ausgewählter Artikel aus Printausgabe 04/2006
Exzellenz mit Ablaufdatum

Die neue Förderung für Kompetenzzentren stellt ehrgeizige Möglichkeiten in Aussicht – aber auch die Trennung der Spreu vom Weizen : Warum Forschung ohne Beweglichkeit nicht funktioniert.
„Etwas ganz Großes“ plant das Industrielle Kompetenzzentrum für Mechatronik und Automation (IKMA). Gemeinsam mit der Uni Linz und dem Linz Center of Mechatronics (LCM) soll ein Exzellenzzentrum zur Entwicklung mechanisch-elekronischer Systeme entstehen, das „nicht nur strategische Forschung, sondern auch die vollständige industrielle Umsetzung vereint“, erklärt IKMA-Geschäftsführer Wilhelm Hofmann. Zeit will man dabei keine verlieren, ein detailliertes Dokument sei bereits am Weg in Richtung Bund und Land und das, obwohl das Konzept der neuen Zentren beim Fördergeber noch seiner Endfassung harrt.
Eine Exzellenzstrategie
Das österreichische Kompetenzzentrenprogramm K‑Plus mit der industrienahen Version Kind und den virtuellen K‑NetZentren hat sich zur internationalen Best Practice gemausert. K‑Plus sollte zeitlich begrenzt eine Brücke zwischen universitärer Forschung und Wirtschaft bauen und so die Innovationskraft in den heimischen Märkten vorantreiben. 1998 startete die Carinthian Tech Research (CTR) als erstes K‑Plus-Unternehmen mit Forschung im Bereich Sensorik. 39 weitere Zentren mit 450 Wirtschaftspartnern folgten. Inzwischen arbeiten 1.500 Wissenschaftler in den Forschungseinrichtungen. Doch der Erfolg der Zentren verlangte nach einer Nachfolgeregelung, nicht zuletzt, weil sich der Plan, die Zentren am Ende ihrer Förderlaufzeit in die wirtschaftliche Eigenständigkeit zu entlassen, als unrealistisch erwies. Vor knapp zwei Monaten veröffentlichte die Forschungsförderungsgesellschaft FFG den mit Spannung erwarteten ersten Programmentwurf für K‑Neu. Konkrete Zeitpläne für das weitere Vorgehen stehen zwar noch aus, der Start der zweiphasigen Ausschreibungen ist aber noch für das Jahr 2006 geplant. K‑Neu sieht drei Varianten vor : K‑Projekte, mit einer Laufzeit von drei bis fünf Jahren und einem maximalen jährlichen Fördervolumen von einer Million Euro und K1-Zentren, die den aktuellen K‑Plus- und KindKonzepten ähneln. Kräftigster Beitrag zur Exzellenzstrategie sind schließlich die K2-Zentren : internationale Sichtbarkeit mit dem Anspruch die Weltspitze der Forschung zu erreichen. Vier bis sechs solcher Zentren mit 200 Mitarbeitern und einem Förderwert von bis zu zehn Mio. Euro sind geplant. Eines der K2-Vorhaben soll rund um das Forschungszentrum Telekommunikation Wien (FTW) entstehen. Neben Informations- und Kommunikationstechnologie (IKT) will man auch verstärkt Multimedia und Content abdecken. Denkbar ist etwa eine Kooperation mit dem Zentrum für Virtual Reality und Visualisierung (VRVIS). Dies sei „thematisch und auch von der Unternehmensstruktur her relativ einfach vorstellbar“, verrät FTW-Geschäfsführer Markus Kommenda. Aufgenommen wird der KNeu-Entwurf von den mit der Sicherung ihrer Zwischenfi nanzierungen beschäftigen Zentren durchwegs positiv. Die verbesserte Planbarkeit gefällt, auch im unerfreulichsten der Fälle : „K‑Neu definiert nicht nur Geburt, sondern auch Tod eines Zentrums“, spricht VRVIS-Geschäftsführer Georg Stonawski die Regelung des Phasing Out nach einer negativen Evaluierung an. „Beschränkte Mittel bedingen, dass auf Qualität geachtet wird.“Bund finanziert K‑Neu
Deutlichere Positionen erwarten sich manche Zentren noch zur Klärung der Bundesund Landesinteressen, auch würde aus den Entwürfen nicht eindeutig hervorgehen, woher das Geld für den Ausbau der Infrastruktur kommen oder ob es weiterhin virtuelle Kompetenzzentren geben soll. Bedient wird K‑Neu nach aktuellem Stand nur aus Töpfen des Bundes. Anders als bei KPlus verzichtete man auf eine Zwangsverpflichtung der Länder. Vielmehr gilt es, einen Rahmen zu schaffen, in dem die Länder Akzente setzen können. Wien etwa plant Schwerpunkte auf internationaler Ebene, andere Länder fassen die Forschungsförderung für kleine und mittlere Unternehmen (KMU) ins Auge. Auf der Hand liegt überdies, dass Emanzipation in der Forschungspolitik auf der einen und endliche finanzielle Mittel auf der anderen Seite verstärkte Selektion mit sich bringen.
„40 Zentren sind zu viel, nur die Besten werden weiterhin K‑geförderte Zentren sein“, verweist Dorothea Sturn, FFGBereichsleiterin für Strukturprogramme, auf die anstehende Konsolidierung.Keine Türschilder
Dass K‑Förderungen bei Nicht-Erfüllen der Auflagen auch ein Ende haben können, stellte zuletzt die Biomolecular Research (BTM) fest. Laut Bernd Binder, Wissenschaftlicher Direktor von BMT, wurde bei der Zwischenevaluierung vor fünf Jahren die fehlende Identität des Unternehmens bemängelt. „Es gab bloß kein eigenes Gebäude mit einem Türschild, auf dem BMT stand“, kritisiert er die Prüfer. Immerhin sei dies bei einer Translational Research Platform zwischen Universität und Industrie nun einmal nicht anders. Naturgemäß anders sieht der Fall für die FFG aus : Die inhaltliche Integration der Projekte fehlte. „Es war eine Geldverteilungsmaschine für darunter liegende Projekte“, sagt Sturn. „Wofür ein Kompetenzzentrum finanzieren, das mit teurem Overhead Geld auf Einzelprojekte verteilt ? Was fehlte, war nicht das physische Türschild, sondern das inhaltliche.“ Einwände, dass mit der Nähe zur Industrie die Integration und auch Qualität der Projekte sinkt, lässt die FFG nicht gelten. Forschungszentren, die eine attraktive Palette anbieten, schaffen es, die Wirtschaft auch für strategische Projekte zu gewinnen. Gegen „kurzfristige Goodies“, die die Partner „befrieden“, spreche dabei nichts, ebenso wenig wie gegen Einzelinteressen in Form von reiner Auftragsforschung – nur eben nicht mit K‑Förderung.Finanzierungslücken
Für FTW-Chef Kommenda ist das weniger ein Spagat, als „ein Balanceakt, in dem wir laufend unter Ausnützung dynamischer Effekte ein labiles Gleichgewicht suchen“ – Forschung im Mobility-Zeitalter eben. Akutes Problem einiger Zentren ist unterdessen die noch nicht geklärte Zwischenfi nanzierung bis zum K‑Neu-Antrag : „Wir haben als erstes Zentrum mit Ende 2006 eine Lücke vor uns“, bringt VRVIS-Chef Stonawski seine aktuellen Sorgen auf den Punkt. Er zeigt sich gleichzeitig zuversichtlich, dass rechtzeitig „ein Netz geknüpft wird“. Ähnliches ist vom per Jahresende auslaufenden K‑Net-Zentrum Renet und dem Software Competence Center Hagenberg (SCCH) zu vernehmen : Mündliche Zusagen sind erteilt, die schriftliche Fixierung steht noch aus. Ganz ohne K‑Förderung brachte indes CTR die Monate Juli bis Dezember 2005 hinter sich : „Wir rechneten bei der Halbzeitevaluierung mit einer Überbrückungsfi nanzierung, haben jedoch für den Worst Case vorgesorgt“, erklärt CTR-Sprecherin Alexandra Bretschneider. Seit dem 1. Jänner 2006 können die Kärntner aufatmen, da inzwischen die bis Mitte 2007 bewilligte Zwischenfi nanzierung greift. Danach könnte, so glaubt Bretschneider, ein Antrag auf ein K1-Zentrum folgen : „Das passt wahrscheinlich am besten zu uns.“Ausgewählter Artikel aus Printausgabe 04/2006
Eine Nebenstelle reicht

Nebenstellenanlagen-Anbieter gehen in die technologische Offensive. Sie integrieren die Handy-Welt in die klassische Telefonie. So können Unternehmen nicht nur teure RoamingKosten umgehen, sondern auch ihre Unternehmensapplikationen integrieren.
Der Handy-Boom der letzten Jahre hat die gute alte Telefonanlage ziemlich in Bedrängnis gebracht. Durchwahlen kennt heute keiner mehr. Und wer will schon mit Warteschleifenmusik gequält werden, bevor einem die Vorzimmerkraft höflich erklärt, dass das gewünschte Gegenüber gerade außer Haus ist. Da ruft man doch lieber gleich direkt auf dem Handy an. Diesem Missstand wollen nun die Anbieter von Unternehmenstelefonielösungen entgegenwirken. Die Lösung liegt schon lange auf der Hand : Man integriert die Nebenstellenanlage einfach in Mobiltelefone.
Eine Nummer für alles
Die Basis für die Integration bietet als erster Hersteller Nokia mit den Mobiltelefonen der E‑Serie. Auf diesen Endgeräten ist es möglich, kleine Anwendungen zu installieren, welche die volle Funktionalität eines Nebenstellenapparates beinhalten.
Weiters können die Geräte der E‑Serie nicht nur über den Mobilfunkstandard GSM, sondern auch über drahtlose Netzwerke (WLAN, Wireless Local Area Network) funken. So können Unternehmen ihr bestehendes Netzwerk nutzen und über das Funknetz telefonieren. Auf diese Weise sind Mitarbeiter über eine Nummer jederzeit mobil erreichbar. Sobald sie das Unternehmensgelände betreten, erkennt das Handy automatisch den zu benutzenden Funkstandard. Gespräche können, wie von Least Cost-Routern bekannt, über die kostengünstigste Leitung geführt werden. Internationale Unternehmen dürften von solchen Systemen am meisten profitieren. Denn teure Roaming-Gespräche können über wesentlich billigere Internet-Leitungen geführt werden. Doch wird die Technik sicher ebenfalls für kleine und mittlere Betriebe sinnvoll nutzbar sein. Auch wenn hier nur geringere Kosteneinsparungen möglich sind.Einfache Integration
Auf der Seite der Telefonanlagen hat Alcatel kürzlich auf der Kundenveranstaltung Enterprise Forum 2006 in Paris die mögliche Integration der NokiaEndgeräte in die Alcatel Omni PCX-Plattform präsentiert. „Wir portieren derzeit unsere Software auf unterschiedlichste Nicht-Alcatel-Hardware. Besonders mit Nokia arbeiten wir gerade sehr intensiv zusammen. Mit Nokia-Telefonen können wir nun Wi-Fi‑, GSM- und IP-PBXFunktionen nutzen. Wir setzen bei der Portierung unserer Software auf das Symbian- und Windows-Betriebssystem“, so der Chef-Marketier Alan Mottram gegenüber economy. Soll hei- ßen, dass Alcatel in Kürze die volle Telefonanlagenfunktionalität auch auf Mobiltelefonen anderer Hersteller zur Verfü- gung stellen wird. Auch Avaya hat im Herbst letzten Jahres bereits eine vergleichbare Lösung präsentiert. Dieser Anbieter setzt derzeit ebenfalls auf die Mobiltelefone von Nokia als Endgerät. Mit der angebotenen Applikation können Mitarbeiter Anrufe entweder an ihrem Arbeitsplatz oder am Mobiltelefon entgegennehmen und je nach Bedarf zwischen den Telefonen wechseln. Features des Festnetzapparates, wie etwa Kurzbefehle für Durchwahlen, Konferenzschaltungen, Call Transfer, Weiterleiten von Voice Mail-Nachrichten, Gruppenschaltungen und Weiterleiten von Anrufen können so auf dem Handy realisiert werden. Mobile Mitarbeiter können das Profi l ihres Mobiltelefons zusätzlich so ändern, dass nur private Anrufe eingehen.Applikationen für morgen
Doch nicht nur die Integration von Mobiltelefonen in die klassische Telefonanlage, sondern vor allem die Integration von Geschäftsanwendungen ist ein Thema, das von den Herstellern vorangetrieben wird. Kennt man bisher Funktionen wie Wählen aus Microsoft Outlook oder diversen Systemen für Kundenbeziehungsmanagement (CRM), so werden diese weiter ausgeweitet werden. Hier sind viele weitere Szenarien denkbar, die in Zusammenarbeit mit den Software-Herstellern realisiert werden.Ausgewählter Artikel aus Printausgabe 04/2006
Eine Nebenstelle reicht

Nebenstellenanlagen-Anbieter gehen in die technologische Offensive. Sie integrieren die Handy-Welt in die klassische Telefonie. So können Unternehmen nicht nur teure RoamingKosten umgehen, sondern auch ihre Unternehmensapplikationen integrieren.
Der Handy-Boom der letzten Jahre hat die gute alte Telefonanlage ziemlich in Bedrängnis gebracht. Durchwahlen kennt heute keiner mehr. Und wer will schon mit Warteschleifenmusik gequält werden, bevor einem die Vorzimmerkraft höflich erklärt, dass das gewünschte Gegenüber gerade außer Haus ist. Da ruft man doch lieber gleich direkt auf dem Handy an. Diesem Missstand wollen nun die Anbieter von Unternehmenstelefonielösungen entgegenwirken. Die Lösung liegt schon lange auf der Hand : Man integriert die Nebenstellenanlage einfach in Mobiltelefone.
Eine Nummer für alles
Die Basis für die Integration bietet als erster Hersteller Nokia mit den Mobiltelefonen der E‑Serie. Auf diesen Endgeräten ist es möglich, kleine Anwendungen zu installieren, welche die volle Funktionalität eines Nebenstellenapparates beinhalten.
Weiters können die Geräte der E‑Serie nicht nur über den Mobilfunkstandard GSM, sondern auch über drahtlose Netzwerke (WLAN, Wireless Local Area Network) funken. So können Unternehmen ihr bestehendes Netzwerk nutzen und über das Funknetz telefonieren. Auf diese Weise sind Mitarbeiter über eine Nummer jederzeit mobil erreichbar. Sobald sie das Unternehmensgelände betreten, erkennt das Handy automatisch den zu benutzenden Funkstandard. Gespräche können, wie von Least Cost-Routern bekannt, über die kostengünstigste Leitung geführt werden. Internationale Unternehmen dürften von solchen Systemen am meisten profitieren. Denn teure Roaming-Gespräche können über wesentlich billigere Internet-Leitungen geführt werden. Doch wird die Technik sicher ebenfalls für kleine und mittlere Betriebe sinnvoll nutzbar sein. Auch wenn hier nur geringere Kosteneinsparungen möglich sind.Einfache Integration
Auf der Seite der Telefonanlagen hat Alcatel kürzlich auf der Kundenveranstaltung Enterprise Forum 2006 in Paris die mögliche Integration der NokiaEndgeräte in die Alcatel Omni PCX-Plattform präsentiert. „Wir portieren derzeit unsere Software auf unterschiedlichste Nicht-Alcatel-Hardware. Besonders mit Nokia arbeiten wir gerade sehr intensiv zusammen. Mit Nokia-Telefonen können wir nun Wi-Fi‑, GSM- und IP-PBXFunktionen nutzen. Wir setzen bei der Portierung unserer Software auf das Symbian- und Windows-Betriebssystem“, so der Chef-Marketier Alan Mottram gegenüber economy. Soll hei- ßen, dass Alcatel in Kürze die volle Telefonanlagenfunktionalität auch auf Mobiltelefonen anderer Hersteller zur Verfü- gung stellen wird. Auch Avaya hat im Herbst letzten Jahres bereits eine vergleichbare Lösung präsentiert. Dieser Anbieter setzt derzeit ebenfalls auf die Mobiltelefone von Nokia als Endgerät. Mit der angebotenen Applikation können Mitarbeiter Anrufe entweder an ihrem Arbeitsplatz oder am Mobiltelefon entgegennehmen und je nach Bedarf zwischen den Telefonen wechseln. Features des Festnetzapparates, wie etwa Kurzbefehle für Durchwahlen, Konferenzschaltungen, Call Transfer, Weiterleiten von Voice Mail-Nachrichten, Gruppenschaltungen und Weiterleiten von Anrufen können so auf dem Handy realisiert werden. Mobile Mitarbeiter können das Profi l ihres Mobiltelefons zusätzlich so ändern, dass nur private Anrufe eingehen.Applikationen für morgen
Doch nicht nur die Integration von Mobiltelefonen in die klassische Telefonanlage, sondern vor allem die Integration von Geschäftsanwendungen ist ein Thema, das von den Herstellern vorangetrieben wird. Kennt man bisher Funktionen wie Wählen aus Microsoft Outlook oder diversen Systemen für Kundenbeziehungsmanagement (CRM), so werden diese weiter ausgeweitet werden. Hier sind viele weitere Szenarien denkbar, die in Zusammenarbeit mit den Software-Herstellern realisiert werden.Ausgewählter Artikel aus Printausgabe 04/2006
Das Kreuz mit der Mobilität

Mit der Verbreitung von tragbaren Rechnern nehmen auch Haltungsschäden zu.
Notebooks, oft auch Laptops genannt, sind aus dem Arbeitsleben nicht mehr wegzudenken. Blieben diese Geräte früher nur dem obersten Management und Trendsettern vorbehalten, verkaufen sich Notebook & Co. heute bereits besser als entsprechende PC. Zu günstig sind mittlerweile die Anschaffungskosten für die tragbaren Rechner. Doch außer dem Gerät selbst werden meistens keine passenden Zusatzgeräte oder Möbel gekauft, die den ergonomischen Richtlinien entsprechen. Und damit stellen sich auch neue körperliche Beschwerden ein, die jeden Mitarbeiter belasten. Durch Notebooks verursachte Haltungsschäden waren vor Jahren noch unbekannt. Das hat sich nach Ansicht von Alan Hedge, Direktor des Labors für Ergonomie an der CornellUniversität in Ithaca im USBundesstaat New York, grundlegend geändert. Gegenüber US-Medien kritisierte Hedge, dass Notebooks immer mehr als Ersatz für den PC herangezogen werden. Sie sind seinem Urteil nach jedoch lediglich für den gelegentlichen Gebrauch geeignet und nicht für den regelmäßigen Arbeitseinsatz.
Mehr Krankenstände
Immer mehr Mitarbeiter und Angestellte arbeiten andauernd auf ihren mobilen Arbeitsplätzen : im Flugzeugsessel, im Büro oder gemütlich auf der Wohnzimmercouch. Kurz einmal E‑Mails checken oder im Internet die letzten Umsatzzahlen nachschlagen. Die neu gewonnene Mobilität bringt den Arbeitgebern auf der einen Seite mehr (versteckte) Arbeitszeit, auf der anderen Seite könnte der Schuss nach hinten losgehen und zum gewaltigen Hexenschuss mutieren. Denn die Anzahl der Krankenstände, die aufgrund der Haltungsschäden genommen werden, steigt ebenfalls und schadet somit nicht nur den Mitarbeitern, sondern auch den Unternehmen. Dies belegen US-Statistiken in Zusammenhang mit computerbezogenen Problemen. Für den NotebookGebrauch gibt es allerdings keine eigenen Zahlen. In die Statistiken werden auch aus einer schlechten Sitzposi tion am Arbeitsplatz resultierende Krankheiten mit eingerechnet. Aus Sicht der Ärzte ist das Hauptproblem für die Gesundheit der Anwender die zu geringe Entfernung von Monitor und Tastatur auf einem Notebook. Dadurch können sich die User nur gekrümmt vor dem Notebook positionieren, sie müssten den Monitor auf Augenhöhe stellen. Das wiederum führt zu Verspannungen in der Arm- und Schultermuskulatur. Ebenfalls überbeansprucht würden die Handgelenke, die auf einer viel zu kleinen Tastatur sehr verdreht werden müssen, lautet das Urteil die Experten. Nach langem Arbeiten mit Touch Pad und Track Point-Stift statt der Computermaus machen sich auch die Sehnen unangenehm bemerkbar. Abhilfe können zum Beispiel spezielle Möbel, eine externe Tastatur und Maus sowie ein zusätzlicher Monitor schaffen. Doch diese Gesundheitsinvestitionen werden oft vernachlässigt und von den Mitarbeitern erst verlangt, wenn es schon zu spät ist. Und das obwohl der Arbeitgeber gesetzlich verpfl ichtet ist, für eine ergonomische Arbeitsplatzausstattung zu sorgen.Drohende Impotenz
Auf ein weiteres Problem, das allerdings nur männliche Anwender betrifft, weisen Ärzte deutlicher hin. Durch das lange Arbeiten mit Notebooks auf den Oberschenkeln kann es zu Überhitzung der ansonst kühlend wirkenden Hoden kommen. Impotenz ist eine mögliche Folge. Deshalb sollte Mann dringend für eine zusätzliche Isolationsschicht zwischen sich und dem Schoß-PC sorgen. Am besten eignet sich dafür die Notebooktasche oder ‑hülle, die man meistens sowieso dabei hat. Aber selbst ein dickeres Magazin oder eine Zeitung leistet hier Abhilfe. Doch für die richtige Ausrüstung empfehlen sich professionelle Ausstatter. 3M bietet mit dem Tischständer LX 500 ein System, das ein Notebook zum vollständigen Arbeitsplatzrechner macht. Aber auch einfache „Untersetzer“, wie I‑Lap von Rain Design (siehe Bild), Ergo M‑Pro von Targus oder Easyrider von Kensington bieten zumindest etwas Erleichterung für das geknechtete Genick. Der Preis für mehr Gesundheit beginnt bei rund 50 Euro.Ausgewählter Artikel aus Printausgabe 04/2006
Das Kreuz mit der Mobilität

Mit der Verbreitung von tragbaren Rechnern nehmen auch Haltungsschäden zu.
Notebooks, oft auch Laptops genannt, sind aus dem Arbeitsleben nicht mehr wegzudenken. Blieben diese Geräte früher nur dem obersten Management und Trendsettern vorbehalten, verkaufen sich Notebook & Co. heute bereits besser als entsprechende PC. Zu günstig sind mittlerweile die Anschaffungskosten für die tragbaren Rechner. Doch außer dem Gerät selbst werden meistens keine passenden Zusatzgeräte oder Möbel gekauft, die den ergonomischen Richtlinien entsprechen. Und damit stellen sich auch neue körperliche Beschwerden ein, die jeden Mitarbeiter belasten. Durch Notebooks verursachte Haltungsschäden waren vor Jahren noch unbekannt. Das hat sich nach Ansicht von Alan Hedge, Direktor des Labors für Ergonomie an der CornellUniversität in Ithaca im USBundesstaat New York, grundlegend geändert. Gegenüber US-Medien kritisierte Hedge, dass Notebooks immer mehr als Ersatz für den PC herangezogen werden. Sie sind seinem Urteil nach jedoch lediglich für den gelegentlichen Gebrauch geeignet und nicht für den regelmäßigen Arbeitseinsatz.
Mehr Krankenstände
Immer mehr Mitarbeiter und Angestellte arbeiten andauernd auf ihren mobilen Arbeitsplätzen : im Flugzeugsessel, im Büro oder gemütlich auf der Wohnzimmercouch. Kurz einmal E‑Mails checken oder im Internet die letzten Umsatzzahlen nachschlagen. Die neu gewonnene Mobilität bringt den Arbeitgebern auf der einen Seite mehr (versteckte) Arbeitszeit, auf der anderen Seite könnte der Schuss nach hinten losgehen und zum gewaltigen Hexenschuss mutieren. Denn die Anzahl der Krankenstände, die aufgrund der Haltungsschäden genommen werden, steigt ebenfalls und schadet somit nicht nur den Mitarbeitern, sondern auch den Unternehmen. Dies belegen US-Statistiken in Zusammenhang mit computerbezogenen Problemen. Für den NotebookGebrauch gibt es allerdings keine eigenen Zahlen. In die Statistiken werden auch aus einer schlechten Sitzposi tion am Arbeitsplatz resultierende Krankheiten mit eingerechnet. Aus Sicht der Ärzte ist das Hauptproblem für die Gesundheit der Anwender die zu geringe Entfernung von Monitor und Tastatur auf einem Notebook. Dadurch können sich die User nur gekrümmt vor dem Notebook positionieren, sie müssten den Monitor auf Augenhöhe stellen. Das wiederum führt zu Verspannungen in der Arm- und Schultermuskulatur. Ebenfalls überbeansprucht würden die Handgelenke, die auf einer viel zu kleinen Tastatur sehr verdreht werden müssen, lautet das Urteil die Experten. Nach langem Arbeiten mit Touch Pad und Track Point-Stift statt der Computermaus machen sich auch die Sehnen unangenehm bemerkbar. Abhilfe können zum Beispiel spezielle Möbel, eine externe Tastatur und Maus sowie ein zusätzlicher Monitor schaffen. Doch diese Gesundheitsinvestitionen werden oft vernachlässigt und von den Mitarbeitern erst verlangt, wenn es schon zu spät ist. Und das obwohl der Arbeitgeber gesetzlich verpfl ichtet ist, für eine ergonomische Arbeitsplatzausstattung zu sorgen.Drohende Impotenz
Auf ein weiteres Problem, das allerdings nur männliche Anwender betrifft, weisen Ärzte deutlicher hin. Durch das lange Arbeiten mit Notebooks auf den Oberschenkeln kann es zu Überhitzung der ansonst kühlend wirkenden Hoden kommen. Impotenz ist eine mögliche Folge. Deshalb sollte Mann dringend für eine zusätzliche Isolationsschicht zwischen sich und dem Schoß-PC sorgen. Am besten eignet sich dafür die Notebooktasche oder ‑hülle, die man meistens sowieso dabei hat. Aber selbst ein dickeres Magazin oder eine Zeitung leistet hier Abhilfe. Doch für die richtige Ausrüstung empfehlen sich professionelle Ausstatter. 3M bietet mit dem Tischständer LX 500 ein System, das ein Notebook zum vollständigen Arbeitsplatzrechner macht. Aber auch einfache „Untersetzer“, wie I‑Lap von Rain Design (siehe Bild), Ergo M‑Pro von Targus oder Easyrider von Kensington bieten zumindest etwas Erleichterung für das geknechtete Genick. Der Preis für mehr Gesundheit beginnt bei rund 50 Euro.Ausgewählter Artikel aus Printausgabe 04/2006
Handy … bitte voll tanken

Während neue Akkutechnologien noch im Forschungsstadium sind, konzentrieren sich manche Anbieter auf die Brennstoffzelle als Energielieferant. Einige Hersteller zeigen bereits Prototypen.
Wer kennt nicht das Problem, dass mitten in einem wichtigen Gespräch der Handy-Akku seinen Geist aufgibt. Oder schlimmer : Man arbeitet seit Stunden an einer wichtigen Präsentation, und das Notebook fällt in den kurz davor angekündigten Tiefschlaf. Natürlich hat man das Netzteil nicht dabei. Die Lösung dieses Problems sollen kleine Brennstoffzellen bringen, die leichter, zuverlässiger und umweltfreundlicher sind als Batterien und Akkus. Mit einem Wirkungsgrad zwischen 50 und 83 Prozent erlauben sie eine kontinuierliche Brennstoffversorgung, müssen also nicht aufgeladen werden. Je kleiner, desto teurer war die bisherige Devise bei herkömmlichen Batterien. So kostet eine Kilowattstunde elektrischer Energie aus einer Knopfzelle, wie sie in Armbanduhren üblich ist, weit über 5.000 Euro. Entnimmt man die gleiche Energiemenge TaschenlampenBatterien, so kostet sie noch 50 bis 100 Euro. Nickel-Cadmium-Akkus, die 500-mal aufgeladen werden können, liefern die Kilowattstunde Strom immerhin schon zu zwei bis fünf Euro. 16 Eurocent kostet Strom aus der Steckdose. Vor einigen Jahren stellte das Fraunhofer Institut für Solare Energiesysteme (ISE) eine Brennstoffzelle vor. Sie hatte die Größe einer Untertasse und lieferte bis zu 50 Watt. Motorola zeigte vor fünf Jahren ein Modell, das nicht mit gasförmigem Wasserstoff arbeitete, sondern direkt flüssiges Methanol, das in Patronen zugeführt wird, in Strom umwandelt. Die Entwicklung soll in Kürze marktreif sein. An einer Mikrobrennstoffzelle mit einer Dicke von rund 2,5 Millimetern arbeitet ein Team des ISE in Zusammenarbeit mit der Universität Freiburg. Die Zelle ist so flexibel, dass sie in dünne Trägermaterialien eingearbeitet werden kann.
Wasserstoff aus Flüssiggas
Die kleinen Brennstoffzellen für Computer, Handys und andere tragbare Geräte können mit Methanol-Patronen versorgt werden. Da Methanol giftig ist, wird nach Alternativen gesucht, bei denen direkt Wasserstoff als Brennstoff eingespeist wird. Das ISE entwickelt Wasserstoffspeicher für tragbare Anwendungen. Ein Beispiel ist ein autothermer Propanreformer, der aus handelsüblichem Flüssiggas kostengünstig Wasserstoff erzeugt. Dadurch wird, unabhängig von Versorgungsnetzen, die geräusch- und fast schadstofflose Stromerzeugung möglich. Eine Kombination von Brennstoffzelle mit einem leistungsfähigen Nickel-Zink-Akku als Pufferbatterie habe die besten Marktchancen für mobile Anwendungen, so Entwickler von Energy Vision aus dem kanadischen Ottawa. Zu einem Fünftel des Preises einer normalen Brennstoffzelle soll so ein Hybridsystem zu verwirklichen sein. Doch da scheint Panasonic mit seiner Konzernschwester Matsushita Battery Industrial die Nase vorne zu haben. Auf der Consumer Electronics Show (CES) im Jänner in Las Vegas hat Panasonic Notebooks mit einer Brennstoffzelle präsentiert. Sie soll über eine Betriebsdauer von bis zu 20 Stunden verfügen und eine Leistung von 25 Watt haben. Sie wiegt nur 450 Gramm und arbeitet mit Methanol. Weitere Hersteller werden mit ähnlichen Produkten folgen, andere, wie Nokia, haben ihre Entwicklungen auf Eis gelegt.Ausgewählter Artikel aus Printausgabe 03/2006
Handy … bitte voll tanken

Während neue Akkutechnologien noch im Forschungsstadium sind, konzentrieren sich manche Anbieter auf die Brennstoffzelle als Energielieferant. Einige Hersteller zeigen bereits Prototypen.
Wer kennt nicht das Problem, dass mitten in einem wichtigen Gespräch der Handy-Akku seinen Geist aufgibt. Oder schlimmer : Man arbeitet seit Stunden an einer wichtigen Präsentation, und das Notebook fällt in den kurz davor angekündigten Tiefschlaf. Natürlich hat man das Netzteil nicht dabei. Die Lösung dieses Problems sollen kleine Brennstoffzellen bringen, die leichter, zuverlässiger und umweltfreundlicher sind als Batterien und Akkus. Mit einem Wirkungsgrad zwischen 50 und 83 Prozent erlauben sie eine kontinuierliche Brennstoffversorgung, müssen also nicht aufgeladen werden. Je kleiner, desto teurer war die bisherige Devise bei herkömmlichen Batterien. So kostet eine Kilowattstunde elektrischer Energie aus einer Knopfzelle, wie sie in Armbanduhren üblich ist, weit über 5.000 Euro. Entnimmt man die gleiche Energiemenge TaschenlampenBatterien, so kostet sie noch 50 bis 100 Euro. Nickel-Cadmium-Akkus, die 500-mal aufgeladen werden können, liefern die Kilowattstunde Strom immerhin schon zu zwei bis fünf Euro. 16 Eurocent kostet Strom aus der Steckdose. Vor einigen Jahren stellte das Fraunhofer Institut für Solare Energiesysteme (ISE) eine Brennstoffzelle vor. Sie hatte die Größe einer Untertasse und lieferte bis zu 50 Watt. Motorola zeigte vor fünf Jahren ein Modell, das nicht mit gasförmigem Wasserstoff arbeitete, sondern direkt flüssiges Methanol, das in Patronen zugeführt wird, in Strom umwandelt. Die Entwicklung soll in Kürze marktreif sein. An einer Mikrobrennstoffzelle mit einer Dicke von rund 2,5 Millimetern arbeitet ein Team des ISE in Zusammenarbeit mit der Universität Freiburg. Die Zelle ist so flexibel, dass sie in dünne Trägermaterialien eingearbeitet werden kann.
Wasserstoff aus Flüssiggas
Die kleinen Brennstoffzellen für Computer, Handys und andere tragbare Geräte können mit Methanol-Patronen versorgt werden. Da Methanol giftig ist, wird nach Alternativen gesucht, bei denen direkt Wasserstoff als Brennstoff eingespeist wird. Das ISE entwickelt Wasserstoffspeicher für tragbare Anwendungen. Ein Beispiel ist ein autothermer Propanreformer, der aus handelsüblichem Flüssiggas kostengünstig Wasserstoff erzeugt. Dadurch wird, unabhängig von Versorgungsnetzen, die geräusch- und fast schadstofflose Stromerzeugung möglich. Eine Kombination von Brennstoffzelle mit einem leistungsfähigen Nickel-Zink-Akku als Pufferbatterie habe die besten Marktchancen für mobile Anwendungen, so Entwickler von Energy Vision aus dem kanadischen Ottawa. Zu einem Fünftel des Preises einer normalen Brennstoffzelle soll so ein Hybridsystem zu verwirklichen sein. Doch da scheint Panasonic mit seiner Konzernschwester Matsushita Battery Industrial die Nase vorne zu haben. Auf der Consumer Electronics Show (CES) im Jänner in Las Vegas hat Panasonic Notebooks mit einer Brennstoffzelle präsentiert. Sie soll über eine Betriebsdauer von bis zu 20 Stunden verfügen und eine Leistung von 25 Watt haben. Sie wiegt nur 450 Gramm und arbeitet mit Methanol. Weitere Hersteller werden mit ähnlichen Produkten folgen, andere, wie Nokia, haben ihre Entwicklungen auf Eis gelegt.Ausgewählter Artikel aus Printausgabe 03/2006
Vitale Energie versus rohe Kraft

Der Gegner verdient selbst in seiner Niederlage Respekt. Eine Metapher zur Konfliktlösung.
Vielen Zeitgenossen ist „Aikido“ zwar durchaus ein Begriff. Und dennoch haben sehr wenige unter uns bereits das Vergnügen gehabt, die geschmeidigen, fast tänzerischen Bewegungen eines Meisters dieser in unseren Breitengraden doch noch recht seltenen Kampfkunst live zu beobachten.
Allerdings : Die ästhetische Eleganz täuscht ein wenig, denn bei Aikido werden tradierte Techniken alter Samurai-Schulen zur wirkungsvollen Verteidigung angewandt. Selbst körperlich weit überlegene Gegner kann ein fortgeschrittener Aikidoka ohne viel Einsatz von Muskelkraft zur Räson bringen, weil er durch geübte Bewegungsformen seine Energie spontan zur Entfaltung bringen kann. Dabei versteht Aikido sich nicht als Kampfsport, sondern wie gesagt : als Kampfkunst. Und darüber hinaus als grundlegende Lebenseinstellung, denn Aikido bedeutet im Wortsinn : Weg (Do) zur Harmonisierung (Ai) der Lebensenergie (Ki). Ein Aikidoka soll somit vollkommen aus dem Prinzip der Gewaltlosigkeit heraus agieren. Bei Aikido werden daher bewusst nur reine Verteidigungstechniken eingeübt.
Jeder Angriff ist sinnlos
Es gibt denn auch in der Tat keine einzige Form des Angriffs, die man bei Aikido effi zient erlernen könnte. Sogar jedweder interner Wettkampf wird abgelehnt, wird als völlig sinnlose Energieverschwendung betrachtet. Und so paradox dies für diejenigen, die diese Kampfkunst noch nie hautnah beobachten konnten, klingen mag : Ein Aikidoka in Aktion richtet seine Energie nicht gegen die Kraft des Gegners, sondern arbeitet mit ihr. Er konzentriert sich dabei nicht auf den Angreifer und dessen „Tatmotiv“, sondern wendet sich allein gegen den konkreten Angriff. Die Ursachen sowie die auslösenden Momente für den Angriff interessieren einen geübten Aikidoka nicht eine Sekunde. Er schreckt auch keineswegs vor dem Angriff zurück, sondern bewegt sich mit schnellen Bewegungen auf den Angreifer zu, weicht gleichzeitig der geballten und gerichteten Energie des Angriffs elegant aus. Dabei scheut er nicht den hautnahen Körperkontakt, er hütet sich jedoch vor jedem Versuch, die Kraft des Gegners zu blockieren. Im Gegenteil : Er „begleitet“ den Gegner, er folgt der kraftvollen Bewegung (etwa eines Schlages) des Angreifers und verstärkt diese oft sogar noch, denn er hat sich selber ja zuvor mit einer blitzschnellen Bewegung aus der Kampfl inie entfernt, sich damit als Angriffsziel entzogen. Und während der Aikidoka in diesem Prozess kaum Energie verwenden musste, sondern sich allein durch seine Schnelligkeit und Gewandtheit eine nunmehr wesentlich vorteilhaftere Lage verschafft, ist ein Teil der Wucht des Angriffs bereits vollkommen wirkungslos verpufft.Umlenken von Energie
Friedfertigkeit bedeutet in diesem – keineswegs rein defensiven – Kontext : Die Angriffs energie des Gegners wird gezielt genutzt, um dessen aggressive Handlung ins Leere laufen zu lassen und letztlich durch geschicktes Umlenken unwirksam zu machen. Die grundlegende Idee hinter diesem eigenwilligen Verhalten besteht nämlich darin, den Angreifer konkret aus seinem Zentrum zu bewegen oder aus dem Gleichgewicht zu bringen. Und daraufhin unter Nutzung der Kraft des Angreifers diesen in Form eines Wurfes oder einer Hebeltechnik zu entwaffnen oder zu Boden zu bringen. Dem Gegner soll, während er durch einen sanften, zugleich entschlossenen Haltegriff fixiert wird, sogar die Möglichkeit gegeben werden, seine impulsive Aggression erneut zu überdenken, quasi eine Art von „humaner Niederlage“ erleben. Aikido wird nicht zuletzt dieser Verhaltensweise wegen von Intellektuellen wie auch von manchen Managern als faszinierende „Metapher zur Konfliktlösung“ betrachtet. Alles in allem : ein bemerkenswertes Konzept für energetisch und friedliebend sein wollende Zeitgenossen unserer rauer werdenden Welt.Ausgewählter Artikel aus Printausgabe 03/2006
Wirkungsgrad : nur 14 Prozent

Die Effizienz der mit fossilen Brennstoffen betriebenen Autos ist erschütternd gering : Von der Ölquelle bis hin zu den rollenden Reifen verpuffen 86 Prozent der Energie. Ein Problem, an dem die Industrie arbeitet.
Die Treibstoffpreise bleiben konstant hoch. Die bedenklichen „Nebeneffekte“ unserer Automobilität werden uns erst jetzt richtig bewusst : CO 2 — und Feinstaub-Belastung der Umwelt. All dies verstärkt bei den Kunden von Toyota, Ford, VW und Co. den dringlichen Wunsch nach alternativen oder zumindest optimierten Antriebskonzepten. Zwar herrscht zurzeit noch keineswegs eine weltweite Hysterie wie beim ersten Erdölschock in den 70er Jahren. Dass wir uns in Sachen „Energieträger“ bald etwas einfallen lassen müssen, liegt jedoch auf der Hand. Und die Antworten darauf werden nicht nur unser Verhalten betreffen, sondern auch über kurz oder lang die Modifikation der verwendeten Technologien zum Thema haben. Einer, der sich seit Jahren mit Szenarien unserer „Automobilität“ im Zeichen der absehbaren Verknappung und Verteuerung von fossilen Brennstoffen professionell auseinander setzt, ist der Top-Berater Christian Schuh, Vice President von A.T. Kearney Österreich. Und Schuh sieht die aktuelle Entwicklung hin zur Erschließung alternativer Automobil-Antriebstechnologien, welche wesentlich effizienter mit dem Rohstoff Energie umgehen könnten, ebenso differenziert wie verhalten optimistisch : „Wenn wir sagen, wir wollen aktuell Energie sparen, dann wäre die erste Wahl wohl : weniger zu fahren oder kleinere und sparsamere Autos zu benutzen. Wenn man jedoch auf das Leistungsspektrum, das man dem Auto abzuverlangen gewohnt ist, nicht verzichten möchte, dann stellt sich für die Auto- Industrie die Frage : Welche Treibstoff- und Antriebskonzepte können diese Leistung vernünftiger, also wesentlich effizienter erbringen?“
Eine neue Infrastruktur
Eine Frage, deren wie immer geartete Beantwortung, so Schuh, jedoch zwei Aspekte nicht ignorieren dürfe : Zum einen muss die breite Verfügbarkeit der Energieträger gegeben sein. Die heutige Infrastruktur mit ihrem Tankstellennetz ist jedoch fast ausschließlich auf Benzin und Diesel ausgelegt. Selbst die alternativ bereits verfügbaren Treibstoffe wie Erdgas oder Biomasse-Derivate wie Ethanol erfordern gewisse Modifikationen bei der Betankung. Der breitflächige Umbau der aktuellen Infrastruktur zu alternativen Energieträgern wird daher wohl ein beträchtliches Ausmaß an Zeit (und vor allem : Geld) benötigen. Zum anderen stellt sich eine zweite, ebenso essenzielle Frage : Wie sieht die Effizienz der diversen Antriebssysteme denn tatsächlich aus ? Originalton Christian Schuh : „Leider wird gerade diese Frage in der öffentlichen Diskussion sehr verkürzt gesehen, indem man nicht die systemische Gesamteffizienz betrachtet, sondern meist nur jene des Fahrzeuges selber, also : welchen Energieaufwand zu welchen Kosten das Auto braucht, um uns von A nach B zu bringen. Wenn man die Sache jedoch nicht nur unter dem eingeschränkten Aspekt der Energie-Effizienz „vom Tank zum Rad“ betrachtet, sondern die Gesamt-Effizienz analysiert, sieht die Sache schon sehr viel anders aus. Misst man nämlich den Wirkungsgrad im kompletten Prozess, der sich von der Rohstoffquelle über die industrielle Aufbereitung und den Transport bis hin zur Tankstelle und der konkreten Nutzung zum Antrieb des Autos erstreckt, erkennt man sofort, dass alle heutigen Antriebssysteme einen sehr niedrigen Faktor an Effizienz aufweisen.“
Die konkreten Zahlen, welche die Experten von A.T. Kearney in einer Studie für einen japanischen Auto-Konzern errechnet haben, sind ernüchternd : Für rein mit Diesel oder Benzin betriebene Fahrzeuge ergibt sich eine Gesamt-Effizienz von mageren 14 Prozent. Das bedeutet, dass satte 86 Prozent der Energie auf dem langen Weg von der Rohölquelle bis zum Ende des absolvierten Autobahn-Ausritts „nutzlos“ verloren gegangen sind. Die Analyse zeigt weiters, wo genau das Problem zu orten ist : Beträgt die Effizienz von der Quelle zum Tank noch veritable 88 Prozent, bricht dieser Faktor auf dem anschließenden Weg vom Tank zum Rad mit bloß 16 Prozent dramatisch ein. Aber auch ein in derselben Studie durchgeführter Vergleich mit der seit einigen Jahren in Prototypen erprobten Brennstoffzellen-Technologie, die Wasserstoff als Energieträger verwendet, fiel relativ ernüchternd aus : Zwar dürften Brennstoffzellen-Autos der ersten halbwegs ausgereiften Generation eine Effizienz von 38 Prozent aufweisen, der Wirkungsgrad dürfte damit um einen Faktor zwei besser ausfallen als bei Benzin- und Diesel-Autos. Der Pferdefuß dieser Hoffnungstechnologie zeigte sich jedoch in Form einer wesentlich geringeren Effizienz auf dem Weg von der Quelle bis zum Tank : nämlich 58 Prozent. Und erst der Gesamtvergleich der beiden Energien fossile Brennstoffe versus aufbereiteten Wasserstoff zeigt, dass Letztere mit 22 Prozent Gesamt-Effizienz leicht die Nase vorne hat.
Brennstoffzellen werden in allernächster Zukunft aber sicherlich noch keine probate Energie-Alternative sein, meint A.T. Kearney-Berater Christian Schuh : „Brennstoffzellen funktionieren am allerbesten mit Wasserstoff. Das Problem ist aber : Wir haben keine WasserstoffInfrastruktur. Zudem erfordert dieses System gerade im Auto, wo eine Brennstoffzelle jahrelang erschüttert wird und allen klimatischen Bedingungen gerecht werden muss, einen hohen technischen Reifegrad. Kurz : Diese Technologie steckt noch in den Kinderschuhen.“ Der logische Schluss daraus : „Die klassische Verbrennungskraftmaschine wird uns noch bis zum Jahr 2020 und darüber hinaus erhalten bleiben – und damit auch die Abhängigkeit von fossilen Brennstoffen.“Hybrid als probate Lösung ?
Kein Grund zur Resignation, denn bei näherem Hinsehen zeichnet sich auch konkrete Hoffnung ab, beruhigt der A.T. Kearney-Experte. Denn er weiß als Insider : Die weltweite Auto-Industrie arbeitet bereits unter Hochdruck an einer dramatischen Verbesserung des Wirkungsgrades. „Die erfolgsträchtigsten Ansätze dazu sehe ich für die nächsten Jahre in einer weiteren Verbesserung der Energieausbeute des Diesel-Motors, begleitet von einer dramatischen Reduktion der Schadstoffemission. Eine Variante, die besonders für Langstrecken- und Vielfahrer interessant ist. Da ist Europa derzeit führend. Ein weiteres großes Potenzial erschließt sich mit den diversen Hybrid-Lösungen, denn die Kombination von Verbrennungsantrieb mit intelligent geladenen Elektromotoren erweist sich für den Stop-andgo-Betrieb im städtischen Bereich als überaus effizient. Da ist Japan führend, allen voran Toyota und Honda. Ich bin mir sicher, dass in den kommenden ein, zwei Jahrzehnten die Hybrid-Lösung sich als überlegene, weil effizienteste Antwort auf die Energie- und Umweltfrage erweisen wird. Zumindest so lange, bis die BrennstoffzellenTechnologie ausgereift ist und wir auch die nötige Infrastruktur dazu etabliert haben.“Ausgewählter Artikel aus Printausgabe 03/2006
Wirkungsgrad : nur 14 Prozent

Die Effizienz der mit fossilen Brennstoffen betriebenen Autos ist erschütternd gering : Von der Ölquelle bis hin zu den rollenden Reifen verpuffen 86 Prozent der Energie. Ein Problem, an dem die Industrie arbeitet.
Die Treibstoffpreise bleiben konstant hoch. Die bedenklichen „Nebeneffekte“ unserer Automobilität werden uns erst jetzt richtig bewusst : CO 2 — und Feinstaub-Belastung der Umwelt. All dies verstärkt bei den Kunden von Toyota, Ford, VW und Co. den dringlichen Wunsch nach alternativen oder zumindest optimierten Antriebskonzepten. Zwar herrscht zurzeit noch keineswegs eine weltweite Hysterie wie beim ersten Erdölschock in den 70er Jahren. Dass wir uns in Sachen „Energieträger“ bald etwas einfallen lassen müssen, liegt jedoch auf der Hand. Und die Antworten darauf werden nicht nur unser Verhalten betreffen, sondern auch über kurz oder lang die Modifikation der verwendeten Technologien zum Thema haben. Einer, der sich seit Jahren mit Szenarien unserer „Automobilität“ im Zeichen der absehbaren Verknappung und Verteuerung von fossilen Brennstoffen professionell auseinander setzt, ist der Top-Berater Christian Schuh, Vice President von A.T. Kearney Österreich. Und Schuh sieht die aktuelle Entwicklung hin zur Erschließung alternativer Automobil-Antriebstechnologien, welche wesentlich effizienter mit dem Rohstoff Energie umgehen könnten, ebenso differenziert wie verhalten optimistisch : „Wenn wir sagen, wir wollen aktuell Energie sparen, dann wäre die erste Wahl wohl : weniger zu fahren oder kleinere und sparsamere Autos zu benutzen. Wenn man jedoch auf das Leistungsspektrum, das man dem Auto abzuverlangen gewohnt ist, nicht verzichten möchte, dann stellt sich für die Auto- Industrie die Frage : Welche Treibstoff- und Antriebskonzepte können diese Leistung vernünftiger, also wesentlich effizienter erbringen?“
Eine neue Infrastruktur
Eine Frage, deren wie immer geartete Beantwortung, so Schuh, jedoch zwei Aspekte nicht ignorieren dürfe : Zum einen muss die breite Verfügbarkeit der Energieträger gegeben sein. Die heutige Infrastruktur mit ihrem Tankstellennetz ist jedoch fast ausschließlich auf Benzin und Diesel ausgelegt. Selbst die alternativ bereits verfügbaren Treibstoffe wie Erdgas oder Biomasse-Derivate wie Ethanol erfordern gewisse Modifikationen bei der Betankung. Der breitflächige Umbau der aktuellen Infrastruktur zu alternativen Energieträgern wird daher wohl ein beträchtliches Ausmaß an Zeit (und vor allem : Geld) benötigen. Zum anderen stellt sich eine zweite, ebenso essenzielle Frage : Wie sieht die Effizienz der diversen Antriebssysteme denn tatsächlich aus ? Originalton Christian Schuh : „Leider wird gerade diese Frage in der öffentlichen Diskussion sehr verkürzt gesehen, indem man nicht die systemische Gesamteffizienz betrachtet, sondern meist nur jene des Fahrzeuges selber, also : welchen Energieaufwand zu welchen Kosten das Auto braucht, um uns von A nach B zu bringen. Wenn man die Sache jedoch nicht nur unter dem eingeschränkten Aspekt der Energie-Effizienz „vom Tank zum Rad“ betrachtet, sondern die Gesamt-Effizienz analysiert, sieht die Sache schon sehr viel anders aus. Misst man nämlich den Wirkungsgrad im kompletten Prozess, der sich von der Rohstoffquelle über die industrielle Aufbereitung und den Transport bis hin zur Tankstelle und der konkreten Nutzung zum Antrieb des Autos erstreckt, erkennt man sofort, dass alle heutigen Antriebssysteme einen sehr niedrigen Faktor an Effizienz aufweisen.“
Die konkreten Zahlen, welche die Experten von A.T. Kearney in einer Studie für einen japanischen Auto-Konzern errechnet haben, sind ernüchternd : Für rein mit Diesel oder Benzin betriebene Fahrzeuge ergibt sich eine Gesamt-Effizienz von mageren 14 Prozent. Das bedeutet, dass satte 86 Prozent der Energie auf dem langen Weg von der Rohölquelle bis zum Ende des absolvierten Autobahn-Ausritts „nutzlos“ verloren gegangen sind. Die Analyse zeigt weiters, wo genau das Problem zu orten ist : Beträgt die Effizienz von der Quelle zum Tank noch veritable 88 Prozent, bricht dieser Faktor auf dem anschließenden Weg vom Tank zum Rad mit bloß 16 Prozent dramatisch ein. Aber auch ein in derselben Studie durchgeführter Vergleich mit der seit einigen Jahren in Prototypen erprobten Brennstoffzellen-Technologie, die Wasserstoff als Energieträger verwendet, fiel relativ ernüchternd aus : Zwar dürften Brennstoffzellen-Autos der ersten halbwegs ausgereiften Generation eine Effizienz von 38 Prozent aufweisen, der Wirkungsgrad dürfte damit um einen Faktor zwei besser ausfallen als bei Benzin- und Diesel-Autos. Der Pferdefuß dieser Hoffnungstechnologie zeigte sich jedoch in Form einer wesentlich geringeren Effizienz auf dem Weg von der Quelle bis zum Tank : nämlich 58 Prozent. Und erst der Gesamtvergleich der beiden Energien fossile Brennstoffe versus aufbereiteten Wasserstoff zeigt, dass Letztere mit 22 Prozent Gesamt-Effizienz leicht die Nase vorne hat.
Brennstoffzellen werden in allernächster Zukunft aber sicherlich noch keine probate Energie-Alternative sein, meint A.T. Kearney-Berater Christian Schuh : „Brennstoffzellen funktionieren am allerbesten mit Wasserstoff. Das Problem ist aber : Wir haben keine WasserstoffInfrastruktur. Zudem erfordert dieses System gerade im Auto, wo eine Brennstoffzelle jahrelang erschüttert wird und allen klimatischen Bedingungen gerecht werden muss, einen hohen technischen Reifegrad. Kurz : Diese Technologie steckt noch in den Kinderschuhen.“ Der logische Schluss daraus : „Die klassische Verbrennungskraftmaschine wird uns noch bis zum Jahr 2020 und darüber hinaus erhalten bleiben – und damit auch die Abhängigkeit von fossilen Brennstoffen.“Hybrid als probate Lösung ?
Kein Grund zur Resignation, denn bei näherem Hinsehen zeichnet sich auch konkrete Hoffnung ab, beruhigt der A.T. Kearney-Experte. Denn er weiß als Insider : Die weltweite Auto-Industrie arbeitet bereits unter Hochdruck an einer dramatischen Verbesserung des Wirkungsgrades. „Die erfolgsträchtigsten Ansätze dazu sehe ich für die nächsten Jahre in einer weiteren Verbesserung der Energieausbeute des Diesel-Motors, begleitet von einer dramatischen Reduktion der Schadstoffemission. Eine Variante, die besonders für Langstrecken- und Vielfahrer interessant ist. Da ist Europa derzeit führend. Ein weiteres großes Potenzial erschließt sich mit den diversen Hybrid-Lösungen, denn die Kombination von Verbrennungsantrieb mit intelligent geladenen Elektromotoren erweist sich für den Stop-andgo-Betrieb im städtischen Bereich als überaus effizient. Da ist Japan führend, allen voran Toyota und Honda. Ich bin mir sicher, dass in den kommenden ein, zwei Jahrzehnten die Hybrid-Lösung sich als überlegene, weil effizienteste Antwort auf die Energie- und Umweltfrage erweisen wird. Zumindest so lange, bis die BrennstoffzellenTechnologie ausgereift ist und wir auch die nötige Infrastruktur dazu etabliert haben.“Ausgewählter Artikel aus Printausgabe 03/2006
Wettbewerb mit Fehlzündung

Trotz der Liberalisierung im Energiesektor bleiben Österreichs Haushaltskunden wechselunwillig.
Die heimischen Haushaltskunden haben von der Liberalisierung der Energiemärkte 2001 bisher kaum profitiert, Anders schaut es bei Industrie und Gewerbe aus, beide haben ihre Strombezugskosten um bis zu 50 Prozent reduzieren können. Bei den Privatkunden blieben die Verbilligungen minimal, auch weil die Regierung die energiebezogenen Steuern parallel zur Marktöffnung deutlich angehoben hat. Dessen ungeachtet kann man beim Wechsel des Stromanbieters saftig Geld sparen. Ein Wiener Durchschnittshaushalt (3.500 Kilowattstunden) kann sich laut Strompreiskalkulator bis zu 150 Euro ersparen : Für die gleiche Menge Strom zahlt man beim Verbund rund 500 Euro im Jahr, bei der Ökostrom AG sind es 650 Euro. Wer noch mehr verbraucht, kann sogar noch höhere Einsparungen lukrieren. Trotz dieser offensichtlichen Preisvorteile fällt die Bilanz der Marktöffnung sehr nüchtern aus : Erst drei Prozent der Gaskunden und sechs Prozent der Stromkunden haben in Österreich ihren Anbieter gewechselt. Wo die einen beim Gedanken an jede Menge Formulare bei der Ummeldung abwinken, hemmt andere die subjektive Unsicherheit, ob mit dem neuen Versorger nicht doch das Licht ausgeht. Auch die Devise „Ein Wechsel bringt unterm Strich nicht viel“, gehört zur vorherrschenden Meinung.
Steigende Preise
„Das Interesse für einen Wechsel des Stromlieferanten oder Gasversorgers ist in den vergangenen Monaten stark gestiegen“, beschreibt Walter Boltz, der Chef der Regulierungsbehörde E‑Control die jüngste Entwicklung. Bei der Telefon-Hotline habe man im Vorjahr einen Anstieg der Anrufe um über 170 Prozent im Vergleich zu 2004 registriert. Der Online-Tarifkalkulator der E‑Control verzeichnet an Spitzentagen sogar bis zu 15.000 Abfragen. Eine deutsche Studie zeigt, dass mit den Kosten der Unwillen des Verbraucher steigt. Laut einer Untersuchung der Markenstrategie-Experten Brand Trust wäre eine Ersparnis von bis zu zehn Prozent ein Grund für den Wechsel des Energieversorgers. 65 Prozent würden wechseln, wenn eine Ersparnis von zehn Prozent erzielt werden könnte. Keine schlechten Perspektiven also für intensivierten Wettbewerb bei Privatpersonen sowie Gewerbebetrieben. „Steigende Preise erhöhen die Sensibilität und helfen, die eigene Trägheit bei der Suche nach Alternativen zu überwinden“, meint Brand Trust-Chef Klaus-Dieter Koch. „Die Anbieter müssten aber noch mehr in Marketing und Markenpfl ege investieren, weil die Verbraucher viel zu wenig über die Materie wissen.” „Bei Privatkunden kann das Vertrauen zur Marke Preisunterschiede von zehn bis 15 Prozent kompensieren“, analysiert Bernhard Haider vom Beratungsunternehmen Pricewaterhouse Coopers (PWC). „Ich glaube aber ohnehin nicht an großartige Strategien für Wechselbewegungen. Man konzentriert sich lieber darauf, Kunden bei der Stange zu halten und Argumente zu fi nden, warum man Preise leider wieder erhöhen muss.“Ausgewählter Artikel aus Printausgabe 03/2006
Grenzenlos clustern

Österreichs Automobil-Cluster suchen ihr neues Glück in Südosteuropa. Gepunktet werden soll durch Know-how.
Letztes Jahr gab es beim AC Styria einiges zu feiern. Österreichs Urcluster kann schon auf zehn erfolgreiche Jahre zurückblicken. „Wir haben die vorhandenen Kräfte in der automotiven Wertschöpfungskette in der Steiermark gebündelt, um die Innovationskraft und Wettbewerbsfähigkeit zu steigern“, sagt ACstyria-Geschäftsführer Uwe Galler. Zugleich startete im Vorjahr die Internationalisierung des Clusters. Im Jahr 2005 habe man sich in Richtung Slowenien, Kroatien und Serbien orientiert. Heuer stehen Länder wie Rumänien, die Türkei oder die Ukraine auf dem Programm. Das Ziel ist, eine „Automotive Region Südosteuropa“ zu schaffen, die unter österreichischer Führung steht. Österreichs Cluster versuchen nach der internen Vernetzung nun auch mittels Internationalisierung im globalen Wettbewerb fi t zu bleiben. Produktionsbetriebe wandern Richtung Südost ab. Zugleich bieten die neuen Boom-Regionen wie China, Indien und Osteuropa Konkurrenz und Chancen gleichermaßen. Deswegen sind auch jüngst die drei österreichischen Automobil-Cluster (AC Styria, Automobil-Cluster Oberösterreich und Automotive Cluster Vienna Region) durch die Übernahme der Austrian Automotive Association (AAA) zwecks gemeinsamer Auslandsaktivitäten näher zusammengerückt.
China im Visier
AC Styria übernimmt dabei die südöstlichen Märkte, aber auch die Türkei, Ukraine, China sowie Nord- und Südamerika. Uwe Galler würde sich etwa über eine chinesische Firma im AC Styria sehr freuen. „Man darf nicht vergessen, dass die billigen Produktionsorte auch zunehmend Absatzmärkte werden“, meint Galler. Der Automobil-Cluster Oberösterreich und der Automotive Cluster Vienna Region konzentrieren sich auf die klassischen Märkte wie Deutschland, England oder Italien sowie die neuen Autoboom-Regionen Slowakei, Tschechien und Ungarn. „Wenn ein Cluster Aktivitäten in einem Land plant, werden freilich die anderen Cluster eingeladen“, erklärt Galler, zugleich Aufsichtsrat der AAA. Bislang konnte der ACstyria schon zehn neue internationale Mitglieder gewinnen. Darunter Flextronics in Ungarn, die wiederum gute Kontakte zu ukrainischen Unternehmen pfl egen. Neben dem Ziel, Richtung Südosteuropa zu expandieren, wofür die Schaffung einer Plattform für alle Cluster der einzelnen Regionen auf dem Programm steht, soll das Know-how in der Steiermark noch stärker durch die Bildung der Automotive Academy Styria, einer virtuellen Akademie, gebündelt werden. Über die gemeinsame Forschung und Entwicklung soll österreichisches Know-how an die Clustermitglieder in Ostund Südosteuropa exportiert werden. Das Ziel all dieser Aktivitäten ist es, so Galler, den Standort Steiermark, den man auch gerne als „Detroit der Alpen“ bezeichnet, zu stärken. Das aktuelle Schicksal Detroits – die einstige US-Automobilstadt steckt tief in der Krise – möchten die Manager des AC Styria ihrer Region durch diese Initiativen wohl ersparen.Ausgewählter Artikel aus Printausgabe 02/2006