Unabhängiges Magazin für Wirtschaft und Bildung

26. Juli 2024

Search form

Search form

Geteilte Autos

Geteilte AutosBundesverband Carsharing

Die Vorteile liegen auf der Hand: Mit Car-Sharing lassen sich Kosten sparen. Das ist gut für den, der es nutzt. Car-Sharer fahren im Durchschnitt um 50 Prozent weniger Auto. Das wiederum ist gut für die Umwelt. Trotzdem ist Car-Sharing in Österreich noch kein rechter Erfolg beschieden.

Ein Blick in unser Nachbarland Schweiz zeigt, wie es funktionieren kann. Dort teilen bereits mehr als 80.000 Mitglieder oder Kunden der Genossenschaft Mobility, die an über 1000 Standorten 1950 Wagen anbietet, das Fahrzeug miteinander. Nach kurzer Voranmeldung via Telefon oder Internet kann jedes Mitglied diese Autos nutzen und zahlt nur die Kosten, die für die Fahrt anfallen. Innerhalb von zehn bis 15 Minuten soll man an einem Standort sein.
In Österreich gibt es derzeit 16.000 Nutzer und 200 Standorte des Anbieters Carsharing.at, vormals Denzeldrive und jetzt ein Joint Venture von der Schweizer Mobility und Denzel. Im nächsten Jahr soll das Angebot um 15 Prozent erhöht werden. Vielleicht hilft das, dass Auto-teilen auch in Österreich attraktiver wird. Denn die Anwendung ist es bereits.

Reservieren und losfahren
Hat man sich für Car-Sharing angemeldet, können Buchungen zu jeder Tages- und Nachtzeit über das Internet oder telefonisch getätigt werden. Die Autos werden per SMS freigeschaltet. Steht man vor dem Auto, braucht man nur seine Karte mit integriertem Funkchip gegen den Empfänger an der Windschutzscheibe halten und – „Sesam, öffne dich“. Der Bordcomputer zeigt die Reservierungsdaten an, die Zentralverriegelung öffnet. Fahrzeugpapiere und -schlüssel liegen im Handschuhfach. Dort findet man auch, falls notwendig, die Dauerparkkarte für die jeweilige Garage.
Unterbricht man die Fahrt, wird das Fahrzeug einfach mit der Karte wieder geschlossen. Das funktioniert tadellos und einfach. Einige Bedenken, die sich bei unserer Testfahrt einstellten, erwiesen sich als unbegründet. Man bekommt monatlich eine Rechnung, auf der minutiös jede Fahrt aufgelistet wird. Die Rechnung wird entweder per E-Mail oder in Papierform zugestellt. Einzig die nächste Station lag bei unserer Probefahrt deutlich weiter entfernt als die maximalen 15 Minuten in der Schweiz. Schade. Aber was nicht ist, kann ja noch werden.
Was jedoch positiv ist, ist die Auswahl an fahrbaren Untersätzen. Zwar sind die meisten Standorte nicht gerade üppig bestückt, aber an den großen Bahnhofsstationen stehen auch Kleinbusse für den Transport großer Gegenstände zur Verfügung.

Nachgerechnet
Die Beträge auf der zugesandten Rechnung sind gefühlsmäßig verschmerzbar. Man hat ja immer im Hinterkopf, dass Kraftstoff, Servicekosten, Reifen und einfach alles eingerechnet sind. Die Experten vom Verkehrsclub Österreich (VCÖ) hingegen haben genau nachgerechnet.
Wer weniger als 12.000 Kilometer im Jahr fährt, ist so billiger unterwegs. Bis zu 100.000 Menschen könnten in Österreich auf Car-Sharing umsteigen, hat der VCÖ errechnet – dadurch wären auch weniger Autos unterwegs. Car-Sharing bedeute zudem einen bewussteren Umgang mit dem Auto. Car-Sharing-Wagen werden um 50 Prozent weniger benützt als der eigene. Damit ist der CO2-Rucksack um 1300 Kilogramm leichter. Der durchschnittliche Car-Sharing-Nutzer legt zwei Drittel seiner Wege mit öffentlichen Verkehrsmitteln oder dem Fahrrad zurück. Ausschlaggebend für die Wahl sind aber weniger Geld- als vielmehr Umwelt-argumente, denn das Einkommen eines Car-Sharers liegt über dem Durchschnitt. Foto: Bundesverband Carsharing

Links

Economy Ausgabe 66-11-2008, 23.01.2009

Mehr Intelligenz für Autos

Mehr Intelligenz für Autos

Die Europäische Union hat im Rahmen eines Projekts ihre Bemühungen intensiviert, den Verkehr in Zukunft sicherer und flüssiger zu machen. Neue Technologien werden auf ihre Marktreife getestet.

Intelligente Fahrzeugsysteme, auch Fahrerassistenzsysteme (FAS) genannt, können für mehr Sicherheit im Straßenverkehr sorgen, die Energieeffizienz steigern sowie Staus verhindern. Im Rahmen des EU-Projekts Eurofot (European Large-Scale Field Operational Tests on In-Vehicle Systems), an dem 28 Partner beteiligt sind, erfolgt derzeit ein groß angelegter Feldtest von Technologien, die für einen besseren Fluss des europäischen Straßenverkehrs sorgen könnten. Ziel ist nicht nur, die Leistungsfähigkeit der FAS zu bewerten, sondern auch etwaige Risiken und das Marktpotenzial der Fahrhilfen zu erkennen. Das soll dazu beitragen, die technischen Unterstützungssysteme auch für den Massenmarkt attraktiv zu machen.
Die Technologien, die im Projekt getestet werden, sind vielseitig. Die Adaptive Cruise Control (ACC) beispielsweise dient einer intelligenten Steuerung der Fahrtgeschwindigkeit in Abhängigkeit vom Verkehrsfluss. Das Blind Spot Informa-tion System wiederum überwacht tote Winkel der Rückspiegel, während Curve Speed Warning verhindern soll, dass Fahrer mit überhöhter Geschwindigkeit in Kurven gehen. Auch eine Funktion zur Warnung vor dichtem frontalen Auffahren sowie ein Spurhalteassistent sind Teil des Projekts. Für interessierte Autofahrer sind manche Funktionalitäten bereits ein Begriff. „Einige der Eurofot-Systeme wie die ACC sind schon seit einigen Jahren auf dem Markt“, meint Ariane Brusselmans, Sprecherin beim Projektpartner Ertico – ITS Europe. Allerdings seien sie bisher nur Optionen im Luxussegment und hätten nicht den Massenmarkt erreicht.

1500 Testfahrzeuge
Das soll sich durch das auf 40 Monate anberaumte EU-Projekt ändern, in dem über 1500 Testfahrzeuge zum Einsatz kommen. „Eurofot wird die Systeme unter realen Fahrbedingungen testen“, betont Brusselmans. Damit sollen Aufschlüsse über kurz- und langfristige Auswirkungen solcher Systeme gewonnen werden, beispielsweise im Hinblick auf Fahrerverhalten und Systemleistung. Ein Ziel ist es zu bewerten, ob die Technologien auf normalen Straßen wirklich effektiv und auch so leistungsfähig sind wie vorgesehen. Damit wollen die Projektpartner Risikofaktoren erkennen und klären, welche Aspekte eine weitere Entwicklung durchlaufen sollten. Ein wichtiges Thema dabei ist auch die Nutzerakzeptanz. Jene Technologien, die von den Testern gut angenommen werden, haben entsprechend hohe Marktchancen.
Das bessere Verständnis soll sich auch auf die Rahmenbedingungen für einen breiteren Einsatz der Technologien auswirken. „Eurofot wird politischen Verantwortlichen helfen, informierte Entscheidungen über den Rechtsrahmen für den Einsatz von IVS zu treffen“, ist Brusselmans überzeugt.

Autos lernen sprechen
Weniger Staus und Verkehrsunfälle sollen Systeme bringen, die über Funk mit Verkehrsleitsystemen und anderen Fahrzeugen kommunizieren. Gut 24 Prozent der Fahrzeit bringen Europas Autofahrer in Staus zu. „Die Kosten, die dadurch entstehen, dürften sich 2010 auf etwa 80 Milliarden Euro belaufen“, erklärt Viviane Reding, die für Telekommunikation zuständige EU-Kommissarin. „Wenn wir durch intelligente Fahrzeugkommunikationssysteme Zeit gewinnen, können wir viel Geld sparen. Deshalb hat die EU vergangenen Sommer Funkfrequenzen für solche Anwendungen frei gegeben. Ein Frequenzbereich von 30 Mega-Hertz im 5,9 Giga-Hertz-Band wurde reserviert. Die Behörden in den einzelnen EU-Staaten sollen nun die Vorgabe umsetzen.
Ein Beispiel für die Einsatzmöglichkeiten eines solchen Systems wäre ein Fahrzeug, dessen Bordsysteme auf einer Straße Glatteis registrieren. Es könnte via Funk diese Information an alle anderen Autos in der Nähe weitergeben. Deren Fahrer würden eine Warnmeldung erhalten, oder das Fahrzeug würde gar automatisch die Geschwindigkeit herabsetzen. In Kombination mit Funksendern, die entlang von Straßen platziert werden, ließen sich Autofahrer automatisch über Staus, gesperrte Straßen oder Geschwindigkeitsbegrenzungen informieren.
Die Frequenzvergabe auf dem 5,9 Giga-Hertz-Band bringt den Herstellern von Autos und Navigationssystemen endlich Klarheit. Sie haben nun die Möglichkeit, Geräte zu entwickeln, die auf einem Standard basieren und in ganz Europa einsatzfähig sind.

Links

Economy Ausgabe 66-11-2008, 23.01.2009

Auf Wolke Nummer sieben

Auf Wolke Nummer siebenPhotos.com

Cloud Computing ist das Schlagwort der IT-Branche. Dahinter steckt ein altes 
Konzept in neuer Aufmachung. Doch die Vorzeichen sind heute anders. Eine ganze Branche steht nun vor dem Umbruch.

Viele Beobachter halten Cloud Computing für eine Revolu-tion der Informationstechnologie (IT). Nicht nur der amerikanische Autor Nicholas Carr vergleicht den Trend gerne mit dem Übergang zu einer zentralisierten, flächendeckenden Stromversorgung um die Wende zum 20. Jahrhundert. Doch er hält dies auch in Buchform fest. „Ein Jahrhundert später wiederholt sich die Geschichte“, schreibt Carr in seinem Buch The Big Switch. IT hat heute einen ähnlichen Stellenwert wie die Elektrizität am Ende des 19. Jahrhunderts: Sie gehört zum Kernbestand dessen, was Unternehmen ihr Kapital nennen, und wird in vielen Fällen sogar als eigene Unternehmensfunktion angesehen. Nun schickt IT sich an, zu einer Leistung zu werden, die über eine gemeinsame Infrastruktur zur Verfügung gestellt und in vielen Fällen sogar verbrauchsbezogen abgerechnet wird.
Es hat in der Vergangenheit immer wieder Versuche gegeben, solche Infrastrukturen aufzubauen. Es begann bereits in dern 1960er Jahren und dauerte bis zum ASP-Hype (Application Service Providing) der Dotcom-Blase. Als Nadelöhr erwies sich immer wieder die Bandbreite der Datenübertragung, sodass genau das Gegenteil Realität ist. So schaffte es Bill Gates mit Windows und Office auf einen Großteil der Schreibtische.

Ressourcen teilen
Ist es eine sinnvolle Ressourcennutzung, wenn Datenzen-tren in den Unternehmen nur zu rund zehn Prozent ausgelastet sind, da sie auf Spitzenlasten ausgelegt sein müssen, welche naturgemäß nur selten erreicht werden? Ist es nicht verschwenderisch, dass laut einer Studie der Marktforscher von IDC 2005 nur 16 Prozent der Software, die Unternehmen kaufen, auch tatsächlich genutzt werden? Und ist es effizient, Millionen von Versionen einer Applikation auf eben so vielen Millionen von Maschinen zu installieren?
Unter der Hand haben sich Laptops heute längst in „Web-tops“ verwandelt, die sich alle nötigen Daten, Dienste und Appli-kationen aus dem Netz holen. Viele private Anwender nutzen einen freien E-Mail-Account bei Hotmail, suchen Orte in Google Maps und bearbeiten ihre Bilder mithilfe der Online-Version von Photoshop. Unternehmen hingegen setzen auf Software für Kundenbeziehungsmanagement von Salesforce.com, die es nur über das Internet zu beziehen gibt. Die laufende Zunahme der Bandbreite des Internets macht es möglich. Der Computer in der Cloud nimmt Gestalt an. Und eben diese Wolke stammt aus diversen Diagrammen, in denen das Internet als Wolke dargestellt wird. Cloud Computing bedeutet also, das Internet als Computer zu nutzen.
Die Schnittstelle, mit der der Nutzer auf die Cloud zugreift, ist heute noch in den allermeisten Fällen der Webbrowser. Während herkömmliche Browser sich dabei am Modell eines Dokuments orientierten, das der Nutzer aus dem Netz saugt, um es dann auf seinem eigenen Rechner zu studieren, hat Google seinen vor Kurzem vorgestellten Browser Chrome gezielt daraufhin optimiert, als Plattform für Web-Anwendungen zu fungieren. Somit werden heutige Betriebssysteme zusehends mit dem Browser verschmelzen. Applikationen, die in Chrome laufen, wirken wie Desktop-Anwendungen.
Cloud Computing für Unternehmen lässt sich als eine Art „Cloud Sourcing“ verstehen: So wie Unternehmen beispielsweise ihre Produktion an Dritt-unternehmen outsourcen können, erlaubt Cloud Computing es ihnen, IT-Kapazitäten aller Art ins Netz auszulagern. Was heute bereits mit Outsourcern wie EDS, T-Systems oder Raiffeisen Informatik alltäglich ist, soll sich in Zukunft wesentlich verstärken. Bedenken zentrieren sich naturgemäß vor allem um den Faktor Sicherheit. Aber auch die lückenlose Verfügbarkeit von IT aus der Wolke gilt als Hemmschuh. Und nach wie vor ist, wie erwähnt, die Geschwindigkeit von Cloud-Anwendungen verbesserungsfähig.
Auch die Palette verfügbarer Angebote ist heute bei Weitem nicht breit und ausgereift genug, als dass sich sämtliche digitalen Geschäftsprozesse in der Cloud abbilden ließen – der Übergang zum Cloud Computing kann nur schrittweise erfolgen und stellt selbst eine technische und organisatorische Herausforderung dar. Erste Dienstleister spezialisieren sich bereits auf die Cloud-Migration, also den Umzug von IT-Ressourcen ins Netz. Und die traditionellen Anbieter versuchen jetzt, die Themenführerschaft an sich zu reißen.

Kosten als Treiber
Zunächst galt die Wolke nur als neues Modethema. Als aber Ray Ozzie, Nachfolger von Bill Gates als oberster Software-Architekt von Microsoft, die neue Strategie vorstellte, war aus dem Modebegriff plötzlich ein Trend geworden. Ozzie verkündete Microsofts Abkehr vom Personal Computer und die Zuwendung zur Wolke als verbindendem Element zwischen allen Computern, Netzwerkrechnern und mobilen Geräten. Live Mesh wird das neue Supernetz aus dem Hause Microsoft heißen. Nur wenige ganz große Technologieunternehmen werden aufgrund der Größenvorteile den Cloud-Computing-Markt beherrschen: Amazon, Google, IBM und möglicherweise Oracle, ganz sicher aber Microsoft werden nach Ansicht von Microsoft-Chef Steve Ballmer dazugehören.
„Das war ein sehr wichtiges öffentliches Statement für Microsoft, nämlich dass die aktuelle Schlacht die Schlacht um die Wolke ist“, meint dazu Gartner-Analyst Mark Stahlmann. Im Vordergrund stehe nicht mehr der Kampf um die Internet-Suche oder um das Betriebssystem. „Diese Kämpfe sind ausgefochten und gewonnen. Der Kampf um das Cloud-Computing ist aber völlig offen.“
Vorreiter des Cloud-Computings ist aber weder Microsoft noch Google, sondern der Online-Händler Amazon, der zu den großen Innovatoren im Internet gehört. Hunderttausende Betreiber von Internet-Seiten speichern ihre Daten inzwischen auf den Rechnern, die Amazon zunächst für seine eigenen Internetshops aufgebaut hat. „Zuerst haben wir die-se Dienste für uns selber gebraucht. Dann haben wir uns gedacht, wenn wir diese Dienste benötigen, brauchen andere Internet-Seiten sie auch. Das kam gut an, und deswegen haben wir uns entschlossen, daraus ein komplett neues Geschäft zu machen“, sagte der Amazon-Chef Jeff Bezos in einem Interview. Im Gegensatz zu Microsoft oder Google hat Amazon mit seiner Elastic Compute Cloud aber keine Ambitionen, eine Wolke für die privaten Internet-Nutzer aufzubauen. Amazon geht es um professionelle Anwender, die lieber Speicherplatz günstig kaufen statt teuer selbst aufzubauen. „Wenn das Managen eines Rechenzentrums nicht zu den Kernkompetenzen eines Unternehmens gehört, sollte die-se Aufgabe an einen externen Dienstleister übertragen werden“, rät Werner Vogels, Chief Technology Officer von Amazon. Somit hat der Kampf um die Wolke begonnen.

Economy Ausgabe 68-01-2009, 20.01.2009

Algorithmen mit Ausblick

Algorithmen mit AusblickNetflix

Ein steirisches Start-up will den Wettbewerb des US-Videoverleihers Netflix gewinnen. Die Teilnahme gerät zum Vollzeitjob. Doch bereits die Werbung, die dabei abfällt, könnte den Aufwand wert sein.

Es ist ein Garagenprojekt und liegt bei seiner ersten Zwischenzeit. Gemeinsam mit 30.000 Teilnehmern, darunter honorige Unternehmens- und Uni-Teams sowie Heerscharen einzelkämpfender Programmierer, tüfteln vier Steirer am „Netflix Prize“. Der amerikanische Video-verleiher Netflix will sein Filmempfehlungssystem auf Vordermann bringen und hat dazu einen Wettbewerb ausgeschrieben, der im Herbst 2011 zu Ende ist. Vorausgesetzt, eines der Teams erreicht das Ziel nicht früher: nämlich die Genauigkeit der derzeitigen Empfehlungen um zehn Prozent zu verbessern.
Seit Sommer sind die Köflacher Zweite in der Rangliste. Kurz davor gründeten sie das Unternehmen Commendo Research & Consulting. „Wenn man ganz vorne steht am Leaderboard, wird man von Firmen kontaktiert, die solche Lösungen brauchen“, erzählt Geschäftsführer Georg Preßler. „Solche Lösungen“ sind Programme, die auf maschinellem Lernen basieren, das wiederum das Herz sogenannter Recommender-Systeme ist.

Kinofilme per Post
Netflix ist eine Videothek mit über achteinhalb Mio. Kunden, jedoch ohne Geschäftslokale. Filme und Fernsehserien werden über die Website bestellt, auf dem Postweg verschickt oder über die Option „Watch Instantly“ (sofort ansehen) auf den Computer gestreamt. Die Empfehlungssoftware schlägt Kunden gemäß ihrer eigenen Bewertungen Filme vor. Das Prinzip scheint simpel: Wer etwa die Coen-Filme Being John Malkovich und Adaptation mit fünf Sternen versieht, bekommt unter anderem Wim Wenders’ Paris, Texas oder Dancer in the Dark von Lars von Trier vorgeschlagen. Doch Zusammenhänge hinsichtlich Genre, Regisseur und Schauspieler treffen nicht immer ins Schwarze.
Gleichzeitig hat die Treffsicherheit für Netflix einige Bedeutung. Benutzer bezahlen für ein Abo, das es ihnen erlaubt, Filme ohne zeitliche Beschränkung auszuleihen. Die Preise setzen sich aus der Anzahl der DVDs zusammen, die sich gleichzeitig anfordern lassen. Weil die Verträge jederzeit kündbar sind, macht ein gutes Empfehlungssystem den Kunden ständig Lust auf mehr und hält sie so bei der Stange.
Die Daten, die Netflix an die teilnehmenden Programmierer herausgibt, sind spartanisch: 500.000 anonymisierte Benutzerinfos ohne Hinweis auf Geschlecht oder sonstige Attribute, 18.000 Filmtitel und 100 Mio. abgegebene Bewertungen. Vorauszusagen ist ein Maximum von drei Mio. Bewertungen.
Der Wettbewerb bietet den Steirern die Möglichkeit, sich international zu messen. Mit dem Vorrücken auf die Top-plätze gelangte im Sommer der jährliche Zwischenpreis über 50.000 Dollar in Reichweite. Für die Sieger finden eine Pressekonferenz und ein Festakt zur Überreichung einer Plakette statt. Das bringt Öffentlichkeit: „Neben dem Geld, das man als junges Unternehmen gut gebrauchen kann, ist das fast gleich wichtig“, sagt Preßler.
Verliehen wird dieser Jahrespreis allerdings nur, wenn das Führungsteam zumindest eine einprozentige Steigerung zum besten Vorjahreswert vorweisen kann. Als sich abzeichnete, dass dies als Einzelteam nicht erreichbar war, schloss man sich kurzerhand mit Bellkor, drei Leuten aus den AT&T Labs, zusammen. Unter dem neuen Teamnamen „Bellkor in Big Chaos“ wurden Quellcode und Beschreibungen der Algorithmen zur Prüfung an Netflix geschickt.
Die Entscheidung über den Gewinn wird jeden Tag erwartet. Der Umfang der Koopera-tion ist jedoch genau abgesteckt: „Rein um diesen Zwischenpreis zu gewinnen“, stellt Preßler klar. Danach geht es alleine weiter. Auf den Sieger wartet am Ende immerhin eine Mio. Dollar.

Wettbewerb als Vollzeitjob
„Seit circa einem Jahr ist es auf jeden Fall mit einem Vollzeitjob zu vergleichen“, überschlägt Mitbegründer Andreas Töscher den zeitlichen Aufwand hinsichtlich der Teilnahme. Aber nicht ohne Nutzen. Abgeschlossene Projekte kann Commendo zwar noch keine vorweisen, doch erste Vorhaben bahnen sich an. Zuletzt erreichte das Unternehmen das Finale eines Start-up-Wettbewerbs bei einer Pharmakonferenz in Lau-sanne. Das Recommender-System eignet sich demnach auch, um in der ersten Phase einer Medikamentenentwicklung Wirkstoffe einzugrenzen, die positive Effekte hervorrufen. Mit einem Internet-TV-Anbieter ist das Unternehmen zudem über die Entwicklung personalisierter Fernsehprogramme im Gespräch.
Die Zeit, um im Bereich maschinelles Lernen Kompetenz aufzubauen, ist laut dem angehenden Telematiker Töscher günstig: „Denn das Gebiet ist alles andere als gut erforscht.“

Economy Ausgabe 67-12-2008, 18.01.2009

Riskanter Mikrokosmos

Riskanter MikrokosmosDPA/Ending

Wer kennt noch den Film Die phantastische Reise, in dem Menschen samt U-Boot auf Mikrobengröße verkleinert wurden? Nanotechnologen müssen sich beim Anschauen dieses Werks in die Steinzeit versetzt fühlen. Trotz aller Euphorie mehren sich kritische Stimmen aus den Reihen der Wissenschaftler. Warnrufe werden laut.

Es mutet an wie in Gullivers Reisen. Aus Zwergen werden Riesen und umgekehrt. Nur dieses Mal nicht in Form literarischer Fiktion, sondern in der realen Wissenschaft. Die Nanotechnologie, subventionsgefördertes Hätschelkind von Politik und Wirtschaft, ist in den letzten Jahren groß herausgekommen. Je nach Perspektive wird sie als heilsbringend oder segensreich beschrieben, ihre Entwicklung dementsprechend forciert.
Nano gilt als vielversprechende Zukunftstechnologie mit enormem Entwicklungs- und Anwendungspotenzial in vielen Industriesektoren und Lebensbereichen und stellt daher für die österreichische Forschung und Wirtschaft einen strategisch wichtigen Schwerpunkt dar. Das Weltmarktvolumen von Produkten, in denen Nanotechnologie eine Rolle spielt, liegt heute bei 100 Mrd. Dollar. Man rechnet mit Marktpotenzialen von bis zu einer Billion Euro im Jahr 2015. In der Grundlagenforschung zur Nanotechnologie liegen die USA, Japan und Deutschland – gemessen an den Forschungsausgaben im Verhältnis zum Bruttoinlandsprodukt – in etwa gleichauf.
In der Tat, die Nanotechnologie bietet ein riesiges Potenzial. Vor allem für klein- und mittelständische Unternehmen bieten sich große Chancen in der österreichischen Nanotechnologie. Insgesamt gibt es neben fünf nationalen Projekt-Clustern in Österreich auch außeruniversitäre und anwendungsorientierte Forschungseinrichtungen. Zwischen 2004 und 2006 wurden im Rahmen der Nanoinitiative 35 Mio. Euro zur Verfügung gestellt, 2007 11,7 Mio. und für 2008 waren 19 Mio. geplant.

Mehr Nebenwirkungen
Doch plötzlich ist der neue Forschungszweig von einem Virus infiziert, werden bei aller Fortschrittsgläubigkeit aus den eigenen Reihen verstärkt auch Stimmen laut, die auf Risiken und Nebenwirkungen verweisen. Deus ex machina.
Als Nanopartikel gelten Teilchen in einem Größenbereich zwischen einem und 100 Nanometern (ein Nanometer ist der millionste Teil eines Millimeters). Substanzen mit einer derartig feinen Verteilung nehmen völlig andere physikalisch-chemische Eigenschaften an, als derselbe Stoff sie als Festkörper von größerer Dimension besitzt. Das macht Nanopartikel für technische Anwendungen so außerordentlich interessant, aber auch unberechenbar.
Wissenschaftler, die auf diesem Gebiet tätig sind, sehen deutlich mehr Gefahrenpotenzial in der neuen Technologie als Laien. Das gilt insbesondere für mögliche Gesundheitsprobleme und Umweltverschmutzung, wie es in einer im Frühjahr in der Fachzeitschrift Nature Nanotechnology publizierten Arbeit heißt. Demnach seien Kohlenstoffnanorörchen, die sich zum Bau besonders leistungsfähiger Transistoren für die Elektroindustrie eignen, in entsprechenden Mengen aufgenommen, genauso krebserregend wie Asbest.
Wissenslücken hinsichtlich der Nanotoxikologie wurden plötzlich offensichtlich. Aufklärung tut not. Die OECD definierte 14 Nanomaterialien, die nun auf ihr gesundheitsschädliches Potenzial getestet werden. Auch in Österreich, wo Anfang 2008 in Graz das European Center for Nanotoxicology (Euronanotox) entstand, nimmt man das Thema Risikoforschung ernst. Euronanotox soll eine nationale Anlaufstelle mit internationaler Sichtbarkeit zum Thema Nanotoxikologie werden. Alle Aspekte der Humantoxikologie von nanostrukturierten Materialien sollen abgedeckt werden. Hierdurch wird der Wissenschaft und der Industrie schon zu einem frühen Zeitpunkt in der Produktentwicklung die Möglichkeit geboten, eine potenziell vorhandene Toxizität ihrer Materialien zu entdecken.

Risikominimierung
Durch Einbeziehung dieser Erkenntnis können die entsprechenden Materialien gezielt verbessert und ihre potenziellen Gefahren für die Umwelt verringert werden. Durch den Einsatz von standardisierten Methoden in einem qualitätsgesicherten Umfeld können so teure Fehlentwicklungen oder eine potenzielle Gefährdung bei einem späteren Einsatz verhindert werden.
Der Risikoforschung widmet sich auch das Institut für Technikfolgenabschätzung der Österreichischen Akademie der Wissenschaften mit dem Projekt „Nanotrust“: Die Analyse von Gesundheits- und Umwelt-risiken der Nanotechnologie, die die Nanoinitiative vom Infrastrukturministerium finanziert, soll bis 2010 mögliche Gefahren transparent machen und kommunizieren. Die Nanotechnologie könnte so zu einem bemerkenswerten Beispiel dafür werden, dass Wissenschaftler die Bevölkerung vor dem Gefahrenpotenzial ihrer eigenen Fachdisziplin warnen.

Economy Ausgabe 67-12-2008, 16.01.2009

Im Zeichen des Umweltschutzes

Im Zeichen des UmweltschutzesFotolia.com

IBM Österreich legt erstmals unternehmensinterne Umweltbilanz vor und hofft auf Nachahmer in der Branche.

Basierend auf einer vom IBM-Consulting-Bereich entwickelten Methode geht IBM Österreich selbst mit gutem Beispiel voran und präsentierte dieser Tage seine erste Umweltbilanz.
„Wir haben eine lange Tradition im Umweltschutz. Schon 1971 nahm IBM entsprechende Maßnahmen verpflichtend in die Geschäftsgrundsätze auf“, verweist Leo Steiner, Generaldirektor von IBM Österreich, auf den Status quo: „Der Umweltbericht kann die Fortschritte, die wir in den letzten Jahren erzielt haben, in Zahlen fassen und zeigt Möglichkeiten für weitere Verbesserungen auf.“
Die Erfahrungen, die IBM Österreich im Umweltbereich gesammelt hat, sollen auch anderen Firmen zur Verfügung stehen. „Wir erwarten, dass Umweltberichte in wenigen Jahren zu den Standard-Kennzahlen eines Unternehmens gehören“, so Steiner.

Zahlreiche Einsparungen
Der Tenor des Berichts lautet: Umwelt-Management bringt nur Erfolge, wenn es nachhaltig in die Unternehmensstrategie integriert ist. Bei einem Unternehmen wie IBM Österreich, bei dem keine Fertigung zu berücksichtigen ist, konzentriert sich die Umweltanalyse somit primär auf die Bereiche Gebäude, Verkehr und Rechenzentrum. So etwa konnte aufgrund der Umstellung auf flexible Arbeitsplätze und der Einführung von Telearbeit, aber auch durch eine komplett neue Klimatechnik und den Umbau der Fassade mit hinterlüftetem Glas und Sonnenschutz seit dem Jahr 2001 eine Reduzierung des Stromverbrauchs im IBM-Haus um mehr als 40 Prozent erzielt werden. Starke Reduktionen erreichte IBM auch in puncto Müll. Obwohl die Belegschaft im IBM-Haus seit 2003 um 17 Prozent zunahm, sank das Müllaufkommen in dieser Zeit um 36 Prozent.
Insgesamt konnte IBM Österreich von 2001 bis 2007 rund 33.800 Tonnen CO2 einsparen. „Wir sind mit dem Erreichten sehr zufrieden, wir haben unsere Hausaufgaben gemacht“, freut sich Steiner über das Ergebnis. Weitere umweltverträgliche Einsparungsmaßnahmen sollen im Laufe der nächsten Monate umgesetzt werden.

Links

Economy Ausgabe 69-02-2009, 15.01.2009

Grüne Welle in Unternehmen

Grüne Welle in UnternehmenFotolia.com

Astrid Krupicka: „In der Öffentlichkeit wächst das Bewusstsein, umweltschädliches Verhalten zu verändern. 
Das zeigt sich bei Kaufverhalten und Investitionsentscheidungen. Damit wird auch das Interesse für Green IT immer größer“, erklärt die Marketing-Direktorin von Alcatel-Lucent Enterprise Solutions für Österreich und Osteuropa.

economy: Immer häufiger be-gegnet man dem Begriff „Green IT“. Wie beeinflusst diese eigentlich die Geschäftsentscheidungen der Unternehmen?
Astrid Krupicka: In der 
Öffentlichkeit wächst das Bewusstsein, umweltschädliches Verhalten zu verändern. Dies zeigt sich bereits beim Kaufverhalten und bei Investitionsentscheidungen. Daher überrascht es nicht, dass das Interesse für „Green IT“ zunehmend größer wird. Einer von McKinsey & Co erschienenen Studie zum Thema zufolge betrachten 70 Prozent der Führungskräfte weltweit Klimaschutz als einen extrem wichtigen Faktor bei der Pflege ihres Unternehmens- und Markenimages. Beachtliche 60 Prozent sehen einen Zusammenhang zwischen Umweltverträglichkeit und Rentabilität.

Welche Beweggründe gibt es noch, in Informations- und Kommunikationstechnologie (IKT)-Syste-men nachhaltigen Umweltschutz zu forcieren?
Strategien, die Umweltschutz und Nachhaltigkeit einbeziehen, haben sich nicht nur als erfolgreich bei der Reduzierung der Emissionen und Abfallprodukte von Unternehmen erwiesen. Es hat sich gezeigt, dass diese Strategien kostengünstiger und wettbewerbsfähiger sind. Für Unternehmen existieren drei Gründe, das Ziel eines „nachhaltigen Umweltschutzes“ in ihren IKT-Systemen zu verfolgen. Das sind 1. steigende Energiekosten, 2. begrenzte Energieressourcen und 3. die Notwendigkeit für umweltfreundlicheres Verhalten aufgrund von Bestimmungen, Kundenwünschen oder einer gestiegenen Unternehmensverantwortung.

Was tragen die Kommunika-tionslösungen von Alcatel-Lucent zum Umweltschutz bei?
Als konkretes Beispiel übernimmt unser PoE Switch 6850 eine Vorreiterrolle in Bezug auf Umweltschutzanforderungen. In einem von Network World durchgeführten Vergleichstest erreichte der OmniSwitch 6850 von Alcatel-Lucent im Hinblick auf den Energieverbrauch den ersten Platz. Im Ruhemodus verbrauchte er nur 79 Watt. Dem Kunden verhelfen diese Werte zu einer günstigeren Stromrechnung und tragen außerdem aktiv zum Umweltschutz bei. Aufgrund der Testergebnisse wurde Alcatel-Lucent mit den „Green Bragging Rights“ für sein Produkt ausgezeichnet.

Links

Economy Ausgabe 69-02-2009, 15.01.2009

Eleganter elektronisch buchen

Eleganter elektronisch buchenFotolia.com

Über Internet abgewickeltes E-Payment ersetzt zusehends herkömmliche Zahlungsmethoden.

Obwohl es immer noch Menschen geben soll, die versuchen, Euroscheine in die CD-Lade ihres Computers einzuführen, liegt es in der Natur der Sache, dass Käufe in Webshops im Internet bargeldlos abgewickelt werden. Der gesamte Einzelhandelsumsatz im Internet in Österreich wird für 2008 auf rund 740 Mio. Euro geschätzt. Die Hälfte davon sind echte E-Payment-Zahlungen, bei denen der Vorgang tatsächlich durchgängig internetbasiert abläuft und die eingegebenen Daten in Echtzeit überprüft werden. Der Markt für echtes E-Payment wächst jährlich um 20 bis 25 Prozent.
Als Schnittstelle zwischen Kreditkartengesellschaften und Unternehmen, die in Onlineshops Kreditkartenzahlungen akzeptieren, fungieren Payment Service Provider, kurz PSP, die die technische Seite der Zahlungsabwicklung übernehmen. Mit mehr als 270 Mio. Euro Umsatz im Jahr 2008, einer Steigerung von mehr als 25 Prozent gegenüber 2007, ist Qenta in Österreich eindeutiger Marktführer in diesem Sektor.
Zur ITnT möchte Qenta-Geschäftsführer Thomas Grabner eine Neuheit präsentieren: „Haus- und Wohnungsverlosungen sind derzeit in aller Munde. Diese können speziell bei Überzeichnungen wegen der dann notwendigen Rück-buchungen zu einem hohen Verwaltungsaufwand führen. Wir bieten nun eine vollautomatisierte Zahlungsabwicklung an: Sollten mehr Lose als vor-handen verkauft werden oder eine Versteigerung wegen zu geringer Nachfrage nicht zustandekommen, übernehmen wir von Qenta die gesamte Rückabwicklung. Vor Kurzem mussten wegen einer Überzeich-nung 5000 Einzahlungen aufwen-dig händisch rücküberwiesen werden; im Gegensatz dazu läuft mit unserer Lösung so was vollkommen automatisiert ab.“

Links

Economy Ausgabe 69-02-2009, 15.01.2009

Bargeldloses Zahlen ohne Krise

Bargeldloses Zahlen ohne KrisePayLife

Ob im Restaurant, im Supermarkt oder beim Webshopping: Das Plastikgeld für Bezahlvorgänge erfreut sich in Österreich steigender Beliebtheit, daran wird auch die aktuelle Wirtschaftslage nichts ändern.

Mehr und mehr schätzen die Österreicherinnen und Österreicher die Annehmlichkeiten des bargeldlosen Bezahlens. Das zeigen auch die weiter steigenden Transaktions- und Umsatzzahlen der Paylife Bank. Als Partner für die „Trendsetter“ Maestro, Master Card und Visa ist die Paylife Bank der größte Universalanbieter für bargeldloses Bezahlen in Österreich.
Mit den rund 9 Mio. von Paylife ausgegebenen und servicierten Zahlungskarten wurden 2008 rund 945 Mio. Transaktionen getätigt, 6,9 Prozent mehr als 2007. Das gesamte Trans-aktionsvolumen, sprich: der Umsatz von Paylife, betrug 33,1 Mrd. Euro, eine Steigerung gegenüber 2007 um 6,3 Prozent. Die Hälfte davon (16,6 Mrd. Euro) wurden beim Bezahlen am Point of Sale umgesetzt, ein Plus von 7,9 Prozent gegenüber 2007.

Die nächste Generation
Auch das Neugeschäft erfüllte die Erwartungen von Peter Neubauer, Vorsitzender der Geschäftsführung von Paylife: „Wir können voller Zufriedenheit auf das Jahr 2008 zurückschauen. Mit rund sechs Prozent haben wir einen starken Zuwachs beim Kreditkartenverkauf erzielt. Wir konnten die Anzahl der verkauften Prepaid-Produkte um 55 Prozent steigern und halten heute bei rund 60.000 Paylife-Prepaid-Karten.“
Auch auf der Terminal-Seite sieht Neubauer sein Unternehmen gut aufgestellt. Insgesamt hat Paylife bis heute 106.000 POS-Terminals auf den Markt gebracht, davon 16.000 Stück der neuen stationären und mobilen Paylife-Bankomat-Kasse Next Generation, die bereits den Anforderungen der Single Euro Payments Area (Sepa) entspricht. Eine genaue Prognose für 2009 will Neubauer aufgrund der unsicheren wirtschaftlichen Rahmenbedingungen nicht abgeben, aber er ist überzeugt, dass der Trend zum bargeldlosen Zahlen weiter anhalten wird; ein starkes Argument dafür sei nicht zuletzt das längere Zahlungsziel, das die Bezahlung mit Kreditkarten den Kunden biete. Paylife rechnet deshalb für 2009 mit einem Trans-aktionsplus mit Zahlungskarten von sieben bis neun 
Prozent.

Shopping im Internet
Um die spezielle Anwendung des bargeldlosen Bezahlens im Internet noch sicherer zu machen, haben die großen Kre-ditkartengesellschaften vor einigen Jahren ein mehrstufiges, sicheres Zahlungsverfahren auf Basis der 3D-Secure-Technologie eingeführt: Master Card Secure Code, Maestro Secure Code und Verified by Visa. Durch dieses Verfahren weist sich der Karteninhaber bei Bekanntgabe seiner Kartendaten mit einem Passwort aus, wodurch Missbrauch mit Kartendaten faktisch ausgeschlossen ist. Dadurch steigt sowohl die Sicherheit des Kunden, der seine Kartendaten mit einem Passwort schützt, als auch die Sicherheit des Händlers, da er für diese Transaktionen eine Zahlungsgarantie erhält.

Links

Economy Ausgabe 69-02-2009, 15.01.2009

Bilder für Wirtschaft und Wissenschaft

Bilder für Wirtschaft und WissenschaftFotolia.com

Visual Computing gilt angesichts der immer größer werdenden Datenmengen als eine Schlüsseltechnologie.

Ein Bild sagt bekanntlich mehr als tausend Worte. Umso mehr gilt das für Sparten, in denen man ansonsten mit Unmengen an Zahlen, technischen Berechnungen, hochkomplexen Inter-aktionen und dergleichen konfrontiert ist. Zig Mio. Daten auf einen Blick zu präsentieren ist – vereinfacht ausgedrückt – die Hauptaufgabe beziehungsweise Intention von Visual Computing. In Wien gibt es bereits seit geraumer Zeit das Zentrum für Virtual Reality und Visualisierung Forschungs GmbH (VRVis), dessen Forschungsschwerpunkt auf dem Bereich Visual Computing liegt. Darunter versteht man die Erforschung von Software-Algorithmen sowie das optimale Zusammenspiel von Soft- und Hardware, um aus Daten aussagekräftige Bilder zu generieren.
Forschungsprojekte am VRVis behandeln Daten aus Bereichen wie Motorensimula-tion, medizinische Computertomografie und Magnetresonanz, Luftbildaufnahmen, Laserscans, Finanzmarktdaten und Erdölexplorationsdaten. Kurzum: Visual Computing ist eine Querschnitts-technologie. Dies bedeutet, dass es nicht einen fixen Industriebereich für die Anwendung der Forschungsergebnisse gibt, sondern vielmehr zahlreiche Märkte, die das Werkzeug Computergrafik einsetzen.

Internationale Teams
Bei seiner Arbeit setzt das Team von VRVis auf enge Zusammenarbeit mit zahlreichen Wissenschaftseinrichtungen, darunter das Institut für Computergrafik und Algorithmen an der Technischen Universität Wien sowie das Institut für Maschinelles Sehen und Darstellen an der Technischen Universität Graz. Auf internatio-naler Ebene wurden bereits erfolgreich Projekte mit Virginia Tech, ETH Zürich, IGD Darmstadt und der Universität Bergen abgewickelt. Mit der US-amerikanischen Universität Harvard läuft derzeit eine Kooperation in Sachen Computertomografie. Konventionelle Computertomografie-Bilder haben eine Standardauflösung von 1000 mal 1000 Datenpunkten. Nunmehr erarbeitete Sys-teme hingegen bringen es auf 40.000 mal 40.000 Punkte. Der praktische Nutzen liegt darin, dass sich anhand dieser hochauflösenden Bilder das Verhalten einzelner Zellen exakter beobachten und erforschen lässt.

Virtuelle Welten
Auf der ITnT wird VRVis gemeinsam mit dem Spin-off SimVis aktuelle Trends und Ergebnisse aus der Visual-Computing-Forschung präsentieren. Besucher werden selbst durch virtuelle Welten navigieren, medizinische Bilddaten analysieren oder komplexe Daten interaktiv explorieren können.

Links

Economy Ausgabe 69-02-2009, 15.01.2009

Pages