Web 2.0

Seit 2004 geistert der Begriff Web 2.0 durch die Welt. Google findet im November 2006 immerhin 98 Millionen Treffer zu diesem Thema. Web 2.0 scheint also weitaus mehr, als ein bloßer Hype zu sein und lässt das „alte Web“ überholt aussehen. Es dreht sich dabei alles um Interaktivität im World Wide Web, die es allerdings schon seit der Einführung der Formulare für HTML (Hypertext Markup Language = textbasierte Auszeichnungssprache zur Strukturierung von Inhalten wie Texten, Bildern und Hyperlinks in Dokumenten) gibt. [1]
Der Begriff Web 2.0 wurde vom O'Reilly-Verlag in Zusammenarbeit mit Media-Live International kreiert. Der Grund dafür war die Benennung einer neuen Konferenz. Inzwischen hat sich der Begriff Web 2.0 zu einem sehr bekannten, wenn auch extrem kontrovers diskutierten Schlagwort entwickelt. So befürchten nicht wenige eine übertriebene Euphorie, ähnlich wie zu Zeiten der New Economy und das damit einhergehende Risiko von Verlusten, da sie prinzipiell keine grundlegenden bzw. entscheidenden Veränderungen im Internet feststellen können. New Economy bezeichnet in diesem Zusammenhang eine durch die zunehmende Globalisierung geprägte Wirtschaftsform, die durch das Aufkommen neuer Kommunikationswege (weltweite Vernetzung durch Computer) entstehen sollte.
Andererseits ist es offenkundig, dass das Internet in den vergangenen Jahren einen Wandel vollzogen hat, für den der Begriff Web 2.0 steht. Genau wie der Begriff ist jedoch umstritten, welche Entwicklungen dem Web 2.0 zugeordnet werden können. Es handelt sich somit viel mehr um einen fließenden Prozess und nicht um ein „völlig neues Internet“.
Der Zusatz 2.0 entstammt der Software Entwicklung. Die verschiedenen Versionen eines Computer Programms werden in der Regel aufsteigend durchnummeriert. Dabei lässt eine Erhöhung der Nachkommastelle auf geringfügige, die Zahl vor dem Komma auf grundlegende Veränderungen des Programms schließen. Ändert sich die Nachkommastelle eines Programms, handelt es sich meistens um Fehlerkorrekturen, da die .0er Versionen häufig noch Fehler enthalten, die in den Folgeversionen behoben wurden.
Aus diesem Grund erscheint vielen der Begriff Web 2.0 auch unangemessen, da es das Internet nicht in Versionen gibt und auch kein offizielles Web 1.0 bekannt ist. [2]

1 Entwicklung

Das World Wide Web wurde 1989 von Tim Berners-Lee am CERN (Conseil Européen pour la Recherche Nucléaire = Europäische Organisation für Kernforschung) entwickelt. Das Wachstum war zu Beginn jedoch recht gering und nur wenige Firmen erkannten die potentiellen Vorteile des Internets. Ähnliches war auch in den Haushalten zu beobachten. Private Internetanschlüsse besaßen in den ersten Jahren nur die Wenigsten.
Das Layout der damaligen Webseiten war in dem meisten Fällen weder ansprechend noch einheitlich. Sie waren rein statisch, das heißt, sie wurden einmal programmiert, auf einen Internet Server übertragen und stehen schließlich im Internet zur Verfügung. Da sich ihr Inhalt nicht ändert, was jedoch nicht bedeutet, dass er sich nicht ändern lässt, werden sie als statische Internetseiten bezeichnet.
Durch die verbesserte Hardware, die schnelleren Verbindungsgeschwindigkeiten sowie neuen Technologien konnten auch die Angebote im Web angepasst werden. Internetseiten wurden dynamisch und konnten auf Benutzereingaben reagieren.
Auch die Gestaltung der Webseiten schritt voran. Entscheidend dafür war 1994 die Gründung des World Wide Web Consortiums (W3C). Dieses Konsortium ist ein Zusammenschluss führender Unternehmen, dessen Gründer und Vorsitzender Tim Berners-Lee ist. Das Gremium fördert die Entwicklung einheitlicher Standards und Technologien im Web. Die standardisierte grafische Gestaltung von Internetseiten wurde durch die von der W3C 1996 veröffentlichten Cascading Style Sheets (CSS) ermöglicht.
Die Unterschiede zwischen dem ersten und dem zweiten Web hat O'Reilly durch folgende Liste mit Gegenüberstellungen formuliert:

Tab.1: Web 1.0 vs. Web 2.0:

Web 1.0 Web 2.0
DoubleClickGoogle AdSense
OfotoFlickr
AkamaiBitTorrent
mp3.comNapster
Britannica OnlineWikipedia
personal websitesblogging
eviteupcoming.org and EVDB
domain name speculationsearch engine optimization
page viewscost per click
screen scrapingweb services
publishingparticipation
content management systemswikis
directories (taxonomy)tagging („folksonomy“)
stickinesssyndication


2 Definition

Es ist nicht einfach, einen so ungenauen Begriff wie Web 2.0 zu definieren, weshalb kontroverse Ansichten niemanden überraschen sollten. Ungeachtet dessen sollen die Grundelemente des Web 2.0 an dieser Stelle vorgestellt werden. Die abgebildete Meme Map von O'Reilly (Abb. 1) soll den Einstieg in die Thematik erleichtern.

Abb. 1: Meme Map (http://farm4.static.flickr.com/3321/3623447002_007aeca9d1.jpg)

Die folgende Definition bezieht sich grundsätzlich auf einen Artikel von Tim O'Reilly mit dem Titel „What is Web 2.0?“ (Originalversion: http://www.oreilly.de/artikel/web20.html).

In seinem Artikel geht O'Reilly von sieben konstitutiven Merkmalen aus, an denen erkennbar ist, dass einen Internetseite dem Web 2.0 zuzuordnen ist. Es wird allerdings deutlich betont, dass nicht alle Merkmale ausgeprägt sein müssen. So kann es ausreichend sein, wenn ein einziges Merkmal stark ausgeprägt ist, als wenn alle sieben dagegen eher eine mäßige Ausprägung aufweisen. [2]

2.1 The Web as platform

Das Internet soll von einer Internetanwendung als Plattform genutzt werden. Diese Aussage trifft allerdings auch auf jede statische Internetseite zu. Gemeint ist vielmehr, dass komplexe Programme inzwischen auch im Internet ausgeführt werden können und somit nicht ausschließlich auf einem lokalen Computer. Dennoch benötigen Anwender nach wie vor eine Desktop Applikation, die es ermöglicht, die erforderliche Internetseite zu erreichen. In der Regel handelt es sich dabei um einen Internet-Browser. Ausschlaggebend sollte aus diesem Grund also eher sein, inwieweit sich eine Anwendung ohne Zugang zum Internet sinnvoll ausführen lässt. [2]

2.2 Harnessing Collective Intelligence

Ein zentraler und häufig genannter Faktor bezüglich des Web 2.0 ist, sich die gemeinschaftliche Intelligenz aller Internetnutzer zu Nutze zu machen.
Das im Internet vorhandene Wissen sollte von den bereits bestehenden Internetseiten nutzbar gemacht werden. Die einfachste Möglichkeit dies zu realisieren, sind Verlinkungen. Eine erfolgreiche Internetrecherche wird zudem durch die Verwendung effektiver Suchalgorithmen wesentlich erleichtert. Auch der Aufwand für die Suche nach aktuellen Informationen kann durch die Benutzung von eventuell bereitgestellten RSS-Feeds verringert werden. Auch kann der Internetnutzer selbst direkt dazu aufgefordert werden, sein Wissen auf einer entsprechenden Internetseite zur Verfügung zu stellen und einer breiten Masse zugänglich zu machen. Für den Betreiber einer solchen Seite (z.B. eines Forums) ist vorteilhaft, dass nach Bereitstellung eines derartigen Angebotes nur wenig Aufwand betrieben werden muss. Die Aussagekraft der vom Internetnutzer zur Verfügung gestellten Informationen ist natürlich von dessen Aufrichtigkeit und Fachwissen abhängig. [2]

2.3 Data is the next Intel Inside

Aufgrund von „Best Practice“ und der Wiederverwendung bestehender Komponenten anderer Webseiten kommt es dazu, dass sich viele Seiten im Internet stark ähneln. Ein Anbieter kann sich demzufolge lediglich mit den hinterlegten Daten von anderen Webauftritten abgrenzen. Deutlich wird dies bei den verschiedenen Kartendiensten. Die Technik, die diesem Dienst zugrunde liegt, kann von einem konkurrierenden Anbieter mühelos kopiert werden. Lediglich durch besseres Kartenmaterial besteht die Möglichkeit, sich erfolgreich abzusetzen.
Die bereits dargestellte Nutzung der kollektiven Intelligenz kann im Zusammenhang mit der Schaffung einer einzigartigen Datenbasis erfolgversprechend verwendet werden. Dies kann ähnlich wie bei Wikipedia (Online Enzyklopädie, bei der jeder Internetbenutzer Artikel sowohl lesen als auch schreiben und bearbeiten kann) die einzige angebotene Leistung sein, aber auch ein ergänzendes Angebot, wie im Fall von Amazon (Social-Commerce-Versandhaus) mit den Kundenrezensionen, die einen strategischen Geschäftsvorteil ausmachen, da von Käufern getätigte Aussagen in der Regel glaubwürdiger wirken als die Werbeversprechungen der entsprechenden Unternehmen. [2]

2.4 End of the Software Release Cycle

Etliche Angebote werden zu Zeiten des Web 2.0 lediglich als Beta Versionen (unfertige Versionen von Computerprogrammen, die vom Hersteller zu Testzwecken herausgegeben werden, um eventuell vorhandene Fehler zu entdecken) online zur Verfügung gestellt. Exemplarisch können hierzu Google Mail (kostenloser E-Mail Dienst der Goole Inc.) und Google Docs (eine von Google Inc. angebotene, internetbasierte Anwendung zur Textverarbeitung, Tabellenkalkulation und Präsentation) gezählt werden. Die Entwickler haben dadurch den Vorteil, dass diese Version von einer immens großen Anzahl an Personen getestet werden kann, wodurch eventuelle Fehler aufgedeckt werden können. Oftmals werden die Besucher einer entsprechenden Webseite zudem als kostenlose Mitarbeiter eingesetzt. [2]

2.5 Lightweight Programming Models

Bei der Entwicklung von Desktop-Applikationen wird nach wie vor eine stärkere Ausprägung von komponentenbasierter Softwareentwicklung gefordert. Im Bereich von Internetseiten ist dies bereits seit längerem die übliche Praxis. So ist die Nutzung und Wiederverwendung kleinerer Services auch unabhängig voneinander möglich. Durch die Offenlegung der Schnittstellen zu Web Services verschiedener Anbieter können diese von jedem Seitenbetreiber genutzt werden. Die Wiederverwendung bestehender Komponenten (einfache HTML-Fragmente, RSS- oder AJAX-Anwendungen) ist durch die recht geringen Barrieren relativ unkompliziert. Da bei den einfachsten Web Services ausschließlich standardisierte Daten bereitgestellt werden, müssen sich die Entwickler keine Gedanken darüber machen, was beim Nutzer mit diesen Daten passieren soll. [2]

2.6 Software Above the Level of a Single Device

Die Forderung, dass eine Internetsoftware auf mehr als einem Gerät laufen soll, wurde prinzipiell schon mit der ersten Webseite, die online ging, erreicht, denn bei einem erfolgreichen Zugriff sind mindestens zwei Geräte (Server: stellt Seite zur Verfügung; Client: ruft sie aus dem Internet auf und lädt sie) beteiligt. Doch auch hier wird sich das Internet nach O'Reillys Ansicht zukünftig weiter entwickeln, so dass auch Autos in absehbarer Zeit über einen Internetanschluss verfügen und entsprechende Angebote nutzen sowie Daten übermitteln. [2]

2.7 Rich User Experience

In der Vergangenheit erregten Ajax-nutzende Anwendungen viel Aufmerksamkeit, nachdem mit Applets oder Flash gestaltete Funktionalitäten inzwischen eher schon zum Standard gehören. Des Weiteren sollte an dieser Stelle die Internettelefonie (Voice over IP) genannt werden.
Aufbauend auf erprobten Technologien werden zukünftig wohl noch weitere, vor einiger Zeit noch unvorstellbare, Anwendungen online gestellt werden. [2]

2.8 Weitere Definitionsversuche

Wie bereits erwähnt, wird der Begriff Web 2.0 sehr kontrovers diskutiert. Eine extrem vereinfachte Ansicht geht davon aus, dass das Web 1.0 die Computer verbunden hat und das Web 2.0 letztendlich die Menschen, was bei genauerer Betrachtung jedoch etwas übertrieben wirkt, da das Internet ursprünglich für den Gebrauch durch Menschen konzipiert wurde.
So genannte Communities, in denen sich verschiedene Benutzer zusammen schließen, um mit anderen Mitgliedern dieser Gemeinschaft zu interagieren, stellen derzeit einen aktuellen Trend dar. Solche Communities können geschäftlichen (z.B. XING: webbasierte Plattform, in der Personen ihre vorwiegend geschäftlichen Kontakte zu anderen Personen verwalten können) oder privaten Interessen (Single-Börse) dienen.
Eine definitive Zuordnung eine Seite zum Web 2.0 ist jedoch nicht immer möglich, da es trotz aller Versuche keine einheitliche Definition des Begriffs gibt. Allen Ansätzen ist aber gemein, dass das Internet einen enormen Wandel vollzogen hat und das Schlagwort Web 2.0 einen signifikanten Fortschritt kennzeichnet. [2]

3 Technologien

An dieser Stelle soll kurz auf die Technologien eingegangen werden, die einen maßgeblichen Einfluss auf die Weiterentwicklung der Möglichkeiten des Internets in den letzten Jahren hatten.

3.1 AJAX

Die am häufigsten thematisierte Technologie im Zusammenhang mit dem Web 2.0 ist ganz eindeutig AJAX. AJAX ist ein Akronym für Asynchronous JavaScript and XML.
Mit Hilfe von AJAX ist das Neuladen einer Internetseite nicht mehr nötig, sondern es wird lediglich ein bestimmter Teil der Seite Nachgeladen.
Gibt man in seinen Webbrowser eine Adresse ein, wird eine Verbindung zu dem entsprechenden Webserver hergestellt und die Seite letztendlich geladen. Weist die aufgerufene Seite nun beispielsweise links eine Navigationsleiste auf und rechts einen Text, so besteht die Möglichkeit, durch Klicken auf einen Punkt in der Navigationsleiste eine neue Seite zu laden. Links befindet sich nun wieder die Navigationsleiste und rechts ein neuer Text. Dieser Text ist aber das Einzige, was sich im Vergleich zur vorhergehenden Seite geändert hat. Trotzdem musste die komplette Seite neu geladen werden. AJAX verfolgt nun das Ziel, nur den „neuen“ Text zu laden und ihn in die bereits bestehende Seite an einer bestimmten Stelle einzufügen. Ein Neuladen der kompletten Seite ist somit nicht mehr notwendig. Dadurch gewinnen Weboberflächen mit AJAX enorm an Geschwindigkeit. [3]

3.2 RSS

RSS ist ein Akronym, das je nach Interpretation entweder für RDF Site Summary, Really Simple Syndication oder Rich Site Summary steht. Da sich bestimmte Internetseiten häufiger verändern, muss der Nutzer auch entsprechend oft auf diese schauen, um nach Neuigkeiten zu suchen. Mit Hilfe von RSS ist dies allerdings nicht mehr notwendig, da er sich, vorausgesetzt der Seitenbetreiber stellt einen entsprechenden Dienst zur Verfügung, für diesen registrieren kann und somit von seinem RSS Reader über eventuelle Neuigkeiten informiert wird.
Die Daten werden RSS Feed genannt, dessen wichtigste Inhalte der Titel, eine Kurzbeschreibung des Inhalts sowie ein Link zur der entsprechenden Seite sind. [2]

3.3 Web Services

Können Anwendungen über ein Internetprotokoll von anderen Anwendungen aufgerufen werden, so spricht man von Web Services. Die aufzurufende Routine muss dabei über eine eindeutige URI (Uniform Resource Identifier; werden beispielsweise zur Bezeichnung von Webseiten verwendet) identifizierbar sein. Prinzipiell handelt es sich dabei also um die Kommunikation zweier Maschinen, die in der Regel automatisiert stattfindet.
Mit Hilfe von Web Services ist es also möglich, dass auf einer Internetseite mehr Funktionen angeboten werden können, welche mitunter auch von anderen Anbietern stammen. Ein anschauliches Beispiel ist der Web Service der Suchmaschine Google, die von jedem Betreiber in die eigene Internetseite eingebunden werden kann. Weiterhin ist es möglich, dass Desktop-Applikationen Funktionen nutzen können, die im Internet zur Verfügung gestellt werden und sich nicht auf dem eigenen Rechner befinden. [2]

4 Beispiele aus der Praxis

An dieser Stelle sollen ausgewählte Praxisbeispiele, die weitestgehend auch den genannten Kriterien von O'Reilly entsprechen, vorgestellt werden.

4.1 Wikipedia

Wikipedia ist ein Online-Lexikon, das 2001 ins Internet gestellt wurde. Der Name ist ein Kunstwort aus dem hawaiianischen wikiwiki, was soviel wie schnell bedeutet und encyclopedia.
Das Besondere an Wikipedia ist, dass praktisch jeder Besucher dieser Seite einen neuen Eintrag schreiben bzw. einen bestehenden verändern oder ergänzen kann. Nicht zuletzt deshalb gilt Wikipedia als Paradebeispiel für die erfolgreiche Nutzung der kollektiven Intelligenz. Genau darin liegt allerdings auch die Gefahr, da man sich der Richtigkeit der Angaben des jeweiligen Artikels nicht sicher sein kann und auf das Wissen des Autors vertrauen muss. Durch die enorme Nutzung unterliegen die Artikel aber auch einer ständigen Kontrolle, die jedoch auch begrenzt ist, sobald es um Wissen geht (Fachwissen), das nur wenigen Menschen zur Verfügung steht.
Wie weit so etwas gehen kann, zeigt das Beispiel des Abgeordneten der Linken Lutz Heilmann. Dieser hat eine einstweilige Verfügung gegen Wikimedia Deutschland e.V. erwirkt, weil in einem Wikipedia Artikel zu lesen war, dass die Immunität des Abgeordneten aufgehoben worden sei, da er einen Bekannten per SMS bedroht haben soll. [4]
Wikipedia ist hilfreich, um sich einen ersten Überblick zu einer Thematik zu verschaffen. Die Eignung bezüglich wissenschaftlicher Recherchen ist eher gering.
Für die Zukunft ist geplant, die einzelnen Artikel inhaltlich zu überprüfen und in einer statischen Version von Wikipedia online zu stellen. [2]

4.2 Writely

Writely ist ein Online-Textverarbeitungsprogramm, das es Benutzern, die bei Google registriert sind ermöglicht, Textdokumente oder Tabellenkalkulationen online zu bearbeiten. Die Funktionen ähneln denen der Microsoft Office bzw. Open Office Produkte. Die Daten werden dabei auf einem Server der Google Inc. gespeichert und der Benutzer entscheidet, ob jemand respektive wer diese einsehen oder bearbeiten darf. Weiterhin wird ein Im- und Export der gängigen Formate (z.B. doc) angeboten.
Für vertrauliche Dokumente ist Writely eher ungeeignet, da der Benutzer nicht weiß, wie diese gesichert sind bzw. welche Google-Angestellten Zugriff auf diese haben. [2]

4.3 Flickr

Flickr ist ein Kunstwort - es leitet sich von to flick through something (etwas durchblättern) ab und stellt ein Online-Bilderarchiv dar, dass es Benutzern ermöglicht, private Bilder auf den Server der Webseite zu laden. Diese sind schließlich unter einem Alias auf einer separaten Seite zu sehen und können kommentiert werden, sofern der Account-Inhaber die Fotos der Öffentlichkeit zugänglich macht, was für jedes Bild einzeln festgelegt werden kann. Zudem ist es möglich, den Fotos beliebig viele Schlüsselwörter (Tags) zuzuordnen, um den Inhalt zu kategorisieren. Diese Tags können dann als Suchindex verwendet werden. Zusätzlich können sich die Flickr Mitglieder als Freunde kennzeichnen und Nachrichten verschicken. [2]

4.4 Blogs

Der Begriff Blog setzt sich aus Web und Log zusammen und stellt demzufolge ein Online-Tagebuch dar. Der Blogger stellt in regelmäßigen Abständen neue Einträge online, die in den meisten Fällen von anderen Besuchern kommentiert werden können.[2]

5 Risiken

Trotz der Begeisterung ist an manchen Stellen in Bezug auf das Web 2.0 Vorsicht geboten. Wie am Beispiel Wikipedia bereits erläutert wurde, ist das Vertrauen in die kollektive Intelligenz nicht immer gerechtfertigt. Ein weiteres Risiko birgt die teils unbewusste und unbedachte Preisgabe der persönlichen Daten, weshalb es sinnvoll erscheint, genau zu überlegen, welche Angaben man der Öffentlichkeit über sich selbst zur Verfügung stellt. Zu bedenken ist dabei, dass die Daten über Jahre hinweg gespeichert bleiben können. Interessant ist auch, dass sich inzwischen sogar viele Arbeitgeber über ihre zukünftigen Angestellten online informieren und gegebenenfalls Online Profile bei StudiVZ, MySpace, Facebook usw. überprüfen.[5]
Das Web Application Security Consortium (WASC) stellte außerdem fest, dass Angriffe auf das Web 2.0 2009 signifikant zugenommen haben. Mit 19 Prozent aller Vorfälle sind Seiten, die dem Web 2.0 zugeordnet werden können, das bevorzugte Ziel der Cyberkriminellen, was zum einen daran liegt, dass solche Plattformen große Benutzerzahlen aufweisen und zum anderen viele Angriffsmöglichkeiten bieten.[6]

6 Zusammenfassung und Ausblick

Internetseiten lassen sich anhand folgender Kriterien dem Web 2.0 zuordnen:

- Internet als Plattform
- Teile der Seite werden von Benutzern generiert
- Anwendung besitzt einzigartige Datenbasis
- ständige Weiterentwicklung
- Funktionalitäten können plattformübergreifend genutzt werden
- Benutzer werden in eine Gemeinschaft integriert

Zu den typischen Technologien des Web 2.0 gehören AJAX, RSS und Web Services, die den Gebrauch des Internets aufgrund der beschriebenen Eigenschaften wesentlich angenehmer gestalten.
Trotzdem sollten auch die potentiellen Gefahren, die vom Web 2.0 ausgehen, berücksichtigt werden.

Derzeit wird bereits an der Entwicklung des Web 3.0, dem Semantic Web, gearbeitet. Dabei sollen alle wesentlichen Informationen einer Webseite mit Angaben zu ihrer Bedeutung versehen werden (Metadaten). Mit Hilfe der Metadaten können Computerprogramme gezielt nach ganz bestimmten Informationen suchen (jenseits der Volltextsuche). Inhalte haben jedoch nicht nur eine Bedeutung, sondern stehen auch in Beziehung zu anderen Bedeutungen, die Klassen bilden oder sich gegenseitig ausschließen können (z.B. ein LKW ist ein Auto, aber kein PKW oder Geländewagen).

Quellen

[1] iX Special 1/07
[2] Günther, O., Karl, W., Lienhart, R. & Zeppenfeld, K. (2008). Web 2.0. Berlin: Springer.
[3] Carl, D. (2006). Praxiswissen AJAX. O'Reilly Verlag.
[4] http://www.stern.de/digital/online/wissens-datenbank-linke-politiker-legt-wikipediade-lahm-645808.html (Zugriff: 31.08.2009)
[5] http://winfuture.de/news,42241.html (Zugriff: 02.09.2009)
[6] http://www.heise.de/newsticker/WASC-sieht-Web-2-0-im-Visier-der-Angreifer--/meldung/143731 (Zugriff: 02.09.2009)


Eigene Werkzeuge