Vernoe13 04

aus Lehrwiki, der freien Wissensdatenbank
Wechseln zu: Navigation, Suche

Sitzung 4: Die technischen Grundlagen vernetzter Öffentlichkeiten

Zurück zur Übersicht.

Worum geht es?

Vernetzte Öffentlichkeiten basieren auf Hardware und Software, die eine eigene strukturierende Kraft besitzen.

  • Wie beeinflussen Algorithmen, Benutzeroberflächen und Schnittstellen Nutzung und Gestalt vernetzter Öffentlichkeiten?
  • Kontrollieren wir die Technik, oder kontrolliert die Technik uns?
  • Wer bestimmt, wie es mit den technischen Grundlagen des Internet weiter geht?


Zu Gast: Jeannette Hofmann

Weiterführende Literatur und Links

Literatur aus den Folien

  • Abbate, Janet (1999): Inventing the internet. Cambridge.
  • Gillies, James/Robert Cailliau (2000): How the Web was born. Oxford.
  • Gillespie, Tarleton (2013): The Relevance of Algorithms. Erscheint in: Media Technologies, ed. Tarleton Gillespie, Pablo Boczkowski, and Kirsten Foot. Cambridge, MA: MIT Press. Online: http://www.tarletongillespie.org/essays/Gillespie%20-%20The%20Relevance%20of%20Algorithms.pdf
  • Gugerli, David (2009): Suchmaschinen. Die Welt als Datenbank. Frankfurt am Main.
  • Schmidt, Jan (2011): Das neue Netz. Merkmale, Praktiken und Konsequenzen des Web 2.0. Konstanz.
  • Shah, Rajiv C. / Kesan, Jay P. (2003): Manipulating the Governance Characteristics of Code. Illinois Public Law and Legal Theory Research Papers Series, No. 03-18, 18.12.2003. Online verfügbar: http://papers.ssrn.com/abstract=475682
  • Zittrain, Jonathan (2008): The Future of the Internet. And how to stop it. New Haven/London.

Weitere Literatur

Weiterführende Links

Folien zur Vorlesung

http://de.slideshare.net/JanSchmidt/vernetzte-ffentlichkeiten-2013-sitzung-4-technische-grundlagen

.pdf-Fassung: http://www.schmidtmitdete.de/pdf/vernoe13_04_print.pdf

Fragen (und Antworten)

...

Informatik-Sicht auf Soziale Medien

Die sog. Soziale Medien haben die Informatik und die damit verbundenen Wissenschaften vor einige Herausforderungen gestellt. Bislang ungekannte Anforderungen an Hard- und Software haben es zunächst schwierig gemacht, die immer größer werdenden Datenberge zu nutzen - das gilt auch bis heute. Soziale Medien fungieren daher in gewisser Weise auch als Innovationstreiber in der Informatik; durch sie und für ihren Betrieb werden immer neue Methodiken und Anwendungen entwickelt, getestet und letztendlich auch der Öffentlichkeit zur Verfügung gestellt.

Ein großer Schwerpunkt dieser Entwicklung ist die Datenhaltung. Typischerweise mit auf hohe Anfragevolumina ausgerichtet, waren die bis dato existierenden Datenbanksysteme aufgrund der hohen, auch synchronen, d.h. parallel erfolgenden, Anfragenmasse ungeeignet für die sich entwickelnden Konzepte der sozialen Netzwerke. Hinzu kam, dass die bisher vorherrschenden, relationalen Datenbanksysteme nur vertikal, aber nicht horizontal skalieren konnten. Dies bedeutet, dass es immer ein zentrales Datenbankmanagementsystem geben musste und die Performanz dieses nur über die Leistungsfähigkeit eines einzigen Computers gesteigert werden konnte. Durch die Entwicklung von NoSQL (Not only SQL; SQL war und ist eine sehr verbreitete Anfragesprache an relationale Datenbanksysteme) konnte dieses Problem weitestgehend behoben werden: NoSQL-Datenbanken wie MongoDB [1] und CouchDB [2] bedienen sich einer Art der strukturellen Datenspeicherung, die auch horizontal, d.h. durch den parallelen Einsatz von mehreren Computern, skalieren kann. Es ist damit den Betreibern von sozialen Netzwerken möglich, bei höheren Anfragelasten einfach weitere Rechner hinzuzuschalten, um diese Spitzen abzufangen.

Hier dient auch Cloud Computing als Plattform, über die schnell auf sich ändernde Anforderungen reagiert werden kann. Als Weiterentwicklung von Platform-as-a-Service- bzw. Software-as-a-Service-Diensten wird bei Cloud Computing dem Nutzer gegenüber ressourcenbezogen abgerechnet. Ein Kunde eines Cloud Computing-Anbieters wie Amazon [3] oder Microsoft [4] bezahlt damit nur für die wirklich in Anspruch genommenen Kapazitäten, und muss nicht, wie bislang üblich, entweder komplette Server mieten (und nutzungsunabhängig bezahlen) oder ein ganzes eigenes Rechenzentrum betreiben. Dieses neue Modell eignet sich insbesondere auch für Startups, die über die nutzungsabhängige Berechnung der anfallenden Kosten viel schneller einen funktionsfähigen Service und damit ihr Geschäftsmodell aufbauen können.

Auch an die generelle Verfügbarkeit werden hohe Anforderungen gestellt. Ein Service hat, entsprechend der Erwartungen der Benutzer, jederzeit und problemlos zu funktionieren. Am Beispiel Facebook wird dies deutlich: Ist die Plattform einmal nicht erreichbar (sog. "Outage"), so schafft es diese Meldung sogar in die etablierten Medien [5]. Dies stellt auch an die zugrunde liegende IT hohe Anforderungen: Bei der Errichtung der Infrastruktur müssen hohe Kapazitäten und Redundanzen aufgebaut werden. Das stellt auch an die Lieferanten der Serverhardware für die Rechenzentren hohe Anforderungen: So lässt sich Google vom Hardwarehersteller Gigabyte zum Beispiel hoch standardisierte, aber genau auf seine Bedürfnisse abgestimmte Rechner liefern [6][7]. Auch die interne Infrastruktur dieser Anlagen ist von den Konzernen bereits optimiert worden. Googles Rechenzentren sind zum Teil aus Lkw-Containern aufgebaut. Diese Container lassen sich bei Bedarf austauschen bzw. es lassen sich neue an die vorhandenen Anschlüsse ankoppeln, um dynamisch und kosteneffizient die Gesamtkapazität zu erhöhen [8].

Die verschiedenen Unternehmen achten mittlerweile auch sehr stark auf Energieeffizienz, da die Stromkosten den Hauptteil der Gesamtbetriebskosten eines Rechenzentrums ausmachen. Insbesondere die Kühlung ist hier auch kritisch. Google verbrauchte im Jahr 2010 rund 2,26 Mrd. Kilowattstunden - etwa so viel wie eine Stadt mit 200.000 Einwohnern [9][10]. Facebooks zuletzt fertig gestelltes Rechenzentrum in Schweden nutzt das lokal vorhandene, kalte Meerwasser zur Kühlung und kann damit die Energieeffizienz noch weiter erhöhen [11].