Die Konstruktion der Netzwerk-Allmende: Unterschied zwischen den Versionen

Aus FunkFeuer Wiki
Wechseln zu: Navigation, Suche
(/* In den letzten Jahren entstanden zahlreiche Initiativen für den Aufbau freier drahtloser Bürgernetze. Diese sogenannten Freenetworks benutzen Funknetz-Technologie, um eigene, unabhängige Netzinfras)
K
 
Zeile 57: Zeile 57:
  
 
[5] Im Sinne des Cyberpunk-Diktums, dass "die Straße ihren eigenen Gebrauch für die Dinge findet" (Bruce Sterling).
 
[5] Im Sinne des Cyberpunk-Diktums, dass "die Straße ihren eigenen Gebrauch für die Dinge findet" (Bruce Sterling).
 +
 +
 +
Als weiterführende Literatur sei Armin Medosch's Buch Freie Netze empfohlen, welches  [ftp://ftp.heise.de/pub/tp/buch_11.pdf hier heruntergeladen]werden kann.

Aktuelle Version vom 11. Oktober 2005, 17:20 Uhr

In den letzten Jahren entstanden zahlreiche Initiativen für den Aufbau freier drahtloser Bürgernetze. Diese sogenannten Freenetworks benutzen Funknetz-Technologie, um eigene, unabhängige Netzinfrastrukturen aufzubauen. Aus den Prinzipien und Methoden, die dabei angewendet werden, lässt sich das Leitbild einer Netzwerk-Allmende ableiten.

von Armin Medosch

(Vorabversion eines Katalogbeitrags fuer die Ars Electronica 2004, veröffentlicht hier mit der freundlichen Genehmigung des Autors)


Die Diskussion um die Wissens-Allmende entstand als Reaktion auf ein zunehmend repressives Klima gegen Ende der neunziger Jahre. Der angebliche Missbrauch der Freiheiten des Internet durch Praktiken wie File-Sharing verleitete die Urheberrechtsindustrien zu drastischen Maßnahmen, die vom Lobbying für drakonische Gesetze bis hin zur Kriminalisierung von Usern reich(t)en. Zusätzlicher Druck entstand durch staatliche Überwachungsgelüste und eine Anzahl weiterer staatlicher und privatwirtschaftlicher Motivationen zur "Zähmung" des Internet. Das wirft die Gefahr auf, dass durch zuviel Kontrolle die Wissensgesellschaft zum Kollateralschaden der Copyright-Kriege wird.

Die Erfolge der Free- und Open-Source-Software-Szene bei der Schaffung einer Allmende an frei nutzbarer Software dienten als Inspiration für eine wachsende internationale Community, sich für den Aufbau einer freien Wissensgesellschaft zu engagieren. Im Zentrum steht dabei der Kampf um das geistige Eigentum und um einen freien und demokratischen Zugang zu Wissen und den Mitteln der Produktion und Dissemination kultureller Artefakte. Die Einführung des Begriffs Netzwerk-Allmende soll der Erweiterung und Vertiefung der Diskussion dienen, bei der bislang Verwertungslizenzen im Vordergrund standen. Es soll gezeigt werden, dass Netzwerke nicht nur als Träger von Information verstanden werden können sondern als Aggregatoren menschlicher Handlungsoptionen in einem viel umfassenderen Sinn.

Der Begriff Allmende, im englischen Commons, bezeichnete ursprünglich ein gemeinschaftlich genutztes Gut, typischerweise eine Dorfweide. Das Wort stammt aus dem Mittelhochdeutschen und kam im alltäglichen Sprachgebrauch vor seiner Wiederbelebung durch die digitale Debatte kaum noch vor. In Großbritannien und den USA ist die Commons-Debatte von der orthodoxen Deutung der "Tragödie des Gemeinguts" überschattet. Tragisch sei, dass die Nutzung durch im Eigeninteresse handelnde automatisch zur Zerstörung der Ressource führen würde, behauptete Garreth Hardin in seinem einflussreichen Essay von 1967.[2] Die anglo-amerikanischen Diskussionen sind seither von diesem Beigeschmack einer unabwendbaren "Tragödie" geprägt, indem Hardins Position als Totschlagargument gegen alle aufkeimenden Formen kollektiver Selbst-Organisation gebraucht wird.[3] Hinzu kommt, dass sowohl Großbritannien als auch die USA das Trauma der "Enclosures" durchlebten, der Einzäunung, sprich Privatisierung gemeinschaftlich genutzten Landes im Zuge der Industrialisierung. Anderen Kulturen blieb eine derart durchgreifende Privatisierung erspart und Formen des Gemeinguts oder der gemeinschaftlichen Nutzung von Gütern unter bestimmten Bedingungen konnten sich wesentlich länger, teilweise bis zum heutigen Tag, halten. Den Begriff Commons oder Allmende als Rahmen einer Debatte zu wählen, heisst also bereits, sich bis zu einem gewissen Grad anglo-amerikanische kulturelle Spezifika einzuhandeln. Das Wissen um diesen Umstand vorausgesetzt, wurde der Begriff mangels besserer Alternative dennoch gewählt.

So wie alle Computer-Realwelt-Analogien hat auch die Vorstellung der Allmende als Grundstück nur sehr bedingte Gültigkeit. Ein gravierender Unterschied ist der, dass von Computerdateien eine beliebige Anzahl von Kopien hergestellt werden kann, ohne dadurch das Original zu vernichten. Der relevante Bedeutungskern liegt also in der Abstraktion "Gemeingut" oder auch "gemeinschaftlich genutzte Ressource". Im folgenden sollen die Existenzbedingungen der Netzwerk-Allmende am Beispiel der Praxis der Freenetworks untersucht werden.

Gruppen wie Consume und Free2air in London, Freifunk.net in Berlin und Funkfeuer.at in Wien schlagen ein dezentrales, selbstorganisierendes Netzwerk-Modell vor. Die elementare Einheit dieses Netzes bilden die einzelnen (drahtlosen) Knoten. Das kann, um ein Beispiel zu geben, jemand mit ADSL-Anschluss und WLAN Access Point sein, bzw. jede lokale Nutzergemeinschaften mit permanenter Internetanbindung und lokalem (drahtlosem) Netz. Indem sich diese Personen oder Gruppen miteinander absprechen und ihre Knoten miteinander verbinden, schaffen sie ein größeres Funknetz, eine freie Datenwolke. Dieses Netz ist das Resultat gemeinsamer Handlungen formal unabhängiger Teilnehmer. Alle physischen Bestandteile eines Knotens werden von dessen Eignern/Nutzern selbst verwaltet. In ihren Binnenbeziehungen sind diese Knoten nicht auf kommerzielle Netzstrukturen angewiesen, weil sie einen lizenzfreien Teil des Spektrums zur Übertragung nutzen können. Innerhalb dieser freien Funknetze genießen die Nutzerinnen den Luxus relativ guter Übertragungsraten. Die Ausgestaltung der Kommunikationen und Angebote erfolgt von den Nutzerinnen selbst, ebenso wie die Formulierung netzübergreifender Grundsätze oder Konventionen.

Diese freie Datenwolke lässt sich auch als Intranet einer basisdemokratischen Netzkooperative beschreiben, wobei dieses Intranet über mindestens ein Gateway zum Internet verfügt. Handeln die Teilnehmer nun völlig altruistisch oder erwarten sie sich auch einen Vorteil davon? Der minimalistische Ansatz ist, dass durch das Teilen die für alle zur Verfügung stehende Bandbreite größer wird und sich der Preis zugleich verringert. Der maximalistische Ansatz ist, dass es sich um einen Vorschlag handelt, wie die Welt zu einem anderen Umgang mit Telekommunikation finden könnte, indem diese vergemeinschaftet und aus der Warenform herausgelöst wird. Das Internet selbst ist der beste Grund, warum, erstens, die minimalistische Variante funktioniert und es, zweitens, überhaupt möglich ist, eine maximalistische Variante zu denken.

Die Internet-Protokoll-Suite, auch TCP/IP genannt, die seit 1972 im Rahmen eines DARPA-Forschungsprojekts an amerikanischen Universitäten entwickelt wurde, hat sich defacto zu einem universellen Netzwerkstandard entwickelt. Dem Grundsatz folgend, dass mit öffentlichen Mitteln geförderte Forschungsergebnisse auch der Öffentlichkeit zur Verfügung gestellt werden sollen, wurde die Dokumentation der einzelnen Entwicklungsschritte der Internet-Protokolle von Beginn an in Form sogenannter "Requests For Comments" veröffentlicht. Als offene und öffentlich zugängliche Standards begünstigten die Internet-Protokolle TCP/IP das "organische" Wachstum des Internet, weil jedes Gerät daran angeschlossen werden kann, solange es sich an diese Konventionen hält. Das Internet entstand nicht als ein zentral geplantes Netz, sondern als "Netz der Netze", indem sich viele Netze zusammenschlossen und die netzübergreifenden Protokolle benutzten. Die rasante Verbreitung von TCP/IP zum universalen Netzstandard von den siebziger Jahren bis heute profitierte von der Einbindung der Protokoll-Stapel in Unix und von der Möglichkeit, dass jeder Geräte und Anwendungen auf Basis dieser Standards entwickeln konnte.

Der Umstand, dass die Internet-Protokolle frei und öffentlich zugänglich sind, lässt sich als erste Bedingung der Netzwerk-Allmende festlegen. Weitere Bedingungen lassen sich aus Eigenschaften dieser Standards ableiten. Sie beruhen auf der Annahme eines verbindungslosen Netzes, in dem die Daten keinen festen, vorherbestimmten Routen folgen, sondern, in einzelne Datenpakete zerlegt, von Knoten zu Knoten weitergeschickt werden, bis sie ihr Ziel erreichen. Es liegt also an der Intelligenz dieser lokalen Knoten und der Einhaltung gemeinsamer Konventionen, dass überhaupt von einem Netz gesprochen werden kann.

Die Eigenschaften der Internet-Protokolle ermöglichen eine hochgradig verteilte, maschenartige Netzwerktopologie. In diesem Netz ist theoretisch kein Rechner in einer priviligierten Position und jeder Knoten-Rechner erfüllt die grundlegende Funktion, Datenpakete für andere Rechner weiterzuleiten. Jeder Knoten ist damit prinzipiell immer Sender-Empfänger, ob auf der einfachen Verbindungsebene des Internet oder auf der Ebene der Anwendungen, die zwischenmenschliche Kommunikationen ermöglichen. Idealer weise sollte dabei auch die Geschwindigkeit, mit der Daten übertragen werden, in beide Richtungen immer gleich groß sein (symmetrische Kommunikation). Man vergleiche die Ähnlichkeit zu Brechts Radio-Theorie, doch muss zugleich auf den Charakter der Computer als universelle Symbolmanipulationsmaschinen verweisen, so dass dieses Zweiwegprinzip nicht nur auf ein Medium sondern jedes erdenkliche Medium ausgeweitet werden kann - also sozusagen die Kombination aus Radiotheorie plus Konvergenz zum Quadrat.

Diese Eigenschaft der Internet-Protokolle, eine hochgradig verteilte Netztopologie zu ermöglichen hat in der Phase des Internet-Utopismus der neunziger Jahre häufig Anlass zu Spekulationen gegeben, wobei Analogien zwischen der technischen Dezentralität des Internet und einer enthierarchisierten, basisdemokratischen Gesellschaftsordnung hergestellt wurden. Eine solche direkte Überlagerung sozialer und technischer Eigenschaften hat sich jedoch als technikdeterministische Irrweg erwiesen, mit dem meist auch eine Fetischisierung technischer Kommunikationsmedien einherging, deren Einfluss auf die politischen und ökonomischen Verhältnisse überschätzt wurde. Mit dem Zusammenbruch der New Economy um die Jahrtausende lösten sich auch viele dieser techno-utopischen Luftschlösser in Rauch auf.

Im Gegensatz dazu hat sich die Bedeutung der digitalen Allmende über diesen Zeitraum, von ca. 1994 bis heute, deutlich expansiv verhalten. Ein wichtiger Baustein der digitalen Allmende ist die Existenz Freier Software und das Lizenzsystem, das diese schützt. Die General Public Licence ermöglicht die freie Nutzung von Software, den Einblick in deren Quellcode, dessen Modifikation und den Weitervertrieb der Software, unter der Bedingung, dass die Lizenzbedingungen beibehalten werden. Der virale Charakter der GPL hat dazu geführt, dass es einen wachsenden Pool an Freier Software gibt, vom Betriebssystem über die verschiedensten Netzwerkdienste bis hin zu Applikationen. Viele Schlüsselanwendungen im Internet können bereitgestellt werden, ohne dass proprietäre Software benutzt werden muss. Neben den offenen Standards ist also auch Freie Software eine Bedingung für die nachhaltige Existenz der digitalen Allmende.

Inspiriert von der GPL sind weitere Copyleft-Lizenzen entwickelt wurden, die neben Programmen auch einzelne Inhalte - Bilder, Texte, Musikstücke - schützen, wie z.B. die Open-Content-Lizenz und die Creative-Commons-Lizenzen. Eine wachsende Zahl von Autorinnen stellt durch die Nutzung dieser Lizenzen ihre schöpferischen Produkte der Öffentlichkeit zur Verfügung. Ein wichtiger Aspekt ist dabei, dass sowohl Freie Software als auch Freie Inhalte die Produzenten-Konsumentenschranke durchbrechen. Jede/r Lesende ist potentiell Schreibende/r.

Die Netzwerk-Allmende stellt einen Sonderfall der digitalen Allmende dar. Sie beruht einerseits auf den bereits erwähnten Komponenten offene Standards und Freie Software. Doch neben Hardware benötigen Netzwerke auch noch ein Übertragungsmedium. Die Funknetze nach dem WLAN-Standard benutzen ein Schlupfloch in der Frequenzregulierung. Das elektromagnetische Spektrum wird von staatlichen Regulierungsbehörden in Bänder unterteilt, deren Nutzung jeweils für spezifische Funktechniken und bestimmte Anwender reserviert ist, z.B. für öffentliche Fernsehanstalten, Notdienste oder Militär. Inhaber solcher exklusiver Nutzungsrechte haben ein starkes wirtschaftliches Interesse, dieses nicht mehr abzugeben. Daher sieht es derzeit so aus, als ob im Spektrum kaum noch "Platz" wäre.

Einen Sonderfall stellt das sogenannte ISM-Band (Industrial, Scientific and Medical) dar. Zu diesem gehört u.a. ein Bereich zwischen 2,4 und 2,5 GHz, der von der WLAN-Technologie benutzt wird. Die Regierungen der (meisten) Länder der Welt haben beschlossen, dieses Band von der Lizenzverpflichtung zu befreien und allen die Benutzung freizustellen. Das hat zur Folge, dass es keine Qualitätsgarantie gibt - niemand in diesem Band hat besondere Rechte und es kann zu Übernutzung und daher Störungen kommen. Das bedeutet aber auch, dass niemand um Erlaubnis anzusuchen braucht und dieses Band kostenfrei genutzt werden kann. Das Experiment der Freigabe des ISM-Bandes zur Allgemeinnutzung wird inzwischen als Erfolg betrachtet. In den Vereinigten Staaten hat sich eine Lobby unter dem Banner "Open Spectrum" versammelt, welche die Freigabe des gesamten Spektrums fordert. Technische Fortschritte im Bereich von Frequenzspreizverfahren und "kognitiver" Funktechnologien würden die herkömmliche Frequenzregulierung obsolet machen und es ermöglichen, dass die Spektrums-Regulierung den Geräten überlassen wird, behaupten amerikanische Verfechter der Open-Spectrum-Idee.

Anders als Freie Software, die zu sehr geringen Kosten kopiert und distribuiert werden kann, sobald sie einmal fertiggestellt wurde, benötigen Freie Netze eine permanente Instandhaltungsleistung. Diese Leistung besteht einerseits im Erwerb, Betrieb und Erhalt der Geräte, die im Rahmen einer Netzwerk-Allmende verwendet werden, andererseits in einer Investition in soziale Selbstorganisation. Damit überhaupt von einem Netz gesprochen werden kann, muss es mehr als einen Knoten geben, d.h. es ist nötig Verbindungen herzustellen. Dieser Prozess beinhaltet es, verbindungswillige Partner zu finden und das Terrain auszukundschaften, denn zwischen den Knotenstandpunkten, bzw. deren Antennen muss Sichtverbindung bestehen. Darüber hinaus geht es darum, Regeln für die gemeinsame Nutzung des Netzes zu finden. Dabei geht es darum, die Balance zwischen individueller Freiheit und Bedürfnissen und der nachhaltigen Funktionstauglichkeit des Netzes zu finden. Die Gefahren und Stolperfallen sind vielfältig. Hemmungsloses File-Sharing kann das beste Funknetz in die Knie zwingen. Zudem wirft die sich verschärfende Gesetzeslage bezüglich File-Sharing die Frage der Verantwortlichkeit für die Handlungen der Netzteilnehmer auf. Obwohl es derzeit (zum Glück) noch kaum Präzendenzfälle zu letzterem Problem gibt, ist die Frage der Verantwortlichkeit bzw. der Definition der Grenzen zum weltweiten Netz ganz allgemein, und nicht nur bezüglich File-Sharing, nicht unerheblich.

Die Freenetwork-Community antwortet auf diese Herausforderungen auf verschiedene Arten und Weisen. Ein Teil setzt auf technische Mittel wie Authentifizierung (z.B. mittels der freien Software Nocat) und Bandwidth-Shaping (die Zuweisung eines Maximums an nutzbarer Bandbreite pro einzelnem User). Großes Interesses bei der technischen Freenetwork-Community erfreuen sich auch dynamische Routing-Protokolle, die es ermöglichen, dass sich Funknetze von selbst konfigurieren, indem sie neue Knoten oder den Ausfall von Knoten erkennen und so die optimale Routenführung von Datenpaketen weitgehend automatisieren. Die Entwickler von Hardware-Software-Lösungen wie Locustworld in London und MeshCube in Hamburg und Berlin haben signifikante Beiträge geleistet, indem sie die Bedürfnisse der Freenetwork-Szene analysierten und Geräte entwickelten, die den Vorgang der dynamischen Vernetzung auch für Nicht-Experten erleichterten. Trotz großer Fortschritte auf diesem Gebiet wird es jedoch noch einige Zeit dauern, bis dynamisches, mobiles Ad-hoc-Mesh-Networking in größerem Umfang stabil laufen wird. Andere setzen auf maximale Offenheit und sind der Ansicht, dass solche technischen Lösungen allein nie völlig ausreichen werden und dass ein Element der sozialen Vernetzung immer eine Rolle spielen wird.

Eine Gruppe von Netzwerkerinnen begann im Jahr 2002 mit der Entwicklung eines Rahmenabkommens, das grundlegende Konventionen für den Datenaustausch in Freien Netzen regeln soll, das Pico Peering Agreement.[4] Es wurde darüber nachgedacht, was denn nun eigentlich der Kern dieser Ressource "Freies Netz" ausmacht, und man kam zu dem Ergebnis, dass es sich um die Bereitschaft handelt, anderen freien Datentransit zu erlauben. Du darfst mein "virtuelles Grundstück" durchqueren, dafür darf ich ebenso Dein "Grundstück" durchqueren (die Grundstücksmetapher wie gesagt nur begrenzt haltbar, aber in diesem Zusammenhang ausreichend). Das Pico-Peering-Agreement regelt die Grundsätze des freien Datentransits und beschreibt implizit, was die "Freiheit" in freien Netzen ist (zum Unterschied vom gesponserten Gratisnetz). Ähnlich wie die General Public Licence für Free Software soll das Pico-Peering-Abkommen für Freie Netze eine Art Gütesiegel mit Reinheitsgebot abgeben. Das Pico-Peering-Agreement ist der Ansatz einer Verfassung für die Netzwerk-Allmende, eine Erklärung von Grundrechten aber auch Verpflichtungen.

Die Netzwerk-Allmende benötigt als Voraussetzungen die Existenz offener Standards, Freier Software, eines frei nutzbaren Übertragungsmediums (Open Spectrum) und eines selbstbestimmten Regelwerks (Pico Peering oder ein Äquivalent desselben). Ein Aspekt von übergeordneter Bedeutung ist die Implementation des Netzes als Ergebnis eines Prozesses dezentraler Selbstorganisation. Anders als während der Zeiten des Internet-Utopismus der neunziger Jahre wird nicht davon ausgegangen, dass dezentrale Selbstorganisation eine quasi-automatische Funktion der Eigenschaften der Technologie ist. Selbstorganisation wird als aktiver Prozess begriffen, wobei ökonomisch und juristisch unverbundene Teilnehmer freiwillig Kooperationen eingehen. Dieser aktive, willentliche Aufwand an persönlicher Energie, Zeit und Arbeit erfolgt auf der Basis des Bestrebens, gemeinsam ein größeres Ganzes zu schaffen, das mehr als die Summe seiner Teile ist - die Netzwerk-Allmende. Dieser soziale Aspekt eines verteilten Netzwerks ließe sich anhand theoretischer Modelle wie z.B. dem der Freien Kooperation (Spehr 2001) beschreiben. Eine solche ausgeprägtere theoretische Formalisierung der Netzwerk-Allmende muss jedoch vorerst auf die Zukunft verschoben werden.

Zum gegenwärtigen Zeitpunkt können zwei wesentliche Motivationsstränge festgestellt werden. Einerseits geht es darum, der kommerziellen Überformung des Internet entgegenzuwirken. Als Türwächter agierende Internet-Provider und Telekommunikationsfirmen (insbesondere im Bereich UMTS-Mobiltelefonie) gestalten Internet-Zugang in einer Art und Weise, die den Bestrebungen für eine freie und egalitäre Kommunikation diametral entgegenstehen. Ihre Angebotsstrukturen enthalten technisch und finanziell die Vorstellung einer "Konsumentin", die aus dem Internet Informationen herunterlädt und selbst nichts oder wenig beisteuert. Durch den Verkauf asymmetrischen Netzzugangs und die Abrechnung nach Zeit und/oder Menge umgesetzter Daten werden Nutzerinnen auf ihren Platz als Konsumenten verwiesen, die von einem Provider, der das Netz besitzt und zentral verwaltet, "Zugang" kaufen. Im Konzept der Netzwerk-Allmende ist kein Platz für Konsumentinnen. Der Wert des Netzes wird durch zusätzliche Nutzerinnen nicht verringert, sondern wächst, indem sich diese als vollwertige Knoten in symmetrischer Zweiwegkommunikation ins Netz einbringen. Der zweite Motivationsstrang speist sich aus dem Wunsch nach dem Aufbau eines Netzes auf der Basis freier Kooperation und selbstgemachter Regeln. Dieser Ausdruck persönlicher Willensfreiheit über das Medium der technischen und sozialen Vernetzung wird als Wert an sich verstanden. Darüber hinaus wird davon ausgegangen, dass solche Netze, die von kollektiver Sehnsucht nach einem Ort freier, selbstbestimmter Kommunikation getragen werden, langfristig nötig sind, um die freie Meinungsäußerung und die Medienfreiheit zu schützen. Ein nicht zu vernachlässigender Nebeneffekt ist, dass durch partizipatives und kollaboratives Handeln neue und hoffentlich nachhaltige Wege für den Umgang mit Technologie aktiv erprobt werden. Aus diesen Prozessen können, wie in Ansätzen bereits erkennbar ist, alternative Zukunftsvorstellungen für Kommunikations-Technologien entwickelt werden, die nicht von den Entwicklungslabors der Großkonzerne sondern "von der Straße"[5] stammen.

Doch vorerst ist die Netzwerk-Allmende mehr Utopie als Realität. Funktionierende Beispiele von Netzwerk-Allmenden gibt es relativ wenige (im Verhältnis zur Gesamtzahl von derzeit ca. 600 Mio Internetnutzerinnen) und diese sind geografisch weit gestreut. Am ehesten scheinen sie da zu funktionieren, wo es einen gravierenden Mangel zu kompensieren gilt, wie z.B. in Gebieten, wo es die Wirtschaft unterlässt, taugliche Anschlüsse bereitzustellen. Das größte bekannte Freie Funknetz in Europa befindet sich in Djursland an der Nordspitze Dänemarks, eine strukturschwache Region, die von der Kommunikations-Wirtschaft praktisch aufgegeben wurde. Auch in vom OPAL-Problem betroffenen Gebieten Ost-Berlins und ländlichen Regionen Nordenglands boomen solche Initiativen. In der Regel herrscht jedoch das Konsumdenken vor und die Menschen bevorzugen es scheinbar, sich für 30 Euro im Monat einen ADSL-Zugang zu besorgen, als mit ihren Nachbarn zu reden. Die Atomisierung der Gesellschaft in Konsumenten-Einzelzellen ist in der Realität und der Vorstellungswelt der sie behausenden Individuen sehr weit fortgeschritten.

Das bedeutet, dass auch der Frage nicht ausgewichen werden kann, ob die Netzwerk-Allmende langfristige Wachstums- und Überlebenschancen hat, wenn sie als eine Art Insel in einem ansonsten durch und durch kapitalistischen System begriffen wird oder ob es nicht eigentlich nötig wäre, das gesamte System umzustellen. Wie die Erfahrungen von Konferenzen und Festivals der vergangenen Jahre und Monate zeigt, ist die Freenetwork-Community größtenteils nicht willens, an einer Diskussion in einem solchen größeren thematischen Rahmen teilzunehmen und beschränkt sich vorerst auf die Umsetzung konkret machbarer Utopien mit den vorhandenen Mitteln. Von großspurigen revolutionären Entwürfen abzusehen kann sich kurzfristig durchaus positiv auswirken, aber möglicherweise später ein Theoriedefizit aufwerfen. Deshalb wird hier vorgeschlagen, für diese Diskussionen mit der begrifflichen und inhaltlichen Konstruktion der Netzwerk-Allmende einen Rahmen anzubieten.


[1] Eine umfassende Beschreibung der Praxis, Kultur und Politik von Freenetworks findet sich in "Freie Netze", Armin Medosch, Heise Verlag 2003

[2] Hardin, Garreth, "The Tragedy of The Commons", 1967

[3] Jüngere Forschungen der politischen Theorie (Ostrom, 1999) zeigen, dass die tragische Zerstörung des Gemeinguts nur unter bestimmten Bedingungen eintritt und dass eine nachhaltige Bewirtschaftung von Gemeingütern sehr wohl möglich ist, sofern bestimmte Verhandlungs- und Selbststeuermechanismen gegeben sind.

[4] Das Pico-Peering-Agreement in derzeit gültiger Fassung sowie dessen Entstehungsgeschichte finden sich hier:http://picopeer.net

[5] Im Sinne des Cyberpunk-Diktums, dass "die Straße ihren eigenen Gebrauch für die Dinge findet" (Bruce Sterling).


Als weiterführende Literatur sei Armin Medosch's Buch Freie Netze empfohlen, welches hier heruntergeladenwerden kann.