Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:
Stoppt die Vorratsdatenspeicherung! Jetzt klicken und handeln!Willst du auch bei der Aktion teilnehmen? Hier findest du alle relevanten Infos und Materialien:

30 April 2013

Das Interesse verschiedener Bevölkerungsgruppen an den Staatsfinanzen.

Heute Morgen bin ich auf dem News Aggregator meines Vertrauens auf eine Interessante Meldung gestossen. Im Land Mecklenburg-Vorpommern, das ohnehin was Steuermittel angeht nicht auf Rosen gebettet ist und ständiger Kunde im Länderfinanzausgleich, hat sich eine enorme Verschwendung von Steuergeldern ereignet. Die Computer des die Rechner des Lehrerfortbildungsinstituts IQMV in Schwerin, Rostock und Greifswald sind von dem Computerwurm Conficker befallen worden.

Der Conficker Wurm ist eine Schadsoftware die sich in Computernetzen verbreitet. Einige Zeit nach dem Auftreten dieses Schädlings gab es ein kostenfreies Programm im Internet um dieses Schädling von den Festplatten eines Computers zu eliminieren. Man hätte also einfach alle Rechner runter fahren müssen, dann einzeln hochfahren, das Programm anwenden und wieder Runterfahren, und fertig ist die Problemlösung.

Soweit die Einfach Lösung. Und was machen deutsche ministriale Staatsdiener? Nun sie Stellen fest, das ein Totalschaden Vorliegt, verschrotten die 170 fast noch nagelneuen Rechner und beschaffen für 187300€ neue Computer. 187300€ sind also eine so lächerlich geringe Summe, das es keiner der beteiligten Bürokraten für nötig erachtet, sein Gehirn in betrieb zu nehmen,und jemand zu Fragen der sich mit so was auskennt.

Da jeder der im Internet unterwegs ist und seinen ersten Rechner mit dem Betriebsystem von winzig Weich nicht gerade innerhalb des letzten Monat gekauft hat schon seine Leidigen Erfahrung mit Computerviren gemacht hat, ist klar, das mindestens 80%, also fast alle Leser, sofort aus eigenem Ermessen beerten können bescheuert das Verhalten der Beamten ist. Bei anderen Steuergeldverschwendungen mag es um viel größere Beträge gehen, aber es sind dann auch Bautechnisches oder anderes Wissen erforderlich, um aus eigenem Ermessen einzusehen, das es für das Handeln von Amtsträger keine aber auch gar keine Legitimation gibt.

Insofern war ich echt gespannt, wie die Verbreitung der Nachricht in den Verschiedenen sozialen Netzen ablief. Ich habe die Nachricht mit einen Verteiler in Twitter, Google+, Facebook, Freindfeed und Yammer gepostet. Bei Freindfeed und Yammer tat sich nichts, aber das ist nicht verwunderlich, weil ich über diese Accounts nicht vernetzt bin. Die sind nur so was wie ein Backup services. Man kann ja nie wissen ob einen einer Böse Regierung einen aus dem Netz haben will.

Auf Google+ Ist das Ding eingeschlagen wie eine Bombe. Ich habe im Laufe eines Tages 241 +1 bekommen und das Posting wurde 155 geshared, davon 66 mal Öffentlich. Es entbrennt eine Diskussion mit geschätzt 100 Beiträgen. Das war mein Erfolgreichstes Posting ever, und ich mache viele Microblogposts zu allem und jedem was ich für erwähnenswert halte. Mann kann also Sagen, das das Publikum von Google+ an diesem Thema sehr interessiert ist.



Aber wie sah es mit Twitter und Facebook aus? Das Ergebnis war ernüchternd. Mein Post unter Twitter wurde gerade mal 3 mal favorisiert und weitergeleitet.



Die Zusammenfassung von Rivva zeigt, das viele andere Unabhängig von mir auf das Thema gestoßen sind und einen Tweet abgegeben haben. Der Erfolgreichste kam von der Redaktion der Zeitschrift Golem und erreicht 63 Retweets. Laut der Statistik von Rivva gibt es zwar 1282 Facebook Likes. Nun ist es aber so, das es sehr viel mehr Facebook Nutzer gibt. So gesehen sind die 1282 verglichen mit den insgesamt 249 Tweets als eher wenig einzustufen. Das deckt sich auch mit meiner persönlichen Bilanz auf Facebook, dort habe ich schlicht kein Echo bekommen, und das obwohl die Meisten Kontakte dort politisch motiviert sind.

Ich fasse also mal Zusammen: Das Interesse an der Sinnvollen Verwendung von Staatsmittel ist auf Google+ am größten, dann folgt Twitter und auf Facebook ist es nur rudimentär vorhanden. Bei den in diesem Fall auftretenden großen Zahlen ist das kein Zufälliges Ergebnis mehr. Welche gesellschaftliche Faktoren führen also zu den Unterschieden. Nun sind keine Daten über soziologische Zusammensetzungen der Kundenkollektive zugänglich. Kein wunder, diese Daten gehören zu den wichtigsten Assats der Betreiber sozialer Medien.

Aber ich kann meinen persönlichen Qualitätsindex für Soziale Medien heranziehen der als Logarithmus des Quotienten der Follower einer hochwertigen Zeitung und einer Zeitung die sich an die breite Masse der Bevölkerung richtet, berechnet wird.

Q = Ln ( #Follower Die Welt / #Follower Bild.de )

Für Google+ ergibt sich dabei Ln ( 101925 / 83642 ) = 0.20 ; Für Twitter ergibt sich mit Ln ( 101681 / 146529 ) = -0.37 schon ein drastisch niedrigerer Wert. Bei Facebook ergibt sich mit Ln ( 59603 / 904000 ) = -2.72 ein Wahrhaft unterirdischer Wert. Trauriges Fazit: Den Demokratie relevanten Teilen der Bevölkerung geht die effektive Benutzung der Steuermittel völlig am Arsch vorbei.

Das ist auch kein Wunder, weil die Grünen - die Mittlerweile das sind womit die Partei der Sklavenhalter FDP immer angibt: Die Partei der Besserverdiener - mit allerlei Ökologischen Notwendigkeiten die Kosten der Lebenshaltung so in die Höhe geschraubt haben - man denke da nur an die legendären Magdeburger 5 DM pro Liter Benzin - das der große teil der Bevölkerung eigendlich nur noch Arbeiten um den FDP Harz IV Zwangsarbeit Leigth Schikanen zu entkommen. An Steuerzahlung ist da nicht zu Denken, wegen der Verfassungsmäßig garantierten Steuerfreiheit des Existenzminimums. Im Gegenteil, es geht er noch um das Aufstocken durch das Amt, und sei es "nur" Wohngeld. Das Problem ist nur, jeder Mehrverdienst wird durch Zuschuss Kürzung zu 100% pseudobesteuert.

Diese Zustand ist meiner Meinung nach Existenzgefährdend für eine Demokratie. Neben allen anderen Wichtigen Gründen ist das meines Erachtens der Wichtigste Grund für ein BGE. Der Einkommenssteuersatz muss in Zukunft für jeden Euro gleich sein, also z.B. der 49%. Dieser Steuersatz taucht bei den Grünen als Spitzenstreusatz auf. Und das nicht zufällig, weil mehr als Verfassungswidrig gilt. Davon und von den anderen Steuern sind alle Staatsausgaben inklusive der Schuldentilgung zu bestreiten, und der Rest ist an alle legalen Einwohner zu verteilen bei denen keine BGE Migration zugrunde gelegt werden kann.

Dann, und vermutlich nur dann, wird es einen Straftatbestand der Amts untreue geben und zum Beispiel ein Hausmeister der Private Computererfahrung hat der die Viren verseuchten Computer entsorgen soll, die Polizei rufen, um diese Aktion als rechtswidrig zu stoppen. Auch würde es nicht mehr Möglich sein, so einen Schwachsinn wie Stuttgart 21 durch eine Volksabstimmung zu bekommen. Klar ist auch, das es endlich mehr Kläger und Massive Abwahl Potential gegen zu expansive Haushalte gäbe, weil ja mindestens die Steuer auf das Existenzminimum ausgeschüttet werden muss.

Nachtrag 07.05:











Oder ein

24 April 2013

Rettet die Flatrate: Sie gehört auf die Rote Liste der vom Aussterben bedrohten Arten!

Diese Woche wurde offiziell, was bisher schon die Spatzen von den Dächern gepfiffen haben. Die Telekom gibt bekannt, das sie keine unlimitierten DSL Verträge mehr anbietet. Beim Mobilfunk war dieses schon immer gängige Praxis. Flatrate beim Mobiltelefon heißt, wenn ein Kontingent das im kleingedruckten des Vertrages verzeichnet ist erreicht wird, dann geht es nur noch mit Schneckentempo weiter. Das kann man auch verstehen, so hat zum Beispiel das LTE im für die Austrahlung auf dem Land geeigneten 800MHz Band nur 10MHz band breite pro Anbieter, das ist gerade mal ein halver WLan kanal. Die dürfen zwar mit 2 kWatt senden, es ist aber doch so als ob sich ein ganzer Landstrich zu einer WLan Partie versammelt. Jetzt will die Telekom dieses auch auf das DSL ausweiten. Bei super schnellen Glasfaseranschlüssen war dieses ohnehin schon so der Fall.

Die Telekom ist nach wie vor einer der Größten Player am Markt. Wenn diese jetzt also die Poweruser systematisch aus ihrem Netz drängt, indem es zum Beispiel keine Upgrade der Geschwindigkeit mehr gibt ohne die Akzeptanz eines Limits seitens der Nutzer, werden die sich notgedrungen neue Provider suchen. Da jetzt die Powernutzer der Telekom den Rücken kehren passieren 2 Dinge: Der Profit der Telekom steigt und diejenigen Provider die noch echte Flatrates fällt oder wird gar zum Defizit, zumindest dann, wenn diese in dem Ausmaß wie der Verkehr in ihren Netzen steigt und diese dann auch ihre Kapazität vergrößern.

Das führt dann dazu, das alle alternativen Provider nach und nach entweder durch Verstopfung langsam werden, Pleite gehen oder auch von der Flatrate Abstand nehmen müssen. Das ist wohl vielen klar, auch wenn diese jetzt erst mal die Telekom als Drosselkom verspotten. Das meine eigene Partei mich nötigt, ausnahmsweise die Telekom in Schutz zu nehmen, das hätte ich mir wirklich so auch nicht vorgestellt.

Ich bin selber Internet Provider, wenn auch nur ein sehr kleiner, und ich kenne die Problem mit den Geschäft. Ich habe jetzt schon Kunden, die mit einem normalen DSL Account nicht mehr klarkommen, weil sie bei andren Providern im Stau stechen. Ich habe einen sehr leistungsfähigen Cache, der bisher auch gute Arbeit geleistet hat und die Volumina einigermaßen im Schacht halten konnte.

Nur wenn es aus Datenschutzgründen, Spionagegründen und Ignoranz im zunehmenden Masse Daten verschlüsselt Übertragen werden, dann senkt das die Cacherate. So werden zum Beispiel bei Google plus auch öffentliche Inhalte verschlüsselt, so das diese dann nicht mehr gecachet werden können. Microsoft sendet seine Update so, das diese nach 3 Tagen im cache gelöscht werden und neu gezogen werden. Und das, obwohl es bestimmte Updatepackete für Firmen gibt welche eine lokale Kopie des Update service erstellen, und die bei jedem Update Zyklus das gesamte Inventar des Updateserver runtersaugen.

Noch viel schlimmer als die Leute die sich bei der Entwicklung von Internetanwendungen keine Gedanken um die Cachebarkeit machen, sind die Leute die alles daran setzten, das Cachen ihrer Inhalte zu unterbinden. Das sind zum einen einige Anbieter von Spielen. Diese Leute haben meist einen extra Client für die Verteilung ihrer Inhalte programmiert, damit die Downloads ordentlich Dampf haben. Diese Firmen haben an verschiedenen Stellen des Internets Server aufgestellt, und der Client fährt diejenigen Server an, welche die Daten am schnellsten liefern. Bis dahin ist das noch in Ordnung.

Das Problem: Die machen das mit einem Proprietären geschützten Protokoll, so das ein cachen nicht möglich ist. moderne Computerspiele sind sehr große Objekte, typischerweise zwischen 4 und 40 GByte. Noch viel schlimmer ist, das einige dann noch der TCP Stack modifiziert haben, so das immer 10%, bei geringen Bandbreiten zum Teil noch mehr, Überschuss gesendet wird als überhaupt durch die Leitung passen. Damit wird erreicht, das diese Anbieter sich auf der Backbone eine Vorfahrt organisieren, zu lasten der anderen Teilnehmer im Internet.

Nun sind Spieler die jedes Spiel ausprobieren keine allzu grosse Gruppe. Was der Internetflatrate den gar ausmacht, das ist eindeutig die Verteilung von HD Film content über Setop Boxen, die aus Copyrightangst über keinen Speicher verfügen. Ich habe von einem Kunden ein Apple TV geliehen bekommen, um möglichst viel von deren Angebot mit dem Cache abdecken zu können. Das Ergebnis war ernüchtern: Wenn sich der Kunde einen Film für 3 Tage für z.B. 3-10€ leiht, dann kann er diesen Film so oft ansehen wie er das mag. Aber jedes mal wird der Film neu durch das Internet gezogen. Ein HD Film hat zwischen 15 und 50 GByte. Und Sony bietet jetzt schon auch File in Super HD, also mit 4000 Punkten in X-Richtung. Das ist die typische Auflösung eines typischen digitalen Belichter um analoges Diamatherial ohne Qualitätsverlust mit synthetischen Bilder belichten zu können.

Das muss man mit den Preisen im Einkauf gegenüberstellen. Wenn die Daten vom Austauschpunkt, z.B. dem Decix, holt, dann kostet eine 1Gbit/Sekunde Flatrate 1000 Dollar für die Weltweite BGP Durchleitung der Daten. Das ist das Fundament, wenn man ein Netz mit eigenem autonomen System gründet und man erreichen will, das alle Netze erreichen kann, also auch solche die nicht am gleichen Peering Punkt vertreten sind. Ein Gigabit liefern, eine Durchschnittliche Lastkurve vorausgesetzt mit einer 1GB Leitung zum Austauschpunkt 108 000 GByte im Monat, das ist rund ein ¢ pro GB. Auf diesem Niveau sind die Vorstellungen der Großkontentabiehter real. Aber nur deshalb, weil die für ihre Seite des Internets nur eine sehr dicke Leitung brauchen, so das Herstellungskosten gering bleiben. Zumal diese Anbieter ihren Standort entlang der Hochgeschwindikeitsverbindungen frei Wählen können. So "produziert" zum Beispiel Facebook am Polarkreis, weil dort ganzjährig keine Klimaanlage gebraucht wird, und das spart Unmengen an Strom.

Mit den Tausend Dollar im Monat ist es aber nicht getan, ich muss einen Platz im Rechenzentrum mieten, einen Router kaufen der die Technischen Vorstellungen des dortigen Betreibers erfüllt - das heißt in der Regel ein Schweine teures Teil vom Cisco - und dann brauche ich noch eine Leitung vom Austauschpunkt zu dem Punkt, an dem ich als Internetprovider mit der Verteilung beginnen will. Und diese Leitung kostet richtig Geld - erst recht wenn Sie erst noch verlegt werden müssen.

Das Problem, je größer eine Leitung ist, desto dramatisch billiger wird das Mbit an Übertragungskapazität. Der Telekom ist es mittlerweile so gut wie egal wie weit eine Leitung ist, es zählen nur die Enden der Leitung. Mit anderen Worten, ISP die ausschließlich mit Mietleitungen arbeiten stellen sich am günstigsten, wenn Sie ihre Kunden mit Mitleitungen gleich mit ihrem BGP Router am Austauschpunkt verbinden. Eine solche Preispolitik reflektiert eine Sternstruktur in der alle Leitungen in einem Zentralen Pachtpunkt zusammenlaufen. Bestätigt wird das wenn z.B ein Feuer wie am 21 Januar 2013 in Siegen geschehen ausbricht. Dann hat der ganze Landstrich kein Internet und kein Telephon mehr, weil alle alternative Anbieter auf Vorprodukte der Telekom setzen. Wenn eine Netztechnologie so viel mehr Daten als alle andere Technologien transportieren können, dann ist das Sternförmige Netz das kosten effektivste. In Amerika der neunziger ist mal ein Feuer in der Überwachungsmodul eines unbemannten Glasfaserknoten ausgebrochen, mit dem Ergebnis, das man zum Telefonieren eine Flugreise machen musste.

Sp kostet ein GB im Wiederverkaufskontrakt via Sattelsittenverbindung günstigsterweisse 9€. Damit liegt, weil nur diese Technik flächendeckend ist, der Maximale Breitband Verkehrspreis bei diesem Betrag. Einen einmal Übertragenen Inhalt in einem Cache zu Speichern lohnt sich also, denn eine 100€ 3TByte Platte kann Daten für bis zu 27000€ aufnehmen. Ich habe schon in meinem Aufsatz über die Lobbywünsche eines ISP für die Piraten über die Problematik referiert, aber leider wurde dies nicht Zeitlich aufgegriffen. Im Gegenteil, ich gehe davon aus, das meine Listen Kandidatur ganz wesentlich an meinen kritischen Äußerungen zur Netzneutralität und vom drängeln im Internet gescheitert ist. Die Piraten sind halt doch auf dem Weg eine etablierte Partei zu werden.

Was kann die Internet Gemeinde jetzt noch tun, um die Flatrate zu Retten? Natürlich kann sie mit und ohne Piraten politischen Druck machen für eine technische Regulierung machen, die speziell Anbieter von kostenpflichtigen Inhalten dazu zwingen, das sie eine Mindestcachebarkeit von sagen wir mal 95% garantieren müssen. Zum Beispiel dadurch das ein Basis Datei per http Streaming übertragen wird, der wichtige Teile der Bilder und Töne Fehlen, damit die Urheber ihre Rechte wahren können und Gleichzeitig das Internet in seiner Kosten effektiven Struktur erhalten bleibt. Das ist wichtig, denn ist der letzte Flatrate Anbieter vom Netz, werden Werbungs blocker immer wichtiger werden, was weitere Teile der Internet Infrastruktur gefährden wird. Das ist nur logisch, macht doch auf etlichen Seiten die Werbung den Hauptteil des Traffic aus. Damit rückt dann das Ende einer Wissensgesellschaft und der feuchte Traum der Contentindustrie des Pay per View in greifbare nähe. Diese Entwicklung ist extrem Gefährlich, bedenkt man was für ein Schund diese Industrie in die Köpfe der in der Vergangenheit den Menschen in die Köpfe geblasen hat.

Richtig helfen können jetzt eigendlich nur technische Lösungen, die dann gegen politische Übergriffe geschützt werden müssen. Ich biete meinen Kunden einen Lokalen Backup Speicher für meine Kunden an. Das ist für mich alle mal billiger als den Traffic den ich bei meinen Vorlieferanden bezahlen müsste. Problem ist natürlich, das ich meine Kunden fairerweise auf die Gefahren duch die gewählte Regierung im Wege der Bestandsdatenauskunft hinweisen muss, und das diese Daten ohne aufwändige Verschlüsselung (FTP als Laufwerk einbinden, dann true crypt auf eine Datei in dem System mounten - was auch immer die Gefahr birgt das der Kunde im Notfall dann nicht mehr an seine eigenen Daten kommt und man ihm nicht helfen kann) eben leider nicht den gleichen Rechtsschutz unterliegen als wenn diese Daten bei ihm Wohnzimmer oder in einem Land mit vertrauenswürdigen Rechtslage gespeichert sind. In der Schweiz zum Beispiel gibt es z.B. (teure) Backup Services für deren Integrität sogar die Schweizer Armee garantiert!!

Den wichtigsten Aspekt bei der Entlastung der Backbone ist die Verteilung von Filmen, speziell solchen in HD. Für diese müsste eine technische Lösung des Problems in einem neuen Video Codec bestechen, das von der Comunity entwickelt wird und das Videos um den Faktor 10-20 über das heutige Niveau hinaus reduziert. Dieses Ziel ist gar nicht so Abwegig oder Unmöglich wie es auf den ersten Blick erscheint. Die bisher verfügbaren Videocodecs sind so designt, das man in einen Video stream rein zappen kann. Will man eine Plattform für digitales Fernsehen entwickeln welches das analoge Fernsehen emuliert ist diese Forderung zwangsläufig notwendig. Damit das geht, werden in Videos immer wieder Vollbilder eingefügt. Zwischen diesen Vollbilder als jpeg werden Frames mit update und Interpolationsdirektiven erzeugt, mit denen nur leicht veränderte Bilder aus ihrer unmittelbaren Umgebung hergeleitet werden.

Die Elementarzellen sind 8x8 Felder, die entweder per Jpeg übertragen werden oder aber aus dem Vorgängerbild durch Updates hervorgeht. Will man die Kompression steigern, so muss man ein 3D Modell aus einen Film herleiten. Dieses 3D Modell muss nicht stimmen in dem Sinn das es die 3D Verhältnisse der Filmszene korrekt wiedergibt. Es reicht, das es beim Rendern der Kameraposition den Inhalt des zu Kodierenden Film entspricht.
Da ein solches Formt in der Lage ist, Elemente aus der Übertragung aus vorangegangenen Szenen wieder zu benutzen beispielsweise für die Darstellungen Lebensumgebung der Filmcharaktere - kann sehr viel Datenmaterial eingespart werden.

Natürlich muss dann so ein Film von vorne an in den lokalen Speicher geladen werden, aber das ist ja meisten eh der Fall und hilft den caches ungemein. Squid zum Beispiel cached defaultmäßig erst gar nicht, wenn irgendwelche Lader mit partiellen GET's die Daten aus einer Datei stückchenweise laden. Wenn die Kompression eines Films um das 10-20 Fache verbessert wird, dann passt ein normaler Film auf eine CD, ein HD Film auf eine DVD. Das sind Datenmengen die moderne Rechner meist schon in das RAM laden können. Außerdem ist es so, das ein solches Verfahren die Qualität des Video Material zusätzlich noch über die Auflösung des Originalmaterials hinaus erhöhen lässt. Wie ist das Möglich? Dadurch das viele Dinge in einem Film von verschiedenen Kamerapositionen aus gezeigt werden. Dabei hat diejenige Aufnahme mit dem geringsten Abstand die meisten Informationen über eine Oberfläche. In dem diese Informationen zusammengeführt und überall verwendet wird, kann die Auflösungen in den anderen Einstellungen vergrößert werden. So würde selbst SD Altmaterial noch deutlich aufgewertet.

Da seit geraumer Zeit jeder normale Computer über einen 3D support Verfügt, sind auch die Voraussetzungen für die Wiedergabe für ein solches avantgardistisches Codec gegeben. Mit einem solchen Codec unter GNU Lizenz mit der Zusatzbedingung das der produzierte Code außer im Falle einer Videotelefonie Verbindung nicht verschlüsselt werden darf wird Filmmaterial in einer ähnlichen Weiße marginalisiert wie das in den neunziger Jahren mit den Tondateien passiert ist, die durch mp3 und den nachfolge verfahren aac+ so geschrumpft wurden, das sie für das bestehende Internet problemlos zu bewältigen waren. Man muss sich das mal vorstellen: eine gewöhnliche 100€ 3TB Platte kann 1000000 Dateien mit 3MByte Umfang aufnehmen. Man muss sich das mal Vorstellen: nach den Vorstellungen der GEMA von rund 1€ pro Musikstück sollte ein Verbraucher für eine Festplatte mit Musikdaten also bis zu 1000000€ für Musiker abdrücken. Das ist lächerlich, da müssten ja die Festplatten nur noch eingebaut in einen Panzerschrank geliefert werden. Umgang mit Festplatten als Schwerathletik!

Die Kompressionsseite eines solchen Codecs ist erheblich aufwändiger. Das geht nicht mit jedem Computer in vertretbarer Zeit oder gar in Echtzeit. Aber Moderne High End Grafikarten haben eine so große Rechenleistung, das es heutzutage kaum noch Rechenwerke für Supercomputer gibt. Supercomputer, das sind heute Chipgräber aus sehr vielen Grafikprozessoren. Da die Kompression von Filmen seht gut parallelisiert, eignet sie sich diese Aufgabe sehr Gut für eine Lösung ein einer Cloud.

Ich habe beim anonymisierten durchsehen von Cache Log Files festgestellt, das es gerade bei Videomaterial zusätzlich vom Ausmaß her verhängnisvolle Tendenz gibt, das ein und der selben Inhalt an unzähligen verschiedenen Stellen zu Hosten. Würde man einem solchen Internet Video Format einen Header der eine SHA512 Hash summe des gesamt Inhalts umfasst, dann könnten Caches nach dem Laden des Dateikopfs erkennen, ob sie diesen Inhalt schon aus einer anderen Quelle kennen.

Alternativ lies sich das Problem der Mehrfachspeicherung von Inhalten unter verschiedenen URL auch generell dadurch in den Griff bringen, das an einem Ort mit extrem billigen Internet Verkehr neue Services eingerichtet werden mit einem neuen abgewandelten Typ eines Proxy Server, der dadurch definiert ist, das er statt des Inhaltes selber nur einen SHA512 einer URL liefert. Damit könnten dann Squid Proxiserver vor Ort beim Kunden, wie sie z.B. in Endian firewalls eingesetzt werden, oder aber in Ortsnetzen mit begrenztem Zugang zum Internet feststellen ob sie eine große Datei schon aus einer anderen Quelle haben. Damit lassen sich Verluste vermeiden wie sie bei der Distribution des Suse Linux auftreten, bei dem ohne explizite Äquivalenz Anweisung ein und die selben Dinge aus verschiedenen Quellen gezogen werden. Solche Pannen sorgen dafür, das wirksame Caches zur Zeit so Wartungsintensiv geworden sind, das viele - zu viele - Internet Provider auf ihre Verwendung verzichten, und es damit auch für immer mehr Anbieter von Inhalten nicht mehr Wirtschaftlich ist, sich Gedanken um das Zusammenspiel mit Caches zu machen. Das ist Punkt, der sich wieder Ändern muss.


Nachtrag: Wie ist es möglich, sich im Internet vorzudrängeln?

Es gibt Leute im Internet, die versuchen mit eigenen Transportprotokollen eine Vorfahrt zu Erschleichen. Um zu verstehen wie das geht, musst man folgendes Verstehen:

  1. Was passiert, wenn es auf einer Leitung eng wird?
    Als erstes wirft der IP router, wenn die Werteschlange an einer Leitung eine Bestimmte Länge erreicht, die Pakete weg. Durch das Wegwerfen, das Zufällig geschieht, reagieren die empfangende Stelle mit einer Aufforderung zur erneuten Aussendung. Daraufhin wiederholt die Sendende Seite und verringert Geschwindigkeit.
  2. Was ist Forward Error Correction?
    Dabei handelt es sich um ein Verfahren, die Daten aufzublasen, um ohne erneute Aussendung Verluste ausgleichen zu können. Im einfachsten Fall, alles Doppelt senden, aber es geht bedeutend cleverer. Das Prizip ist wie bei einem Raid5 oder Raid6.
  3. Was ergibt sich aus der Kombination dieser Fakten?
    Wenn ich jetzt einen Modifizierten TCP/IP Stack verwende, dann brauche ich nicht jedes Packet neu anfordern. Demzufolge kann ich mehr Senden als meine Konkurrenten. Ich selbst kann Verluste weg stecken, während der Konkurrent auch Paketverluste verzeichnet und sich so weit zurück nimmt bis er ich nicht mehr behindert im Extremfall bis auf Null!!

Solchen Machenschaften muss man als ISP massiv Drosseln, um solche Dienste sozial verträglich zu machen. Sonst machen die einem betroffene Links zu Unterverteilern gnadenlos zu. Das ist bei jeder Verbindung der Fall, ist aber bei WLAN ISP besonders kritisch, weil ab irgendeiner Belastung die Funkdisziplin kollabiert und alles nur mehr ganz langsam geht.


01 April 2013

Wie die etablierten Parteien die Unterwanderung des Fernsehens auf das Internet ausweiten wollen.

Bereits vor 5 Jahren haben die etablierten politischen Kräfte beschlossen, das Sender im Internet auch eine Rundfunklizenz brauchen, wenn diese mehr als 500 Zuseher haben. Dabei kommt es darauf an, ob es eine redaktioneller Sendebetrieb vorliegt. Durch diese Einschränkung soll erreicht werden, das nicht jede Webcam eine Sendelizenz braucht.

Als das Fernsehen erfunden wurde, da standen nur die Frequenzen des oberen Kurzwellen im Bereichs von 41 bis 67 MHz zur Verfügung. Das sind gerade mal 4 Kanäle, die in Analoger Technologie gerade mal für einen flächendeckenden Fernsehkanal ausreichend waren. Aufgrund der extrem schlechten Erfahrungen mit der staatlichen Propaganda des 3. Reichs hat man das System des Öffentlich rechtlichen Rundfunk erfunden.

In diesem System wird der einzige verfügbare Kanal durch eine vorgeblich Staats ferne Organisation betrieben, zu der wie es so schön heißt "alle gesellschaftlich relevanten Gruppen" Zugang haben. Der Teufel steckt wie immer im Detail, hier im Wort "relevant". Wer ist befugt, zu bestimmen wer relevant ist und wer nicht. Dies wird von Politikern entschieden, und damit habe die natürlich doch wieder die Möglichkeit, das Fernsehen und das Radio vor Ihren Karren zu spannen.

Wie gut sie das im Griff haben, das haben sie am schwarzen Donnerstag im Stuttgart auf das Nachdrücklichste bewiesen. Hier noch mal eine Rekapitulieren der historische Fehlleistung des öffentlich rechtlichen Rundfunks. Die Relevante Szene beginnt bei Minute 2 und 24 Sekunden.



Mir war schon im Moment der Sendung klar, das dies völlig neben der Wahrheit war und Mappus als Ministerpräsident nicht zu halten ist. Da wurden aus Kastanien Steine und das Pfefferspray das war auch von jemanden, der unter einer Jake einen Tornister wie die Sicherheitskräfte getragen hat.




Ich konnte mit so sicher sein, weil ich die Streams verschiedener Aktivisten gleichzeitig empfangen habe, die ich auf einem 6000 x 1500 Pixel Display Array angeordnet habe.

Da war zum einen http://www.flügel.tv. Flügel TV hat damit angefangen, das einfach eine Webcam im Büro aufgestellt wurde, weil ein paar Bürger von ihrem Arbeitsplatz eine prima Aussicht auf den Abriss des Nordflügel des Stuttgarter Bahnhofs hatten, und sie ein enormes öffentliches Interesse angenommen haben. Auch heute betreibt Flügel.tv eine Webcam welche den Fortgang der Bauarbeiten zeigt.



Solche eine Webcam fällt nicht unter die Lizenzpflicht. Aber Flügel.tv hat, beflügelt vom enormen Erfolg ihrer Webseite, mit Equipment das sie von überall her ausgeliehen haben, begonnen ausführlich und systematisch von den verschiedenen Protestaktionen gegen Stuttgart 21 von einem Leiterwagen als improvisierte Ü-Waagen zu berichten. Und das ist genau das, was Politik regulieren und möglichst verhindern will. Eine Lizenzgebühr von typischerweise bis zu 4000 € kann in diesem Zusammenhang als schlichtes Verbot gewertet werden.

Weitere Streams die ich am schwarzen Donnerstag beobachtet habe, kamen vom http://www.cams21.de. Cams 21 rekrutiert sich aus dem Kreis der Aktivisten, welche sich auf der Webseite der Parkschützer organisiert haben. Mit dieser Organisation war es möglich auf jede Form einer Aktion seitens der Bahn mit neuen Protesten zu reagieren, und diese auch life im Internet via bambuser zu dokumentieren. Aber auch das muss wegen der Regelmäßigkeit der Übertragungen, zum Beispiel von den Montagsdemos, als Lizenz pflichtige Tätigkeit angesehen werden.

Wenn jemand ganze Filme zum Abruf in das Internet stellt, ist das keine Lizenz pflichtige Angelegenheit. Da spielt es auch keine Rolle, wie Lang ein solcher Film ist. Es können abendfüllende Werke sein. Wichtig ist nur, das kein life Programm ist. Dabei ist diese Eigenschaft der life übertragenen ungeheuer wichtig für die Authentizität. Das hat zwei Gründe. Zum einen ist es recht aufwendig, den zeitlichen Zusammenhang zwischen offline vorliegenden Videos herzustellen. Das zeigen zum Beispiel die enormen Zeiten die selbst professionelle Ermittler brauchen, wie sich am Beispiel der Ermittlung bezüglich der Freiheit statt Angst Ereignisse festmachen lässt.

Neben dem Komfort das man unterschiedliche Ansichten ein und der selben Ereignisse aus verschiedenen Quellen ist die nicht vorhandene Zeit zur Bearbeitung das Materials, das die Aussagekraft begründet. Für eine Meinungsäußerung reicht es aus, irgendwas zum Abruf in das Internet zu stellen. Wenn ich aber eine Sauerei glaubwürdig dokumentieren will - und das ist ein ganz wesentlicher Punkt einer Begründung einer Meinungsäußerung -, dann habe ich damit ein Problem, wenn ich nicht schon einen entsprechenden Ruf im Internet habe, das meine offline Werken von den Zuschauern Aussagekraft zugemessen wird. Denn seit in den 1990zigern Jurresic Parc in die Kinos gekommen ist, ist jedermann klar, das ein Video alleine ohne zusätzliche Betrachtung keine Beweiskraft mehr zukommt. Waren damals noch große Farmen von sehr teuren Computern nötig, um Dinosaurier einige Sekunden zum Leben zu erwecken, geht das heute mit jedem besseren PC und kostenfrei verfügbarer Software zur Videobearbeitung.

Aber auch mit weniger invasive Eingriffe, wie einfach nur das auswählen und zusammenschneiden des Materials sind geeignet, die Wahrheit zu verzerren. Das Internet bietet die technische Möglichkeit, das jeder Menschen eine gesellschaftliche relevante Gruppe bildet, und in sofern Zugang zu elektronischen Sendemöglichkeiten hat. Mit Bambuser ist das auch ganz einfach, einfach ein Applikation runter laden und loslegen. Eine Beschränkung auf 499 Zuseher - also eine Garantie für die Politiker auf politisch demokratische nicht Relevanz - ist absolut inakzeptabel. Zumal aus dem Ausland Sendungen von jedermann unlimitiert empfangen werden können, denn internationale Verträge wie die KSZE garantieren den Bürgern den Zugang zu Ausländischen Medien.