Autor Thema: re:publica ...  (Gelesen 6830 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica ...
« am: 12 April, 2007, 10:28 »
Ein Ehren- und Verhaltenskodex speziell für Blogger als Pendant zu den publizistischen Grundsätzen des Deutschen Presseratss wird von vielen Bloggern und Forschern hierzulande skeptisch gesehen. "Blogs sind groß geworden, weil es keine Regelungen gab", betonte der Journalschreiber Don Dahlmann auf der Konferenz re:publica in Berlin. Wenn in den meist von subjektiven Meinungsäußerungen gekennzeichneten Weblogs nicht bewusst die Prinzipien der klassischen Berichterstattung gebrochen worden wären, hätten diese keinen kreativen Mehrwert entfaltet. Auch für den Konstanzer Informationswissenschaftler Rainer Kuhlen bietet das Netz die Chance, dass sich etwa im Bereich der öffentlichen Begleitung aktueller Ereignisse neue Gepflogenheiten und Normen entwickeln. Es wäre daher kontraproduktiv, Weblogs mit traditionellen Sanktionen überziehen zu wollen.

Seit Tagen kocht in der Blogosphäre der Streit über eine Art Blogiquette hoch, eine Selbstverpflichtung der freien Web-Kommentatoren über die allgemeine Netiquette hinaus. Angestoßen hat die Debatte der kalifornische Verleger Tim O'Reilly, der als Erfinder des Begriffs Web 2.0 und Verfechter der demokratischen Möglichkeiten des Internet gilt. Sein Vorschlag für einen Verhaltenskodex zur Selbstregulierung der Szene mitsamt einem Logo-Programm zur Durchsetzung grundlegender Höflichkeitsregeln stößt auf ein geteiltes Echo.

Gemäß dem Entwurf sollen "inakzeptable" Inhalte und Kommentare, die etwa Persönlichkeits- oder Urheberrechte verletzen, gelöscht werden. Eine Kommentierung von Blogeinträgen will O'Reilly nur noch zulassen, wenn der interessierte Meinungsvertreter zuvor eine gültige E-Mail-Adresse hinterlegt hat. Anonyme Kommentare sollen der Vergangenheit angehören, Blogger die "Verantwortung" für die Eingaben ihrer Leser übernehmen. Weiter schlägt der Verleger eine persönliche Kontaktaufnahme vor dem öffentlichen Austragen von Streitigkeiten vor und das Ignorieren von Trollen. Er plädiert auch für ein aktives Einmischen in Auseinandersetzungen und mehr Zivilcourage von Bloggern. Auslöser für den Vorstoß waren Morddrohungen gegen die US-Programmiererin Kathy Sierra.

Auf dem Podium bei re:publica waren sich alle einig, dass eine solche spezielle Blogger-Ethik in weiten Teilen nach hinten losgehen würde. "Ich bin gerne höflich, aber lass mir das nicht von jemand vorschreiben", hielt es BILDblogger Stefan Niggemeier mit dem US-amerikanischen Medienbeobachter Jeff Jarvis. Um Morddrohungen zu verhindern, brauche es kein Blogger-Korsett. Da würden auch die bestehenden Gesetze greifen. "Wenn jemand dir in deine Kommentare reinscheißen will, wird er immer einen Weg finden", ergänzte Don Dahlmann in der freizügigen Redeart mancher selbsternannter Web-Kommentatoren. "Gatekeeping" sei im Netz nicht gewollt und eine derartige "Form von Zensur" funktioniere dort auch nicht mehr so wie in den alten Medien.

Kuhlen rief die versammelte Blogger-Gemeinde dazu auf, insbesondere beim Urheberrecht bestehende Vorgaben zu brechen und dabei notfalls Abmahnungen in Kauf zu nehmen. Ansagen in der Form, etwa kein geschütztes Bild gleichsam als Zitat in ein eigenes Weblog aufzunehmen, seien obsolet und würden allein noch von Juristen fortgeschrieben, forderte der Betreiber des Portals Nethics zum zivilen Ungehorsam auf. Gleichzeitig räumte er aber ein, dass Mut dazu gehöre, um die für elektronischen Räume angemessenen neuen Urheberrechtsbestimmungen zu entwickeln.

Auch für Don Dahlmann gehört eine gehörige Portion Provokation dazu, um in der Blogosphäre und darüber hinaus Aufmerksamkeit zu erregen und etwas zu bewegen. Zugleich bedauerte er aber, dass "für viele die gute Erziehung mit dem Einstieg ins Internet aufhört". Da brauche man schon ein "dickes Fell", um mit so manchen Kommentaren fertig zu werden, weiß er aus den eigenen Erfahrungen mit einem umstrittenen Experiment eines mehrwöchigen Opel-Tests und dem gesponserten Bloggen darüber.

Zur re:publica 07 siehe auch:

    * Kampf dem Blogger-Mythos -> http://www.heise.de/newsticker/meldung/88110

Quelle : www.heise.de
« Letzte Änderung: 14 April, 2010, 16:09 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: "Print ist tot"
« Antwort #1 am: 13 April, 2007, 17:54 »
Wo knapp 700 Blogger und Journalisten aufeinander treffen, ist der Konflikt zwischen alten und neuen Medien fast greifbar. Auf der Konferenz re:publica in der Berliner Kalkscheune versuchen Vertreter von klassischen Print-Medien und Onliner einen Blick in die Zukunft zu werfen. Konferenz-Mitorganisator Johnny Häusler schickte sein Fazit vorweg: Er verteilte eine experimentelle Print-Ausgabe seines Blogs Spreeblick. Die Titelschlagzeile "Print ist tot". Das Heft hatte er innerhalb weniger Stunden mit Texten der Berlin versammelten Blogger gefüllt und 1000 Exemplare drucken lassen.

Dieser Einschätzung des Online-Verlegers Häusler wollten sich auch die angereisten Vertreter der klassischen Medienhäuser nicht verschließen. "Wir würden uns wünschen, dass es immer Zeitungen geben wird. Aber derzeit steht das gar nicht fest", erklärte Handelsblatt-Redakteur und Blogger Thomas Knüwer. Für ihn mangelt es an einer klaren Vorstellung für die Zukunft. "Man hat die künftige Rolle der Zeitung nicht gefunden. Dort bekomme ich heute Nachrichten, die mindestens 12 Stunden oder 24 Stunden alt sind." Statt dem schnellen Informationsmedium Internet mehr Hintergrundberichte und Reportagen gegenüberzustellen, konzentrierten sich die Zeitungen lieber darauf, das gesamte Tagesgeschehen in Meldungsspalten abzuwickeln. Auch im Layout werde das deutlich: "Die alten Medien glauben, sie müssen jetzt aussehen wie das Internet." Ein Fehler, findet Knüwer.

Mercedes Bunz, Chefin der Online-Redaktion des Berliner Tagesspiegels, sieht keinen direkten Gegensatz zwischen dem Publizieren auf Papier und im Netz: "Das Gegeneinander von Internet und Print wird nur an zwei Stellen gepflegt: in den Verlagshäusern und der Blogger-Szene." Den Lesern seien die Grundsatzdebatten egal, sie entschieden sich für das Medium, das ihre Bedürfnisse aktuell besser bediene. Die Arbeit für Online- und Offline-Medien sei aber nicht gleichzusetzen: Für Online-Journalisten gäbe es keine starren Abgabetermine, Print-Medien hingegen bereiteten die Inhalte für den Leser oft ansprechender auf. Bei deutschen Tageszeitungen habe jetzt durchweg eine Experimentierphase mit Online-Inhalten begonnen.

Der Chefredakteur von Focus Online, Jochen Wegner, verwies auf das Miteinander von Print- und Online-Journalisten. So würden viele Focus-Redakteure auch der Online-Redaktion Inhalte anbieten. Wenn der Druckschluss der Print-Ausgabe näher rücke, nehme die Bereitschaft der Print-Journalisten jedoch ab, auch für den Online-Auftritt zu schreiben. Die Strategie "Online first", die derzeit einige deutsche Verlage propagierten, sei Unsinn. Würde ein spannendes Interview kurz nach Andruck in der Redaktion eintreffen, würden die Redakteure erst sehen, wann sie es in der Print-Ausgabe unterbringen könnten.

Knüwer sieht zudem einen Generationenkonflikt in den Redaktionen. So zeige sich ein Teil der Redakteure der Entwicklung im Online-Bereich gegenüber sehr aufgeschlossen, andere hingegen sähen den Wandel sehr kritisch. "In den nächsten ein bis zwei Jahren wird in den Redaktionen ein richtiger Kulturkrieg ausbrechen", vermutet der Redakteur.

Bei aller Liebe zu Online erinnerte Blogger Johnny Häusler auch an die Vorteile des Papiers. Gerade durch die Möglichkeit, Hintergrundinformationen einfach zu verlinken, seien viele Blog-Texte für Außenstehenden fast unlesbar. "Für sich alleine funktionieren diese Blog-Artikel nicht. Man muss erst viel zu viel rumklicken". Dazu bekäme der Leser oft den Eindruck, dass Blog-Schreiber und Leser eine geschlossene Gemeinschaft seien. Bei Papier-Artikeln werde der Autor hingegen gezwungen, dem Leser in seinem Text alle wesentlichen Informationen zusammenzufassen.

Doch nicht nur die Medien ändern sich, auch das Verhalten der Leser wandelt sich stark. Die Leser von Focus Online würden mittlerweile auch lange Hintergrund-Texte zu schätzen wüssten, erklärte Wegner. Selbst Texte mit über 10.000 Zeichen würden bis zum Ende gelesen. "Vor Jahren war das eher ungewöhnlich". Doch diese wachsende Vorliebe für Online-Inhalte ist nicht bei jeder Leserschaft festzustellen. So berichtet Knüwer von Leserbeschwerden, wenn einzelne Aktien-Kurse nicht mehr in der Print-Ausgabe des Handelsblatts abgedruckt würden, obwohl die Kurse per Internet schneller und einfacher in Erfahrung zu bringen seien. "Diese Leserbriefe sind dann meist mit Schreibmaschine geschrieben", sagte Knüwer.

Wie Medien in fünf bis zehn Jahren aussehen werden, wollte jedoch kein Panel-Teilnehmer vorhersagen. Auch im Hinblick auf den viel zitierten Bürgerjournalismus herrscht noch große Ungewissheit. So berichtete Katharina Borchert über das Online-Projekt der WAZ Mediengruppe, das redaktionelle Inhalte mit Leserberichten verbinden soll. Wie die Leserschaft auf die Möglichkeiten reagieren werde, sei aber noch unklar: "Die Weisheit haben wir nicht mit Löffeln gefressen. Wir haben uns auf viel Scheitern eingerichtet", resümierte Borchert.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Im Netz leben -- unfair und unsicher?
« Antwort #2 am: 14 April, 2007, 12:49 »
Mit den Schattenseiten der Produktion von Notebooks, zentrales Werkzeug vieler Blogger, beschäftigte sich ein Workshop auf der Konferenz re:publica, die gestern abend zu Ende ging. Andreas Manhart vom Freiburger Öko-Institut referierte zunächst die Inhalte einer Studie (PDF-Datei), die sein Institut im letzten Jahr veröffentlicht hatte. Negativ formuliert unterstütze ausnahmslos jeder, der sich ein Notebook kauft, die widrigen Arbeitsbedingungen, unter denen Fertiger wie Quanta Computer in China produzieren lassen. Positiv stimme angesichts des weiter wachsenden Notebook-Marktes (100 Millionen Einheiten pro Jahr) die Tatsache, dass auf die Industrie Druck gemacht werden könne, faire Notebooks zu produzieren. Der EU-Abgeordnete Fritjof Schmidt betonte die Rolle von Produktionsstandards beim Umwelt- und Arbeitnehmerschutz. Schmidt zufolge müsste die gesamte Industrie zur Einhaltung solcher Standards ähnlich verpflichtet werden, wie bei der RoHS-Richtlinie. Als EU-Berichterstatter für den fairen Handel mit Waren aus Entwicklungsländern entkräftete Schmidt vorsorglich den möglichen Vorwurf des Protektionismus einer EU, die mit teuren Notebooks den Markt abschotte. Anders als im politisch beliebten Serverbau werde kein einziges Notebook mehr in der EU gefertigt. Allerdings seien Notebooks von der Produktion bis zur Entsorgung in chinesischen "Garbage Cities" komplexe Systeme im Vergleich zu landwirtschaftlichen Produkten. Bei diesen sei das Fair-Trade-Konzept relativ weit gediehen und akzeptiert. Sowohl der Wissenschaftler wie der Politiker hatten indes keine Empfehlungen zum Kauf eines Notebooks parat, "an dem kein Blut klebt", wie dies ein Teilnehmer des Workshops formulierte.

Einen mindestens ebenso interessanten "Blick von unten" auf das Phänomen des Bloggens und des Lebens im Web 2.0 präsentierte Andreas Gehret im API-Workshop der re:publica. Gehret, beim Kontaktnetzwerk Xing für die Software-Entwicklung zuständig, berichtete von den Schwierigkeiten, ein API für die Ansprüche des Web 2.0 zu entwickeln, ohne dass der Datenschutz auf der Strecke bleibt. Im Zuge des allgemeinen Trends zum Mashup berge jedes API für den Zugriff auf bestimmte Xing-Daten die Gefahr, die Privatsphäre der Xing-Teilnehmer zu verletzen, wenn es schlecht programmiert sei. Gehret berichtete von der Veröffentlichung eines APIs, mit dem Xing-Teilnehmer auf Angeboten wie Google Maps lokalisiert werden können. Zwei Stunden nach Veröffentlichung des API-Angebotes trudelte die erste Klage eines Teilnehmers ein, der zwar gegen die Verwendung seiner Daten optiert hatte, sich aber dennoch auf einer Karte sehen konnte. Die scheinbar unverdächtige Möglichkeit, die Postleitzahlen der Teilnehmer auszuwerten, führten zur "Enttarnung", weil es Firmen und Institutionen mit eigenen Postleitzahlen gibt. Nun programmiere man bei Xing unter dauernder Beratung durch Juristen, so Gehret, weil man nicht auf APIs verzichten könne. Sie seien nicht nur für die Software-Modularisierung wichtig: "Soziale Netze können nur dann überleben, wenn sie sich öffnen". Inzwischen habe Xing nicht nur das API neu programmiert und sich durch die Anpassung der Allgemeinen Geschäftsbedingungen juristisch abgesichert. Doch ob die Zustimmung oder Ablehnung bestimmter Punkte reicht, sei ungewiss. "Auch die Juristen können uns nicht sagen, welche Verantwortung Xing hat, die Nutzer darüber aufzuklären, was mit ihren Daten möglich ist. Im Augenblick sind wir ein bisschen ratlos." Als größte Gefahr nannte Gehret die Möglichkeit, dass jemand mittels einer API eine "Hammer-Applikation" schreibt, die im Netz zum Hype wird und massiven Druck auf die Server und Datenbestände ausübt. Mit dieser Gefahr müssten alle Anbieter von Social Software leben – oder von der Bildfläche verschwinden.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Globale Regeln fürs Netz umstritten
« Antwort #3 am: 14 April, 2010, 16:06 »
Angesichts immer wiederkehrender Forderungen nach einer "Internet-Charta" und globalen Regeln fürs Netz diskutierte die auf der Konferenz re:publica  versammelte Gemeinde von Bloggern, Twitterern und anderen Netizens am heutigen Mittwoch in Berlin über die Macht von Staaten und Konzernen in der digitalen Welt. Eine dabei behandelte Frage war, wie man US-amerikanischen Datensammler die Einhaltung europäischer Vorstellungen zur Sicherung der Privatsphäre schmackhafter machen könnte. Prinzipiell müssten Datenschutzbeauftragte des alten Kontinents längst Sperren fordern für Facebook, Google und Co., erklärte Ralf Bendrath, Datenschutzforscher bei den Grünen im EU-Parlament, in diesem Zusammenhang. Deren Seiten hielten sich nicht an europäische Datenschutzbestimmungen und "müssten daher eigentlich blockiert werden". Gleich löschen könne man sie schließlich kaum.

Bisher traue sich niemand, vergleichbare Vorhaben ins Gespräch zu bringen, verdeutlichte Bendrath seine Haltung. Auch er selbst wolle nur auf ein prinzipielles Dilemma der Rechtsdurchsetzung im globalen Internet hinweisen. Dieses gelte für deutsche Datenschützer genauso wie etwa für chinesische Zensoren. Ein echter Lösungsansatz dafür zeichne sich nicht ab, da das Netz "nicht zerstückelt" werden sollte. Staaten und Konzerne lieferten sich derzeit aber eine Schlacht um die Herrschaft im Cyberspace.

Allseits versuchen, erklärte Bendrath, zum einen Regierungen, ihre Territorialansprüche im Netz geltend zu machen und dabei etwa auf die nationalen Niederlassungen großer Internetfirmen oder auf Zugangsanbieter in ihrem Land zurückzugreifen. Die "große Firewall" Chinas sei dafür das beste Beispiel, dem die EU-Kommission jetzt mit ihrer Initiative für einen  " Schengen-Raum im Internet " unter dem Aufhänger der Bekämpfung von Kinderpornographie nacheifere. Parallel gehe es Brüssel und Washington darum, Informationen in den Händen privater Akteure für die Strafverfolgung anzuzapfen und etwa über das Stockholm-Programm zur inneren Sicherheit eine "Vorratsdatenspeicherung für alles" einzuführen. Internetkonzerne drängten zum anderen auf den "freien Informationsfluss", in den sie personenbezogene und schützenswerte Daten gleich mit einbezögen.

Für Andreas Schmidt, Forscher im Bereich Internetsicherheitspolitik an der TU Delft, lautet die Herausforderung angesichts dieser Zwickmühle, "Mechanismen zu finden, die die Gefahr der Kooperation zwischen Staaten und Providern zulasten der Bürger abfedern können". Frei nach dem Philosophen Karl Popper setzte er sich dafür ein, "technische Infrastrukturen so aufzubauen, dass unfähige und unredliche Machthaber damit keinen Schaden anrichten können".

Globale Regulierungsmaßstäbe fürs Internet zu finden, bleibt auch nach Ansicht der E-Government-Expertin der Dienstleistungsgewerkschaft ver.di, Annette Mühlberger, eine schwierige Angelegenheit. Dies habe man bei der Domainverwaltung ICANN bezogen auf einen speziellen Sektor versucht, sei damit aber nur mäßig erfolgreich gewesen. Es sei am besten, sich unterhalb dem Aufbau von Regelwerken im rechtlichen Sinne auf flexible Standards zu verständigen. Zudem müssten zunächst bestehende allgemeine rechtliche Normenwerke wie internationale Menschenrechtsdeklarationen konsequent auf die Informationsgesellschaft angewendet werden. Vor allem Unternehmen würden diese derzeit teils völlig ignorieren. Einrichtungen wie das Internet Governance Forum (IGF) seien ferner hilfreich, um einen möglichen globalen Regelungsbedarf abzustecken. Nicht zuletzt müssten Alternativen für virtuelle Gemeinschaften und Netzwerke entwickelt werden, bei denen die Daten wirklich den Nutzern gehörten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Nur nicht pessimistisch werden, Netizen!
« Antwort #4 am: 14 April, 2010, 17:00 »
Rund 2500 Besucher tummeln sich auf der vierten Re:publica, die Mehrzahl von ihnen Blogger und Internet-Aktivisten. Was als kleine Konferenz in der Kalkscheune  begann, die Chancen engagierter Netzpolitik auszuloten, ist mittlerweile eine große Veranstaltung mit einer Stimmung wie auf einem Klassentreffen geworden. Man sieht und beäugt IRL die Menschen, die als Blogger, Kommentargäste, als Follower oder Tweeter digitale Nachbarn sind. Im Vergleich zu den Anfängen im Jahre 2007 ist der Optimismus der Teilnehmer wie der Referenten verhalten. Passend zur Konferenz veröffentlichte die Frankfurter Allgemeine Zeitung ein multimediales, kritisches Portrait der deutschen Blogger-Szene, die selbstreferenziell geworden sei und kaum noch jüngere Menschen anziehe. Die tummelten sich lieber in sozialen Netzwerken wie Facebook und hätten wenig für Netzpolitik übrig.

Den Anfang im Vortragsreigen machte der Schriftsteller Peter Glaser mit einem sehr unaufgeregten Vortrag über die digitale Faszination, die das Leben auf dem achten Kontinent (Digitalien) mit sich bringt. Er versuchte, mit historischen Beispielen den Fortschritt zu illustrieren, den das Netz und seine Bewohner in die moderne Gesellschaft gebracht haben. In einem Land wie den USA, in dem sich Millionen bis heute keine Krankheitsvorsorge leisten können, zeigte eine akute Notsituation den Google-Gründern die Bedeutung ihres Vorhabens. Ein Leben konnte gerettet werden, weil via Google das richtige Verhalten im Notfall gefunden werden konnte. Glaser wies darauf hin, dass erst 19 Prozent der Menschheit vernetzt ist. Es müsse darum gehen, die restlichen 81 Prozent zu erreichen und zu ermutigen, ihre "Stimme" zu erheben. "Journalismus ist die zivilisierteste Form von Widerstand. Jeder kann neue Worte formulieren, die Sprache gehört allen und kostet nichts", übte sich Glaser in Optimismus.

Die kalte Dusche zum warmherzigen Auftakt lieferte der Politikwissenschaftler Evgeny Morozov. Morozov, der den Verfall der sowjetischen Hegemonie in Weißrussland als Aktivist miterlebt hat, beschäftigt sich intensiv mit der Frage, wie Diktaturen das Netz nutzen können, indem sie aus dem Internet ein Spinternet machen, dass die offiziellen Verdrehungen (Spin) propagiert. Er wies auf die Tatsache hin, dass gerade moderne autoritäre Regierungen wie Singapur relativ unabhängige Medien erlauben, so lange diese nicht direkte Kritik am Regime üben. In diesen Ländern sei ein regierungsamtlich gesteuerter digitaler Aktivismus denkbar, den Morozov als "Crowdsourcing, Dictator's Cut" brandmarkte. Harsche Kritik übte der Wissenschaftler an Theorien, die von der Digitalisierung selbst schon Demokratisierung erwarten: "Das Verändern der Verhältnisse, die Durchführung einer Revolution ist NICHT mit dem Verbessern eines Eintrags auf Wikipedia vergleichbar. Wer von den kostengünstigen Informationsmitteln schwärmt, muss bedenken dass sie auch für Gegenrevolutionären kostengünstig sind." Für die meisten autoritären Staaten der Welt sei die Vernetzung und Digitalisierung eine Chance. Die Herrscherkasten können so simulieren, dass sie auf das Volk hören, während sie via Facebook das Volk belauschen.

Auf den nachdenklichen Vortrag folgte eine ur-amerikanische, sehr optimistische, aber auch sehr oberflächliche Datenschutz-Präsentation des bekannten Bloggers und Buchautors Jeff Jarvis. Dieser hatte anlässlich der Digital Life Design des Burda-Verlages in München erstmals eine gemischte Sauna betreten und diesen Kulturschock in einem Blogbeitrag verarbeitet, der ebenso ungeniert seinen Prostata-Krebs erwähnt. Aus diesem Erlebnis heraus entwickelte Jarvis einen Vortrag über das "Deutsche Paradoxon", Privatsphäre zu fordern, aber gleichzeitig eine öffentlich Debatte darüber zu führen wie lang Schwänze sein dürfen. Jarvis plädierte dafür, die vollkommene Datentransparenz als gesellschaftliche Norm zu definieren. So sei gewährleistet, dass kein Staat oder Geheimdienst Kontrolle über die Daten bekomme. Zum Abschluss seines Vortrages präsentierte Jarvis die erste deutsche Übersetzung seiner Bill of Rights in Cyberspace: "Alle Bits sind gleich geschaffen" – das brachte ihm donnernden Applaus ein. In der anschließenden Diskussion warnte Jarvis vor der typischen deutschen Miesmacherei und ermutigte die Anwesenden, mehr Optimismus zu wagen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
Peter Sunde, einer der Gründer der mittlerweile verlassenen Pirate Bay, hat den Micropayment-Dienst "Flattr" am Mittwoch auf der Internetkonferenz re:publica in Berlin vorgestellt. Nutzer sollen ab Juni eine Monatspauschale festlegen und diese an die Erzeuger von Online-Inhalten ihrer Wahl ausschütten können. Bisher gebe es keine gute Möglichkeit zu zeigen, dass man ein Musikstück, ein Video oder einen Text möge und dafür eine finanzielle Unterstützung zu zahlen bereit sei, erklärte der Schwede. Mit Flattr könne man etwa in einem Blog oder auf einer anderen Webseite einfach auf einen zugehörigen Button klicken. Am Ende des Monats werde dann das voreingestellte Budget an die entsprechend markierten Anbieter verteilt.

Der Name der Plattform setzt sich aus "Flatrate" und "to flatter" (schmeicheln) zusammen. Selbst wenn der individuelle Anteil klein ausfalle, könnten angesichts der erhofften großen Zahl an Nutzern des Diensts respektable Finanzströme herauskommen, meinte Sunde. Damit erübrige es sich letztlich, ein Preisschild an digitale Güter anzuheften, da die Gesamtheit der Nutzer über eine Entlohnung entscheide. Man müsse auch kein Betreiber etwa eines Blogs oder ein Künstler sein, um über den Dienst Geld zu machen. Vielmehr sei es etwa auch denkbar, einen für wichtig empfunden Kommentar in einem Forum zu "flattern".

Ein offener Betatest der Applikation soll Sunde zufolge in rund einem Monat starten, in zwei Monaten sei eine Öffnung für alle Interessierten geplant. Der frühere Pirate-Bay-Sprecher räumte ein, dass das System derzeit zentral aufgebaut sei und wie eine Bank funktioniere. Die Betreiber würden zur Finanzierung der Plattform auch eine kleine Gebühr erheben, die derzeit zehn Prozent der Monatspauschale betrage. Der minimale Einsatz liege bei zwei Euro. Mittelfristig wolle man aber einen dezentralen Ansatz und einen offenen Standard für den Bezahlservice unterstützen. Auch der Quellcode werde letztendlich vermutlich veröffentlicht, wenn das System erst einmal stehe. Man sei auch sehr um den Datenschutz besorgt, versicherte Sunde. Es würden klare Regeln aufgestellt, dass personenbezogene Nutzerdaten schnellstmöglich zu löschen seien. Man könne Geld etwa auch über ein PayPal-Konto einzahlen, um die Abgabe persönlicher Informationen gering zu halten.

Einen Widerspruch zwischen seinem einstigen Engagement bei der Filesharing-Plattform und dem neuen Entlohnsystem sieht Sunde nicht. Die Pirate Bay sei nicht gegen Kreative gerichtet gewesen. Er habe kein Problem damit, dass Künstler Geld verdienten. Nur das Einstreichen großer Gewinne durch die Labels sehe er kritisch. Insofern gehe es weiter um das Prinzip, Mittelmänner über das Internet auszuschalten und nun eben Geld mehr oder weniger direkt zwischen zwei Personen auszutauschen. Dass es bereits andere Startups gibt, die ähnliche Systeme auf die Beine gestellt haben, sei "gut für den Wettbewerb". Die Idee, deren Grundzüge sich bereits im wenig erfolgreichen "Street Performer Protocol" aus den Neunzigern wiederfinden, sei aber nicht geklaut. Flattr sei bereits sei drei Jahren in der Entwicklung.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Mehr Datenschutz bei Green IT gefordert
« Antwort #6 am: 15 April, 2010, 10:22 »
Frank Rieger vom Chaos Computer Club (CCC) hat dafür plädiert, Datenschutzdebakel bei "grünen" IT-Systemen von vornherein im technischen Design zu verhindern. Intelligente Stromzähler etwa seien eine sinnvolle Sache, da sie Spitzenzeiten beim Energieverbrauch durch eine flexible Preisgestaltung abfedern könnten, befand der Hacker am gestrigen Mittwoch auf der Internetkonferenz re:publica in Berlin. Diese könnten derzeit aber auch in fortgeschritteneren Varianten die Nutzung jedes einzelnen Haushaltsgeräts aufzeichnen. Das sogenannte Smart Grid erkenne so, wann und wie oft jemand dusche, den Kühlschrank aufmache oder koche. Es sei aber fraglich, ob das Netzwerk all dies wissen müsse. Es reiche aus, wenn der Zähler selbst die sensiblen Nutzungsinformationen erhalte und einzelne Geräte steuere.

Für Rieger ist es so unerlässlich, dass die Verbraucher im Smart Grid selbst die Hoheit über die Daten erhalten und diese nicht an die Energiekonzerne wandern. Deren Pläne, große Händler mit personenbezogenen Informationen zu werden, müssten gestoppt werden. Es sei ein Mythos, wandte sich der Hacker gegen einen seiner Vorredner, den Medienexperten Jeff Jarvis, dass die Herausgabe persönlicher Daten nur Vorteile für die Konsumenten habe. Der einzige derzeit feststellbare Mehrwert eines solchen Verhaltens liege auf der Seite der Unternehmen, die Geschäfte mit den Informationen ihrer Kunden verstärken könnten. Die Ziele von Green IT könnten dagegen auch mit anonymisierten Daten erreicht werden, dafür müsse kein Personenbezug hergestellt werden.

Dies gilt laut Rieger auch für Pkw-Mautsysteme mit GPS-Aufzeichnungen aller Bewegungen eines Fahrzeugs, wie sie in den Niederlanden im Kampf gegen in Stoßzeiten nicht mehr passierbare Straßen installiert werden sollen. Auch hier müsse der Betreiber für die Abrechnung nicht wissen, wann jemand zum Supermarkt oder gar in ein Bordell fahre. Vielmehr reichten aggregierte Daten aus. Generell steigen die Erwartungen an den Datenschutz, je stärker der physikalische Raum und das Alltagsleben darin berührt wird, meint der CCC-Vertreter. Nutzer sozialer Netzwerke hätten kaum Hemmnisse, intimste Daten über sich preiszugeben, während auf Bewegungsdaten basierende Dienste für Mobiltelefone  dagegen oft Akzeptanzprobleme hätten. Wer in diesem Bereich trotzdem Informationen über sich abgeben wolle, sollte darauf achten, dass diese nur auf bestimmte Zwecke zugeschnitten und die Einwilligung widerrufbar ist.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Regulierer und Politik sollen Netzneutralität stärken
« Antwort #7 am: 15 April, 2010, 15:47 »
Verbraucherschützer und Hacker haben die Politik und die Bundesnetzagentur aufgefordert, mehr für die Einhaltung des offenen Prinzips des Internet zu tun und ein "Zwei-Klassen-Netz" zu verhindern. Der Markt werde es nicht richten, wandte sich Constanze Kurz vom Chaos Computer Club (CCC) am heutigen Donnerstag auf der Konferenz re:publica  in Berlin gegen die Koalitionslinie. Vor allem auf dem Land sei der Wettbewerb gar nicht vorhanden, aber auch in den Städten könnten die Nutzer "nicht alle zwei Monate den Anbieter wechseln".

Auch Falk Lüke vom Bundesverband der Verbraucherzentralen (vzbv) sprach sich für klarere Regulierungsvorgaben aus. Überlasse man die Definition des Begriffs Internet dem Markt, erhalte der Kunde künftig womöglich nur noch einen IPTV-Zugang mit eingeschränkten Surfmöglichkeiten oder einen abgeschlossenen Dienst wie Compuserve in den Anfangszeiten des Netzes. Es reiche nicht aus, eine Mindestqualität für einen Internetanschluss festzulegen. Derzeit gingen viele Provider dazu über, Verfahren zum Netzwerkmanagement wie das sogenannte Traffic Shaping einzusetzen. Von einer eigentlich dreispurigen Datenautobahn blieben dann nur noch zwei Spuren übrig. Es sei für den Verbraucher nicht immer nachvollziehbar, wenn ein Anbieter spezielle Ports etwa zum Filesharing drossele.

"Der Kunde kriegt, was von der Shaperei übrig bleibt", monierte auch Kurz. Netzwerkmanagement sei schließlich "schlicht profitabel". Sie könne sich selbst auch entsprechende "sexy" Geschäftsmodelle aus Sicht der Anbieter ausdenken. Für die Kunden entstehe damit aber die Gefahr, dass die Verbindung beispielsweise beim Abruf der BBC-Seite "quälend langsam" werde, weil der Provider mit dem Medienunternehmen keinen Vertrag abgeschlossen habe. Mit der Netzneutralität seien so auch die Informations- und Meinungsfreiheit sowie andere demokratische Grundwerte eng verknüpft.

Cara Schwarz-Schilling von der Bundesnetzagentur hielt dagegen, dass der Rechtsrahmen "ganz gut funktioniert". Marktbeherrschenden Telekommunikationsfirmen könnten bereits umfangreiche Auflagen gemacht werden. Auch im Mobilfunk, wo der Wettbewerb groß sei, habe der Regulierer eine Blockade des VoIP-Anbieters Skype größtenteils aufheben können. Ein Problem mit der Netzneutralität entstehe eigentlich nur, "wenn Nutzer keine Auswahl haben". Breitbandanschlüsse und Glasfaser müssten allerdings erst zum Kunden gebracht werden, was "sehr viel Geld" koste. Hier müsse es Anreize für die Betreiber geben.

Große Erwartungen knüpft Schwarz-Schilling auch an die neuen Auflagen aus dem neuen EU-Regulierungsrahmen für den Telecom-Markt, den Deutschland im Bereich Netzneutralität wohl nahezu Eins zu Eins umsetzen werde. Provider müssten dann das "Kleingedruckte" aus den Verträgen künftig groß darstellen. Zudem könnten die Regulierer Vorschläge für die Ansetzung einer Mindestqualität von Breitbandnetzen machen. Künftig werde auf EU-Ebene wohl auch eine Debatte über die Ausweitung des von Anbietern zu gewährleistenden Universaldienstes vom reinen Telefonanschluss auf das Breitbandnetz geführt.

Die für die "digitale Agenda" zuständige EU-Kommissarin, Neelie Kroess, hatte Anfang der Woche angekündigt, wohl noch vor dem Sommer eine Konsultation zum Bereich Netzneutralität durchführen zu wollen. Generell sei das Internet nicht naturgemäß eine "neutrale Plattform". Es müssten daher angesichts der Forderungen zur Beteiligung von großen Inhalteanbietern wie YouTube an den Leitungskosten neue Entscheidungen getroffen werden, ob Provider zwischen einzelnen Inhalten unterscheiden und sie mit verschiedenen Maßgaben an den Endkunden bringen dürften.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Fallstricke bei der Durchleuchtung des Netzverkehrs
« Antwort #8 am: 15 April, 2010, 19:47 »
Wissenschaftler und Sicherheitsexperten haben auf der Internetkonferenz re:publica in Berlin auf Gefahren des Einsatzes von Verfahren zur Überwachung des Netzverkehrs wie "Deep Packet Inspection" (DPI) hingewiesen. Es handle sich dabei um eine "Kontrolltechnologie", erklärte Ralf Bendrath, Datenschutzforscher bei den Grünen im EU-Parlament. Andreas Bogk vom Chaos Computer Club (CCC) führte aus, dass die umstrittene Technik an sich neutral sei und für verschiedene Zweck genutzt werden könne.

Mit DPI könnten Provider den gesamten Netzverkehr durchleuchten, einzelne Inhalte ausfiltern oder Anwendungen blockieren. Bogk erklärte, DPI sei aus Algorithmen von Viren-Scannern entwickelt worden. Erst nach und nach hätten Zugangsanbieter herausgefunden, dass man das Verfahren zum Betrachten des Servicetyps, des Zielports oder der eigentlichen Inhalte von Datenpaketen auch fürs Netzwerkmanagement und die Differenzierung einzelner Datenströme verwenden könne. Heute laufe die Technik in Zusatzgeräten für Router von Cisco, Netzwerkkarten oder spezieller Hardware etwa von Sandvine, mit der große Datenmengen in Echtzeit analysiert und unterschiedlich durch die Netze weitergeleitet werden könnten.

Für Bogk ist DPI nicht an sich "schlecht". Damit ergebe sich oft die einzige Chance, etwa bei einem Denial-of-Service-Angriff schädliche Datenpakete auszufiltern und das Netzwerk am Laufen zu halten. Nur auf diesem Weg könne ein Provider auch Dienste wie VoIP im Netz bevorzugt behandeln und für sie einen gewissen Qualitätsstandard aufrecht erhalten. Auch Bendrath sieht sinnvolle Anwendungen von DPI. Zugleich werde aber die Frage aufgeworfen, ob damit nicht gegen das Telekommunikationsgeheimnis verstoßen werde. Dies sei gerichtlich noch nicht geklärt. Nach Ansicht von Datenschutzbeauftragten könne eine Echtzeitanalyse des Netzverkehrs aber rechtmäßig sein, solange keine Erkenntnisse daraus gespeichert würden.

Ein weiteres Problem ergebe sich für Provider, die DPI verwenden, da sie theoretisch Kenntnis über die transportierten Inhalte erlangten. Damit könnten ihre bestehenden Haftungsprivilegien für die reine Durchleitung von Paketen erlöschen. So müssten sie etwa einschreiten, wenn sie Kinderpornographie oder andere illegale Inhalte entdeckten. Sollte die Technik zudem standardmäßig eingesetzt werden, könne sie leicht für Zensur missbraucht werden, fürchtet der Forscher. Insgesamt ergäben sich verschiedene Nutzungsszenarien, auf denen die Politik, Regulierer und Verbraucher auch unterschiedlich reagieren müssten. Grenzen für DPI ergäben sich einerseits aus Auflagen zum Datenschutz, andererseits aus Prinzipien zur Einhaltung der Netzneutralität.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Netzneutralität als Schutzwall gegen Zensur
« Antwort #9 am: 15 April, 2010, 20:19 »
Der US-Rechtsprofessor Tim Wu hat das Prinzip des offenen Internet als fundamental für den Erhalt demokratischer Grundwerte in der Informationsgesellschaft bezeichnet. "Die Netzneutralität ist so wichtig für die Meinungsfreiheit wie der erste Verfassungszusatz der US-Verfassung", sagte der Jurist am heutigen Donnerstag auf der Konferenz re:publica in Berlin. Das Prinzip des offenen Netzes sei verknüpft mit fundamentalen Fragen wie der Selbstverwirklichung von Individuen. Erstmals könne der Nutzer auf dieser Basis selbst entscheiden, welchen Informationen er sich aussetzen wolle. Das Internet sei zusammen mit dem Computer und dem Mobiltelefon eines der entscheidenden Werkzeuge, "die uns zu dem machen, was wir sind".

Die Netzneutralität basiert laut Wu auf der "alten Idee, nicht zwischen Inhalten zu unterscheiden". Diese finde sich etwa auch im übertragenen Sinne im Verkehrswesen, wo es in vielen Ländern allgemeine Transportverpflichtungen gebe. So dürften Taxi-Unternehmen etwa keine Kunden aufgrund ihrer Rasse oder Herkunft abweisen. Auch die allgemeinen Teile des Rechts- oder Wirtschaftssystems müssten für alle in gleichem Maße funktionieren. Entsprechende Regeln seien enorm wichtig, da sonst die Versuchung zur Zensur durch Private oder den Staat "sehr groß wird". Ganz in diesem Sinne werde in den kommenden Jahren der Druck anwachsen, das Internet zu filtern und zu kontrollieren.

Zur Untermauerung seiner These verwies der Rechtsexperte auf die Geschichte. Diese zeige, dass es nach der Entwicklung neuer Medien immer eine kurze Periode des Idealismus und der uneingeschränkten Kreativität gegeben habe. So sei es etwa mit dem Radio am Anfang des vergangenen Jahrhunderts oder beim Kino in den 1920ern und 1930ern der Fall gewesen. Die "freiwillige" Filmzensur etwa sei mit einem Handbuch des katholischen US-Priesters Daniel Lord entstanden, das dieser 1929 erarbeitet habe. Darin habe Lord festgeschrieben, dass über die Lichtbilder moralische Standards nicht abgesenkt und keine Verbrechen oder Sünden gezeigt werden dürften. Auch das Schlafen von Liebhabern in getrennten Betten habe der Code empfohlen. Da es damals in Hollywood nur fünf mehr oder weniger miteinander vernetzte große Filmstudios gegeben habe, sei es einfach gewesen, diese Regeln über eine Aufsichtsinstitution durchzusetzen. Bis heute würden die damals aufgestellten Werte und Erwartungen etwa an ein Happy End teils offen, teils subtil von Hollywood fortgeführt.

Bezogen auf die Debatte über die Netzneutralität meinte Wu, dass Regeln und Gesetze zwar eine gewisse Bedeutung hätten, die darunterliegenden gesellschaftlichen Werte aber viel wichtiger seien. Die Provider würden vor allem auf öffentlichen Druck reagieren, wollten im Prinzip vor allem Geld verdienen. Wichtiger sei es daher, große Lobby-Organisationen und Werte setzende Vereinigungen wie Kirchen oder Denkfabriken im Blick zu halten. Konkret stellte der Jurist, der die Diskussion über die Netzneutralität 2002 mit gestartet hat, drei Regeln zur Bewahrung des offenen Internets auf. Diese decken sich weitgehend mit den Netzneutralitätsprinzipien der US-Regulierungsbehörde Federal Communications Commission (FCC). So dürften Zugangsanbieter Inhalte nicht blockieren und Datenpakete nicht "unfair" diskriminieren. Nutzer müssten zudem die Werkzeuge ihrer Wahl einsetzen dürfen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Politik erwärmt sich nur zögerlich für Open Government
« Antwort #10 am: 16 April, 2010, 18:32 »
Vertreter des Open Data Network haben Druck auf die öffentliche Verwaltung hierzulande ausgeübt, ihre nicht geheimhaltungsbedürftigen Daten verstärkt in maschinenlesbarer Form zur Verfügung zu stellen. "Es hat noch nicht Klick gemacht" in deutschen Amtsstuben und bei der politischen Führung, beklagte Lorenz Matzat von der Lobby-Vereinigung auf der Konferenz re:publica in Berlin am heutigen Freitag. Dort sei noch nicht ausreichend erkannt worden, dass Open Government "eine neue Stufe der Demokratie bedeuten würde". Es gehe dabei um die Erhöhung der Transparenz staatlichen Handelns sowie um bessere Möglichkeiten der Bürger zur Partizipation und Kollaboration.

Die Veröffentlichung von Informationen der Verwaltung gemäß dem "Open Data"-Prinzip erlaube eine einfache Verknüpfung mit anderen Daten über "Mashups", auf denen spezielle Anwendungen etwa im "semantischen Web" basieren könnten. Als bereits existierende Beispiele nannte Matzat den Bundestagger als Service zum Auslesen von Plenarprotokollen des Bundestags und zum Anfügen von Anmerkungen oder Initiativen zur automatischen Erstellung einer Übersicht von Nebeneinkünften von Abgeordneten. Derzeit liege auf dem Portal des Bundestags aber nicht einmal eine Liste aller Abgeordneten in einem Tabellenformat vor.

Politik und Verwaltung seien eigentlich Dienstleister, sähen den Bürger hierzulande aber weiterhin noch eher als Untertan, ärgerte sich der Open-Government-Verfechter weiter. In den USA etwa sei die Regierung selbst mit einer entsprechenden Initiative nach vorne geprescht. In Deutschland müsse man die Verwaltung dagegen mit Aktionen wie den fürs Wochenende geplanten "Hacks4Democracy" zu mehr Offenheit inspirieren, obwohl etwa "XML-Schnittstellen" nicht viel kosteten. Prinzipiell erwarte er, dass im Bundestag Leute sitzen, die vom Internet und E-Demokratie Ahnung hätten und dafür nicht erst eine entsprechende Enquete-Kommission gründen müssten.

"Die Verwaltungen müssen erst einen Sinn dafür bekommen, dass der öffentliche Raum im Netz zu erobern ist", ging Annette Mühlberg, E-Government-Expertin bei der Dienstleistungsgewerkschaft ver.di, mit Matzat konform. Es hapere an allen Ecken und Enden an Interoperabilität, es fehlten "offene Formate, offene Standards und offene Schnittstellen". Wenn die öffentliche Hand Software einkaufe, müsse sie auch übertragbar für andere und "natürlich Open Source" sein. Mühlberg vermisst auch ein Gesetz, "wonach Gemeinschaftsgüter unter offene Nutzungslizenzen zu stellen sind". Open Data könne helfen, auf solche Missstände hinzuweisen. Es gelte aber zu verhindern, damit die "Privatisierung der öffentlichen Hand" voranzutreiben. So dürfe im Backoffice nicht "alles outgesourced" werden an Konzerne wie Arvato oder IBM. Vielmehr brauche es dafür "junge, fitte Software-Freaks" in der Verwaltung selbst. Nötig sei auch ein Zugang zu Verträgen von Public Private Partnerships.

Uta Dauke aus der im Bundesinnenministerium angesiedelten Abteilung für Verwaltungsorganisation räumte ein, dass die Bundesregierung bei Open-Government "noch lange nicht soweit" sei, wie sie sein könnte: "Wir haben erkannt, dass wir transparenter werden müssen." Mit dem Informationsfreiheitsgesetz sei zwar bereits ein Umdenkprozess in Gang gekommen. Es gäbe aber noch "eine Reihe rechtlicher Restriktionen" beim Aktenzugang wie etwa den Daten- und Urheberschutz sowie das Wettbewerbsrecht, die andere Staaten nicht in dieser Form hätten. Ein "Kulturwandel" sei im Gange, aber die Verwaltung könne ihre Datenbestände "nicht von Montag auf Dienstag öffnen". Angesichts knapper Haushaltsressourcen müsse man sich auch immer fragen, "welche Veröffentlichungen Sinn machen".

Zur Neuausrichtung kündigte Dauke ein Regierungsprogramm zur "vernetzten und transparenten Verwaltung" an, das "hoffentlich" noch vor der Sommerpause vom Kabinett beschlossen werde. Mit dieser "Entscheidung von oben" könne dann genauer analysiert werden, "wo wir stehen und wo wir hin wollen". Die einschlägigen Initiativen aus den USA oder Großbritannien könne man wohl nicht Eins zu Eins übernehmen. Konkret sprach sich die Verwaltungsexpertin für die Schaffung einer zentralen Internet-Einstiegsseite für bestimmte Sachverhalte im Sinne eines "One-Stop-Government" aus, von der aus auch auf einschlägige Angebote der Länder und Kommunen verlinkt werden solle. Maika Jachmann aus der Bundestagsverwaltung versprach, zumindest Protokolle künftig auch wieder als Textdatei zur Verfügung zu stellen. Man wolle nichts geheim halten, aber man müsse bei allen Angeboten nach dem "Mehrwert" für die breite Masse fragen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Geplantes Leistungsschutzrecht macht Blogger ratlos
« Antwort #11 am: 16 April, 2010, 19:20 »
Auch nach Monaten der Fachdebatte  über ein neues Leistungsschutzrecht  tappt die Bloggerszene und Internetgemeinde bei dem im schwarz-gelben Koalitionsvertrag umrissenen Vorhaben im Dunkeln. Was bisher zu den Vorstellungen von Zeitungs- und Zeitschriftenverlegern nach einer Ausweitung des Schutzes von Presseerzeugnissen im Internet nach außen gedrungen sei, führe allein "zu wilden Spekulationen und unergiebigen Debatten", sagte Matthias Spielkamp vom Urheberrechtsportal iRights.info  am Freitag auf der Konferenz re:publica in Berlin. Befürchtungen von Bloggern, dass das Zitatrecht ausgehebelt und auch sie zur Kasse gebeten werden könnten, seien derzeit genauso wenig auszuräumen wie Gedankenspiele über eine neue PC-Pauschalabgabe  für die "kommerzielle Nutzung" digitaler Verlagsinhalte.

Ursache für das Stochern im Nebel ist laut Spielkamp, dass die Verleger derzeit selbst nicht sagen könnten, wie "ihr" Leistungsschutzrecht aussehen solle. Man höre dazu nur immer wieder von den Befürwortern der Initiative, deren Notwendigkeit bislang nicht ausreichend diskutiert worden sei, dass noch kein Gesetzesentwurf vorliege. Das Perfide an diesem Hinweis, ergänzte Kai Schächtele vom Verband Freischreiber, sei, dass die Verlage selbst aufgefordert worden seien, einen konkreten Gesetzestext zu formulieren. Ihm fehle zudem der Glaube daran, dass Einnahmen über das Leistungsschutzrecht "tatsächlich bei den Journalisten ankämen". Die Vereinigung freier Autoren hatte jüngst kritisiert, dass sich die Verlage gern als Hüter des Qualitätsjournalismus' aufspielten, aber nicht bereit seien, dies im Umgang mit den Freien umzusetzen und diese angemessen zu bezahlen.

Für die Hamburger Kulturwissenschaftlerin und Journalistin Meike Richter ist das Kernproblem, dass mit Journalismus zwar noch "viel Geld verdient" werde, dieses aber nicht immer bei den Verlagen oder den Autoren lande. Viel bleibe bei Suchfiltern und Nachrichten-Aggregatoren wie Google News hängen. Ihre Forderung nach einer Zwangsabgabe für den Suchmaschinenriesen wollte Richter aber nicht mehr aufrechterhalten. Wichtig sei ein "Maßnahmen-Mix", der auch die freiwillige Unterstützung journalistischer Projekte oder "Stipendien für Blogger" von Firmen einschließen könne.

Den eigentlichen Hintergrund der Verlegerforderungen sieht Robin Meyer-Lucht vom Weblog-Kollektiv Carta nach wie vor im Streit um die sogenannten "Snippets", Zusammenfassungen von Texten bei Links in Suchmaschinen und Aggregatoren. Möglichkeiten zur Verlinkung und zur fairen Nutzung kurzer Ausschnitte seien aber "fundamental wichtig für das Internet". Es sollte daher kein "branchenweiter Snippet-Tarif" eingeführt werden. Tatsache sei aber auch, dass für die Produktion von Inhalten im Netz deutlich weniger Geld aufgrund niedrigerer Werbeeinnahmen zur Verfügung stehe als in den klassischen Medien. Auswege aus diesem Dilemma könnten eine günstigere Produktionsweise oder der Versuch sein, Leser direkt zur Inhaltefinanzierung etwa über Micropayment-Systeme wie Flattr zu bewegen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10501
  • Ich liebe dieses Forum!
re:publica: Maschinenlesbarkeit statt Handarbeit
« Antwort #12 am: 17 April, 2010, 10:38 »
Öffentliche Daten sind durchaus zugänglich - aber oft in einer Form, die eine weitere Auswertung kaum möglich macht. Die Open-Data-Bewegung will das ändern: Sie will erreichen, dass möglichst viele Daten in computerlesbaren Standardformaten zur Verfügung zu stehen.


Ron McKinnon hat Daten der neuseeländischen
Regierung für jedermann aufgearbeitet.


An wen gehen eigentlich die vielen Milliarden Euro, die die EU jährlich an Landwirtschaftssubventionen verteilt? Auf der Website farmsubsidy.org kann es jeder nachschauen. Ob Staatsausgaben, Umweltmessungen oder Daten zum Gesundheitswesen, Parlamentsprotokolle und Terminkalender, die festhalten, wann welche Interessengruppen in Parlamentsausschüssen vorgesprochen haben: "Bei Open Data geht es darum, nicht-personenbezogene öffentliche Daten zugänglich zu machen" erklärt Rob McKinnon seinen Zuhörern auf der Web-Konferenz "re:publica" in Berlin. Weil ihm die Informationen auf der Website des neuseeländischen Parlaments für Nutzer zu schwer zugänglich schienen, startete er 2006 eine eigenen Website, die das besser machen sollte - gespeist aus den offiziellen Parlamentsdaten.

Angelsächsische Administrationen gehen voran


Während Open Data in Deutschland noch in den Kinderschuhen steckt, sind die angelsächsischen Länder weit voraus. "Regierungsdaten sollten eine öffentliche Ressource sein", forderte so der Brite Tim Berners-Lee, Erfinder des World Wide Web. In den USA hat der internetaffine Präsident Barack Obama einen offeneren Umgang mit Behördendaten und mehr Transparenz versprochen. Gleich zu Beginn seiner Amtszeit ließ er zahlreiche Regierungsdaten auf einer eigenen Website namens data.gov zur Verfügung stellen. Die britische Regierung folgte dem US-Vorbild 2010 mit der Website data.gov.uk.

Standards sollen Auswertung erleichtern

Für die Anhänger des Open-Data-Prinzips heißt das: Behörden sollen ihre Daten nicht nur auf ihrer eigenen Homepage anbieten, wie es viele Institutionen mit einzelnen Daten bereits tun, sondern möglichst viele Daten in computerlesbaren Standardformaten zur Verfügung zu stellen. Das soll es nicht nur jedem Bürger ermöglichen, die Daten nach eigenen Kriterien auszuwerten - Programmierer sollen die Daten auch gleich beliebig miteinander verknüpfen und weiterverwerten können.

"Vielleicht suchen Sie eine Wohnung in Berlin. Sie wollen mit dem Nahverkehr zur Arbeit fahren, aber höchstens eine halbe Stunde, und ihr Kind hat eine Nickel-Allergie", beschreibt Stefan Gehrke vom Verein Open Data Network einen fiktiven Anwendungsfall. "Die Daten zu den Fahrplänen und zum Nickel-Gehalt im Trinkwasser sind alle vorhanden. Man muss sie nur auf einer Karte im Internet zusammenfließen lassen und schon können Sie sehen, in welcher Gegend Sie nach einer Wohnung gucken sollten."

Noch ist Handarbeit angesagt

Wenn die Daten nicht maschinenlesbar sind, wird es mühsam: So bietet das ZDF online eine preisgekrönte Anwendung an, die die Abstimmungsergebnisse bei Bundestagsentscheidungen visualisiert. Die Nutzer können nicht nur nachschauen, wie sich ihre Heimatabgeordneten bei namentlichen Abstimmungen entschieden haben, sondern auch einzelne Parameter abfragen: Wie haben Parlamentarier mit Kindern abgestimmt, wie die Volksvertreter aus einzelnen Bundesländern? Die nötigen Daten muss die ZDF-Redaktion allerdings nach jeder Abstimmung einzeln von Hand eingeben.

Deutschland hinkt hinterher

"In Deutschland gibt es leider noch keine Open-Data-Vorzeigeprojekte der Behörden", sagt Stefan Gehrke. Sein Verein hofft, dass das künftig anders wird. Im Anschluss an die "re:publica" hat das Open Data Network für dieses Wochenende in Berlin einen zweitägigen "Hack-Day" ausgerufen - eine Einladung an Programmierer, wie man gemeinsam neue Datenquellen erschließen und kreativ nutzen kann. "Wir wollen verborgene Schätze heben", sagt Gehrke und hofft, dass am Sonntag etwas Präsentables dabei herausgekommen ist.

Nur für Freaks...

Dass sich auch Vertreter der Bundestagsverwaltung, eines Brandenburger Ministeriums und der Münchener IT-Beauftragte angemeldet hätten, zeigte die Bereitschaft der Behörden, sich mit dem Thema Open Data auseinanderzusetzen.


Open-Data-Aktivist Stefan Gehrke und Bundestags-Onlinerin Maika
Jachmann sehen den Nutzwert von Rohdaten unterschiedlich.


Auf der "re:publica" äußerte sich Maika Jachmann, die den Onlineauftritt des Bundestags verantwortet, zwar grundsätzlich offen gegenüber dem Wunsch der Open-Data-Anhänger, möglichst viele Behörden-Informationen als Rohdateien zur Weiterverwendung bereit zu stellen. Allerdings blieb sie skeptisch, wie viel Aufwand die Bundestagsverwaltung dafür investieren solle: "Die Mehrzahl der Bürger hat mehr davon, wenn wir ein Protokoll in einer für Menschen lesbar gestalteten PDF-Datei anbieten, als wenn wir Rohdaten bereitstellen, die dann vielleicht eine 200 Seiten lange Textwüste sind."

... oder echter Nutzwert für alle?

Die Open-Data-Verfechter halten dagegen: Von der Bereitstellung von Rohdaten profitieren viele - nicht zuletzt die Behörden, weil sie dadurch auch einfacher Informationen untereinander austauschen können. Der Open-Data-Vorreiter McKinnon ist überzeugt, dass auch ein "Hack-Day" skeptische Amtsvertreter überzeugen kann: "Da können Sie sehen, dass man mit ein paar Programmieren auch einem Wochenende einen Prototyp erstellen kann und kein millionenschweres IT-Projekte mit monatelanger Vorbereitung braucht."

Quelle: www.tagesschau.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica: Die Karawane lacht, die Hunde bellen weiter
« Antwort #13 am: 19 April, 2010, 14:38 »
Mit einem Massen-Karaoke der Bohemian Rhapsody endete die re:publica 2010 Ende vergangener Woche etwas außerplanmäßig. Die bunte Karawane der Internet-Aktivisten zieht aufgemuntert weiter, auf zum Radiocamp, zum Bibcamp, :Gendercamp, zur Deep Search, SigINT  und vielen anderen speziellen Treffen.  Der verdienstvolle und offenbar profitable Versuch der Organisatoren, all diese verschiedenen Lager zusammenzuführen, dürfte 2011 eine Fortsetzung finden.

Bohemian Rhapsody also. Der Opernsong der Pop-Geschichte vom "easy come, easy go", vom "nothing really matters" musste herhalten, eine Konferenz im "Nowhere" zu beenden. Ein geplantes Skype-Interview mit Twitter-Gründer Biz Stone fiel aus, weil dieser genug mit seinem Chirpcamp zu tun hatte. Das kann man durchaus symbolisch sehen: Die Subkonferenzen der Business Partner wie IBM/Lotus hatten einen schweren Stand, weil die Crowd wegschwappte. Die typischen Vorträge mit Dollarzeichen auf den Pupillen gehören eher zu einer Konferenz wie der next 10, die von Hamburg ins szenetypischere Berlin wechselt.

Summa summarum war die vierte re:publica jedoch ein Erfolg. Rund 2500 Teilnehmer kamen rund um den Friedrichstadtpalast zusammen. Zeitweilig waren mehr als 5000 Notebooks und Mobiltelefon im drahtlosen Netzwerk angemeldet, das entsprechend lahmte. Das hemmungslose Multitasking ging glimpflich aus, verletzt wurde niemand. Nach Angaben der Süddeutschen Zeitung soll sich die re:publica auch ökonomisch gerechnet haben, was die Veranstalter selbst allerdings noch nicht bestätigen können. Inhaltlich wie politisch hat die re:publica als größte deutsche Konferenz der Blogger und Mikro-Blogger (Twitterer) ein Zeichen mit dem Schwerpunktthema der Netzneutralität gesetzt: Wer in Zukunft das Internet regulieren darf oder ob alle Bits im Netz gleich sind, ist eine brandaktuelle Frage, bei der ein "unpolitischer" Verweis auf den freien Markt die falsche Antwort ist.

Erstmals beschäftigte sich die re:publica mit dem Nachwuchs. re:learn nannte sich die Vortrags-Schiene mit Themen wie Bloggen im Unterricht und den Lehr-Erfahrungen mit einer Laptop- oder iPhone-Klasse. Wie wichtig das Thema ist, zeigen Untersuchungen zur "Net-Generation" (PDF-Datei), die das deutsche Jugendinstitut und der Pädagogik-Professor Rolf Schulmeister 2004 und 2008 durchgeführt haben. Sie belegen, dass Deutschland den Anschluss an internationale Unterrichtsstandards verpasst hat, die den Anforderungen des Computerzeitalters gerecht werden. Bei der kritischen Bestandsaufnahme entpuppte sich das Gerede von den "digital Natives" als Märchen, als kommerzielle Zwecklüge von Anbietern, die möglichst früh unkritische Datenjunkies auf ihren Webportalen einfangen wollen.

Den Gedanken, dass für die "digital Natives" ein anderer Unterricht notwendig ist, formulierte Mark Prensky (PDF-Datei), der Theoretiker des "digital Game Based Learning" im Jahre 2001. Das Gegenstück zu den Eingeborenen nannte er "digital Immigrants". Diesen Gegensatz nahm der Unternehmensberater und Organisationspsychologe Peter Kruse auf, der in seinem Vortrag auf der re:publica 2010 von "digital Residents" und "digital Visitors" sprach. Er schilderte den Dauerkonflikt zwischen Bewohnern, die überall im Netz leben und Besuchern, die das Netz nur als Werkzeug sehen. Für viele Besucher der Konferenz war dieser hastig abgelieferte Vortrag der Höhepunkt, ein "intellektueller Kick", der ihr Leben auf dem achten Kontinent namens Digitalien in das richtige Licht setzte.

Wie der Kontinent Digitalien jedoch vom Aufeinanderprallen zweier nahezu ungebremst aufeinanderstoßender Kohorten erschüttert wird, zeigten deutlich die Vorträge um Datenschutz und Post-Privacy. So löste vor allem der Szene-Star Jeff Jarvis mit seinem mittlerweile wie ein Mantra vorgebetetem angeblichen deutschen Paradoxon Sauna vs. Privatsphäre und der Forderung nach einem Recht auf Öffentlichkeit Begeisterung und Kopfschütteln aus. Begeisterung bei den Verfechtern der Post-Privacy, die Datenschutz als Ideologie kritisieren. Kopfschütteln bei den Protagonisten eines Datenschutzes, die Erosion des Privaten im sozialen Echtzeit-Internet nicht allein als Chance begreifen. Der von Jarvis aufgebaute Widerspruch zwischen Privatsphäre und Öffentlichkeit wird in dieser Auseinandersetzung zu einem ideologischen Popanz, auf den sich beide Fraktionen schützend oder attackierend werfen.

Aber nicht nur die etwa von Christian Stöcker diagnostizierte "Zersplitterung" in Digitalien, die man wohl eher als Fraktionierung entlang ideologischer Bruchstellen einer Szene bezeichnen muss, die zur Selbstreferentialiät neigt und doch die Deutungshoheit über die Netzpolitik für sich beansprucht, machten der Veranstaltung zu schaffen.. Wie viele andere Veranstaltungen wurde auch de re:publica von dem über Europa verhängten Flugverbot getroffen. Darunter litt besonders der journalistische Teil. So musste das Referat von Journalisten des Guardian ausfallen, der zusammen mit seinen Lesern ein bislang einzigartiges Experiment im Corwdsourcing von Daten gemacht hatte, um Durchblick in die finanziellen Transaktionen der britischen Parlamentarier zu bekommen.  So blieb der Vortrag von Wikileaks über Wikileaks, der "standing ovations" erhielt, gewissermaßen ohne sein empirisches Gegenstück. Die Plattform der Whistleblower konnte sich ganz im Lichte der aufsehenerregenden Veröffentlichung eines Hubschrauber-Videos aus dem Irakkrieg präsentieren.

Mit der nunmehr erreichten Größe der netzpolitischen Konferenz muss die nächste re:publica vor allem organisatorische Konsequenzen ziehen. Manche Vorträge, vor allem die zu Themen in der "Dritten Welt", ließen den riesigen Friedrichstadtpalast gähnend leer erscheinen, andere waren in den kleinen Räumen der benachbarten Kalkscheune hoffnungslos überlaufen. Eine Art Crowdrooming, ein flexibles Wahlverfahren mit all den aktivierten Smartphones muss her, damit die Veranstalter auf diese Art des Ganzkörper-DoS reagieren können.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189137
  • Ohne Input kein Output
    • DVB-Cube
re:publica - Die Digitale Gesellschaft kommt
« Antwort #14 am: 10 April, 2011, 15:17 »
Zum fünften Mal treffen sich am kommenden Mittwoch die Fleischavatare der Bewohner digitaler Welten in Berlin zur re:publica. Was als Blogger-Konferenz begann, ist mittlerweile ein Diskussionsforum für eine Vielzahl netzpolitischer Themen, die im Unterschied zu den gängigen Klagemauereien eher optimistisch ausgerichtet ist. Entsprechend wird beim kleinen Jubiläum zum Auftakt der Re:Publica die Digitale Gesellschaft gestartet, eine Kampagnenplattform zur Verteidigung digitaler Bürgerrechte.

Die Digitale Gesellschaft ist die Antwort der Netizen auf Organisationen wie den IT-Verband Bitkom oder den Eco als Verband der Internetwirtschaft Deutschlands. Ähnlich wie diese Lobbyorganisationen der Industrie soll der Verein "Digitale Gesellschaft" verschiedene Kampagnen unterstützen, die sich mit Themen wie Netzneutralität, Urheberrecht und Vorratsdatenspeicherung befassen und in die Politik hineinwirken.

Wie die aktuelle Debatte um die Wirksamkeit der Vorratsdatenspeicherung zeigt, besteht gerade in der Politik ein erheblicher Aufklärungsbedarf. Da Themen wie die Einrichtung von geheimen Filtersystemen ("Netzsperren") immer auch eine europäische oder internationel Dimension haben, ist eine Zusammenarbeit mit Organisationen wie Bits of Freedom, La Quadrature du Net oder der Electronic Frontier Foundation (EFF) angedacht.

Die über 20 Jahre alte EFF gilt als Vorbild der "Digitalen Gesellschaft". In den USA ist die EFF eine wichtige Stimme im Wahsingtoner Konzert der Lobbyorganisationen geworden, während ihr 2007 eröffnetes Büro in Brüssel ein Schattendasein führt. Damit der "Digitalen Gesellschaft" ein ähnliches Schicksal erspart bleibt, will der Verein eine kleine, aber schlagkräftige Kerntruppe bilden, die netzpolitische Themen auf vielfältige Weise unterstützt. In dieser Hinsicht ist der Verein die logische Fortsetzung des Blogs Netzpolitik, das zusammen mit Spreeblick die re:publica veranstaltet.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )