-
Das deutsche Internet kennt viele Geburtstage. Da wäre der 5. November 1986 zu nennen, als .de entstand. Oder der 1. September 1984, als die erste Internet-Mail beim ersten CSNet-Knoten, in Karlsruhe eintraf. Auf den 27. April 1986 wäre wohl niemand gekommen: Das ist der Tag, an dem das Bonner Haus der Geschichte 20 Jahre später einen Termin frei hatte und einen würdigen Rahmen für die Feier abgab, die unter dem Titel "Wie das Netz nach Deutschland kam" begangen wurde. Fünf deutsche Internet-Pioniere und der Vater des deutschen Bildschirmtext-Systems trugen gut gelaunt vor etwa 100 Veteranen (so bezeichneten sie jedenfalls die Veranstalter) ihre Erinnerungen vor: an die protokolltechnisch wilden 80er vor, als das Internet nach Deutschland sickerte; an die verrückten 90er, als sich sogar das deutsche Parlament mit der Frage beschäftigte, ob das deutsche Volk durch den OSI-Standard geschädigt wurde oder ob es mit dem amerikanischen TCP/IP Schaden erleiden wird; an die wilden 2000er, als das Netz kommerziell explodierte (T-Online ging an die Börse) und implodierte (KPNQwest meldete Insolvenz an). Gerade weil das Internet eine einzigartige Lektion über "unerwartete Konsequenzen einfacher technischer Entscheidungen"(Vint Cerf) ist, störte sich niemand am schrägen Datum.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/72491)
Quelle : www.heise.de
-
Mit einer aufwendigen Fangschaltung wurde vor 20 Jahren der Hacker Markus Hess ermittelt, der unter dem Decknamen "Urmel" vor allem in amerikanische Rechner-Systeme eingebrochen war. Die dabei entwendeten Dateien zum Aufbau des neuen amerikanischen Raketenabwehrsystems SDI hatte Hess mit einer Gruppe von Hackern an den russischen Geheimdienst KGB zu verkaufen versucht, weshalb in deutschen Annalen vom KGB-Hack die Rede ist.
Auslöser der nach Presseberichten nicht genehmigten Fangschaltung war ein Differenzbetrag von 75 Cents in einer Abrechnung über die Computernutzung, den Clifford Stoll, ein Systemadministrator am Lawrence Berkeley Laboratory, aufklären sollte. Stoll konnte die 75 Cents für die Rechenzeit einem Account zuordnen, der sich mit 1200 Baud über das paketorientierte Vermittlungsnetz Tymnet in einen Vax-Rechner des Labors einloggte. Der gelernte Astronom startete eine Unteruchung, die er später im Hacker-Roman "Kuckucksei" literarisch verarbeitete. (Eine filmische Umsetzung liefert "23 – Nichts ist so, wie es scheint" mit der tragischen Geschichte einer Nebenfigur des KGB-Hacks.)
Stoll gelang es schließlich, die Spur des Hackers Urmel bis zu einem deutschen Vax-Rechner zu verfolgen, der vom Fachbereich Informatik der Universität Bremen betrieben wurde. In diesen Rechner loggte sich jemand per Akustikkoppler über das Telefonnetz ein. Um seine Identität zu lüften, musste eine Fangschaltung gelegt werden. Beim damaligen Stand der Technik benötigten die Mitarbeiter der deutschen Post eine Stunde, um einen Anschluss zu ermitteln.
Also kreierte Stoll eine Monsterdatei mit gefälschten Informationen, die er SDINET nannte. Am 16. Januar 1987 versuchte sich der Hacker erstmals am Download dieser Datei. Die Fangschaltung funktionierte, führte aber zu einer öffentlichen Telefonzelle in Hannover. Stoll musste die Datei sperren. Erst beim dritten Versuch am 23. Juni 1987 klappte es: Urmel wählte sich von einem Festanschluss aus ein, der Markus Hess zugeordnet werden konnte. Um 18.30 MEZ durchsuchten Kriminalbeamte die Wohnung und den Arbeitsplatz von Hess und beschlagnahmten Magnetbänder und 250 Disketten.
Laut der englischen Wikipedia arbeitet Markus Hess heute als Programmierer. Clifford Stoll ist angeblich Hausmann und verkauft selbst gefertigte Klein Flaschen.
Quelle : www.heise.de
-
Es sollte ein Notbehelf werden, eine pragmatische Lösung für das Informationschaos im Kernforschungszentrum Cern: Ein junger Physiker entwarf 1989 ein digitales Informationsnetz. Nun wird das World Wide Web 20 Jahre alt.
Anfang 1989 setzt sich ein junger Informatiker in Genf an seinen Mac und tippt in Word einen Aufsatz, der in knapp 30.000 Zeichen das Web beschreibt, wie wir es heute kennen. Tim Berners-Lee wählt einen bescheidenen Titel: "Informationsmanagement: Ein Vorschlag".
Berners-Lees sucht in seinem im März 1989 veröffentlichten Aufsatz eine Lösung für dieses alltägliche Problem am Forschungszentrum Cern: "Die technischen Details vergangener Projekte gehen bisweilen für immer verloren." Warum das so ist, analysiert der junge Berners-Lee im ersten Teil seines Aufsatzes. Die Hauptgründe:
* "Die tatsächlich zu beobachtende Organisation des Cern sieht so aus: Ein vielfach verknüpftes Web, dessen Verbindungen sich mit der Zeit entwickeln."
* "Das Problem ist die hohe Personalfluktuation. Da zwei Jahre die übliche Länge eines Forschungsaufenthalts sind, geht Information ständig verloren."
* "Wissen über die Einrichtungen (…) verbreitet sich per Flurfunk und gelegentliche Newsletter."
* "Wenn Cern-Experimente statische, einmalige Entwicklungen wären, könnte das Wissen in einem großen Buch festgehalten werden. Aber derzeit verändert sich das Cern ständig, da neue Ideen entstehen und neue Technik verfügbar wird."
Kurz zusammengefasst: Berners-Lee sucht ein System, das persönliche, wenig formelle, an ein bestimmtes Publikum gerichtete Kommunikation (Ideen, Notizen, Einladungen, Debatten, Kommentare, Anmerkungen) archiviert, aber auch allgemeine, an ein unbestimmtes Publikum gerichtete Artikel, Anleitungen oder Aufsätze. Ein System, das dieses Wissen nicht nur archiviert, sondern auch für Neulinge auffindbar macht.
Rückblickend verblüfft Berners-Lees Prognose, in "einigen Jahren werde der Rest der Welt dieselben Probleme haben, mit denen das Cern kämpft". Es werde in "zehn Jahren sicher eine kommerzielle Lösung geben". Aber, so Berners-Lees Argumentation 1989, das Cern müsse sich selbst helfen und das Problem der Informationsschwemme für sich lösen, bevor die Wirtschaft Jahre später ein Produkt hat.
Ironie der Geschichte: Aus Tim Berners-Lees Vorschlägen wurde das World Wide Web, der Teil des Internets also, den die meisten Unternehmen und viele Privatleute heute täglich nutzen. Und wahrscheinlich war die Idee so erfolgreich, weil Berners-Lee eben kein Unternehmer war, kein Produkt entwickelte, sondern eine offene Infrastruktur, die jeder kostenlos nutzen und erweitern konnte.
Berners-Lee hat die Grundlage für den Reichtum all der Internet-Milliardäre und -Millionäre geschaffen, indem er selbst nicht zum Millionär wurde. Der 53-jährige Physiker ist heute Sir, Vorsitzender des World Wide Web Consortiums und Professor am Massachusetts Institute of Technology - schwerreich ist er aber nicht.
Offen, erweiterbar, standardisiert, kostenlos
Die wesentlichen Punkte seiner genialen Idee hat Berners-Lee schon in dem kurzen Aufsatz 1989 formuliert. In den folgenden Jahren arbeitete er lediglich an der Umsetzung des Konzepts "World Wide Web" und entwickelte HTML, die "Hypertext Markup Language". Der Erfolg des WWW ist sicher dieser Entscheidung zu verdanken: Statt sein Wissensnetz auf Basis eines geschlossenen Datenbank-Standards für bestimmte Betriebssysteme zu entwickeln, entschied er sich für eine Auszeichnungssprache.
Jedes Dokument in Berners-Lees Wissensnetz sollte mit einem bestimmten Satz an Standardbefehlen angeben, wie es dargestellt werden soll. Die Darstellung an sich kann auf jedem Computersystem ein anders Programm übernehmen, das HTML interpretiert. Außerdem sollte über eine einheitliche Adressierung jedes Dokument im Web von jedem Zugangspunkt aus abrufbar sein und dank eines Übertragungsstandards auch problemlos dort ankommen.
Denn, wie Berners-Lee in seinen Thesen 1989 formuliert: Größtmögliche Kompatibilität ist das wichtigste, aufwendig umzusetzende Funktionen nebensächlich. Berners-Lee formuliert diese Kernthesen:
* "Wir sollten ein universelles, verbundenes Informationssystem anstreben, in dem Allgemeingültigkeit und Portabilität wichtiger sind als aufwendige Grafiktechnik oder komplexe Extras."
* "Die Lösung: Hypertext. (…) Von Menschen lesbare Informationen, die ohne Einschränkungen verknüpft werden können."
* "Die Informationen speichernde Software muss von der Darstellungs-Software getrennt werden, die Schnittstelle muss klar definiert sein."
Heute klingen diese Ideen lapidar. Hyperlinks? Web-Seiten, die man mit jedem Computer und Betriebssystem aufrufen kann? Ein Wissensnetz, das benutzbar ist, obwohl die Inhalte auf Hunderttausenden Servern weltweit verstreut sind? Zwei Jahrzehnte später ist das Alltag. Als Berners-Lee diese Gedanken auf seinem Mac in ein Word-Dokument tippte, waren sie revolutionär.
Schon 1965 hatte der US-Soziologe Ted Nelson ein Hypertext-System vorgeschlagen, an dessen praktischer Umsetzung seither aber mehrere Informatiker-Generationen gescheitert sind. Die Versuche, Nelsons Xanadu umzusetzen, missachteten Berners-Lees Grundsatz, Datenbank und Darstellung strikt zu trennen, auf aufwendige Features zugunsten der Portabilität zu verzichten.
Riesenerfolg, keine Millionen
Warum Berners-Lees Hypertext-Konzept mehr Erfolg hatte, lässt sich mit diesen Attributen erklären: offen, erweiterbar, standardisiert, kostenlos. Berners-Lee definierte am Cern den HTML-Standard und programmierte den ersten Browser - das große Geld verdienten aber andere.
An der Universität von Illinois programmierte der Informatik-Student Marc Andreessen Anfang der neunziger Jahre einen Internet-Browser für Berners-Lees Wissensnetz. Der Mosaic Browser lief auf Unix-, Windows- und Mac-Rechnern, war kostenlos verfügbar und wurde so schnell zum Quasi-Standard, um die Seiten des frühen World Wide Web anzuzeigen. Andreessen gründete mit dem Unternehmer James H. Clark ein Software-Haus, brachte es 1995 als Netscape an die Börse und wurde Multimillionär.
Ob das Berners-Lee wurmt? Auf seiner Web-Seite antwortet der Informatiker so:
"Wäre die Technik proprietär und unter meiner Kontrolle gewesen, wäre sie wahrscheinlich nicht so erfolgreich geworden. Die Entscheidung, das Web zum offenen System zu machen, war notwendig, um es universell zu machen."
Quelle : www.spiegel.de
-
Tim Berners-Lee, der Erfinder des World Wide Web, hat sich besorgt über die Zukunft des Datenschutzes im Internet geäußert. Die Erstellung von Persönlichkeitsprofilen und die Überwachung nähmen weiter zu, sagte er.
Er wies darauf hin, dass relativ neue Technologien in der Lage seien, sehr genaue Nutzerprofile anhand der Spuren zu erstellen, die bei der Nutzung des Netzes hinterlassen werden. "Diese Art von Bespitzelung muss unbedingt verhindert werden", so Berners-Lee.
Indirekt sprach der Direktor des World Wirde Ceb Consortiums (W3C) Unternehmen wie Google an. Der Suchmaschinenbetreiber hatte erst kürzlich eine weitere Stufe seiner Zielgruppenoptimierung für Werbeeinblendungen gestartet, bei der anhand der Klicks in der Suchmaschine und der angesehen YouTube-Videos auf die Interessen geschlossen und entsprechende Reklame eingeblendet wird.
Neben Google werden aber auch andere Firmen zunehmend auf diese Weise aktiv, was durch die Verlagerung von immer mehr Anwendungen vom PC ins Internet begünstigt wird. Laut Berners-Lee seien hier aber nicht nur die Nutzungsprofile ein Problem, sondern auch das Risiko für die Datensicherheit wegen eventueller Lecks und Sicherheitslücken.
Als weiteren wichtigen Punkt sprach Berners-Lee die zunehmende Überwachung der Anwender durch die Regierungen an. Auch dadurch entstehen zunehmend umfassende zentrale Datenbanken über eine Vielzahl von Bürgern, die immer das Risiko eines Missbrauchs bergen.
Quelle : http://winfuture.de
-
Das Internet kennt viele Geburtstage. Zu diesen Geburtstagen gehören die Feierlichkeiten, wann jeweils verschiedene Länder an das Internet angeschlossen wurden. In Deutschland waren es studentische Aktivisten an den Universitäten Karlsruhe und Dortmund, die die Vernetzung vorantrieben. Dabei war Karlsruhe die erste Universität, die einen eigenen Mailserver installierte und sich mit dem CSNET verband. Darum lässt sich Karlsruhe ab heute als "Internethauptstadt" feiern.
"Michael, this is your official welcome to CSNET. We are glad to have you aboard", lauteten die ersten Worte der ersten E-Mail, die auf dem Karlsruher Server einging. Michael Rotert, der Empfänger der historischen Mail, erhielt sie am 3. August 1984 um 10:14. Sein damaliger Chef, der emeritierte Informatiker Werner Zorn, hält den 2. August 1984 für richtiger, weil die Administratorin Laura Breeden die Nachricht am 2. August in den USA auf den Weg schickte. So oder so, die Feierlichkeiten erreichen nach der Feier des 20. Geburtstages einen weiteren Höhepunkt: Die erste Mail wird als "Orginalausdruck" dem Karlsruher Stadtarchiv übergeben.
Der Ausdruck gilt schon heute als bedeutendes Dokument der Stadtgeschichte – auch wenn es bereits vor August 1984 etliche Systeme gab, elektronische Nachrichten zu übertragen. Erinnert sei an Compuserve, das seit 1981 in Deutschland über Datex-P erreichbar war, an das etwas elitärere ARPAnet und an das mehr die Basis vernetzende Fidonet, das Anfang 1984 startete.
Sicher ist jedenfalls, dass diese Form des Informationsaustausches nicht mehr aus dem Alltag wegzudenken ist. Nach Angaben des IT-Branchenverbandes Bitkom gibt es 43 Millionen Bundesbürger über 14 Jahren, die E-Mails verschicken, wobei die Hälfte von ihnen mindestens einmal am Tag in das elektronische Postfach schaut. Unter Jüngeren haben Chat und die Instant Messenger eine größere Bedeutung als E-Mail, beides noch ältere Technologien, die in den 60er Jahren am US-amerikanischen CTSS entwickelt wurden.
Unter den Pionieren, die damals das Internet benutzten und die E-Mail entwickelten, ist die Erfindung umstritten. Bekannt ist der Ausspruch des heute bei Google arbeitenden Netzpioniers Vint Cerf: "We never thought that something could happen like spam." Tatsächlich ist seit der ersten Werbemail des Computerhändlers Gary Thuerk der Werbemüll in der E-Mail die Rattenplage der Neuzeit geworden.
In dieser Hinsicht ist die Haltung von Donald Knuth bemerkenswert, der am 1. Januar 1990 die Nutzung von E-Mail einstellte: "I have been a happy man ever since January 1, 1990, when I no longer had an email address. I'd used email since about 1975, and it seems to me that 15 years of email is plenty for one lifetime."
Weil das Internet viele Väter hat, stehen dieses Jahr selbstredend eine Reihe weiterer Geburtstage an: am 30. August 1969 wurde der erste ARPAnet-Host an der Universität von Kalifornien in Betrieb genommen, am 1. Oktober 1969 folgte Host Nummer 2 am Stanford Research Institute. Die erste Kommunikation zwischen beiden war "LO", das Kürzel für Logon.
Quelle : www.heise.de (http://www.heise.de)
-
Zurückblickend hat der Internet-Pionier Tim Berners-Lee sein Bedauern darüber geäußert, dass er seinerzeit entschieden habe, in URLs die beiden Forward-Slashes hinzuzufügen.
Der doppelte Schrägstich "/" (im englischen Forward Slash) ist Bestandteil jeder URL. Verantwortlich dafür ist Internet-Pionier Tim Berners-Lee. Der britische Informatiker ist der der Erfinder des HTML und gründete das World Wide Web. Dort stellte Berners-Lee auch die erste Internet-Seite online: http://info.cern.ch.
Das in jeder URL ein doppelter Schrägstrich, also //, enthalten sein muss, bereut Berners-Lee mittlerweile. In einem Interview mit der New York Times bezeichnete der Brite die damalige Entscheidung, // zum Bestandteil einer URL zu machen, als "unnötig".
"Es schien zu der Zeit damals eine gute Idee zu sein", sagte Berners-Lee. Vor 30 Jahren habe er sich aber nicht vorstellen können, dass die beiden Schrägstriche für so viel Ärger sorgen würden. Im Nachhinein entschuldigt sich Berners-Lee für die damalige Entscheidung, weil das Hinzufügen von // zu jeder URL viel Zeit, Druckzeit und Papier vergeudet habe.
Quelle : www.tecchannel.de
-
Das Internet hat viele Väter. Deswegen hat das Internet nicht erst seit heute viele Geburtstage zu feiern, weil viele "Kinder" eben das ergeben, was das heutige Internet ausmacht. Heute ist so ein Geburtstag: Vor 40 Jahren wurde die erste Nachricht zwischen zwei entfernten Host-Computern ausgetauscht.
Am 29. Oktober 1969 lief die erste Nachricht über das ARPANET, dem Vorläufer des Internets. Leonard Kleinrock und sein Programmierer Charlie Kline, versuchten, sich über ihren Computer an der Universität von Californien (UCLA) in einen Computer am Stanford Research Institute (SRI) einzuloggen. Die wichtigste Komponente war der sogenannte IMP, der Interface Message Prozessor, ein Kommuinikationscomputer, der den Datenaustausch im paketorientierten ARPANET regelte.
Erst im Januar 1969 hatte die Firma Bolt Beranek and Newman (BBN) den Auftrag von der Militärforschungsbehörde ARPA den Auftrag erhalten, 16 IMPs zu produzieren. Die Idee, dass ein digitales paketbasierendes Kommunikationsnetz so aufgebaut werden kann, dass "Informationsblöcke" variabel umgeleitet werden können, wenn das Netz gestört ist, hatte Paul Baran 1964 in einer elfbändigen Studie (PDF-Datei des wichtigen Band Nr. 9) für die ARPA entwickelt und theoretisch durchgerechnet.
Doch alle Theorie muss die Puddingprobe der Praxis bestehen. In seinen Memoiren beschrieb Leonard Kleinrock das Geschehen. Am 2. September hatte BBN den ersten IMP ausgeliefert, den Honeywell nach den Spezifikationen von BBN gebaut hatte. Er wurde an der UCLA von Steve Crocker und John Postel erfolgreich an einen Rechner von Scientific Data Systems angeschlossen. Im Oktober folgte IMP Nr. 2, der in Stanford installiert wurd. Am 29. Oktober startete dann das Verbindungsexperiment, an das sich Kleinrock im Jahre 2006 so erinnerte:
The procedure was to type "log" and the system at SRI was set up to be clever enough to fill out the rest of the command, namely to add "in", thus creating the word "login". A telephone headset was available to the programmers at both ends so they could communicate by voice as the message was transmitted. At the UCLA end, we typed in the "l" and Charlie asked SRI if they received it; "got the l" came the voice reply. UCLA typed in the "o", asked if they got it; back came the reply "got the o". UCLA then typed in the "g" and the darned system CRASHED! It was not the IMPs that crashed, it was not the long-haul line that crashed, it was not our UCLA Host that crashed; it was the SRI Host. Quite a beginning. And so the very first message ever sent over the Internet was "Lo!" as in "Lo and behold!" Quite a prophetic message indeed.
Was wie ein Fehlstart aussehen mag, war 1969 ein einmalig erfolgreicher Testlauf: Noch am selben Tag kam eine stabile Verbindung zustande, die nach dem Testbericht Nr. 1928 geschlagene 27 Stunden funktionierte und bei jeweils 20.000 gesendeten und empfangenen Datenpaketen ein fehlerhaft übertragenes Paket produzierte. Mit rechnerisch 50 kBit/s im Maximum bei 19 gleichzeitig genutzten Telefonleitungen war das IMP-gesteuerte Netz überdies das schnellste Netzwerk seiner Zeit – der von der ARPA festgesetzte Datendurchsatz von 700.000 Bits pro Sekunde wurde erreicht.
Es war ein kleiner Schritt in der Verbindung von Rechnern, doch ein großer Schritt hin zu dem, was heute als Digitalisierung des Alltags Wirklichkeit geworden ist. Auch wenn sich die Pioniere der Technik heute nach alter Väter Sitte streiten, wer denn nun der eigentliche Vater des Internet ist oder wer die Idee mit den Paketen hatte, so kann man heute mit Fug und Recht ein Gläschen Sekt heben. Wer keine Maschine feiern mag, sollte in Andenken an Jon Postel feiern. Er war der einer von denen, die den Titel "Vater des Internet" ablehnten.
Quelle : www.heise.de
-
Am 15.3.1985 wurde im entstehenden Internet das Domain Name System eingeführt. Fortan sollten merkbare Hostnamen die Verwaltung des Netzwerkes erleichtern, das längst nicht mehr nur aus einem Dutzend Rechner bestand. An diesem Tag wurden sechs Namen für die sogenannten Top Level Domains (TLDs) festgelegt: .com für kommerzielle Organisationen, .edu für Universitäten und Schulen, .gov für die Regierung, .mil für das Militär, .org für andere Organisationen und .net für sonstige Netzwerkressourcen bildeten den Grundstock des Systems. Zum 25. Geburtstag des Systems stehen einschneidende Änderungen bevor, wie die Debatte um neue Top-Level-Domains zeigt.
Mit den Arbeiten zum Übergang vom usprünglichen ARPAnet zum NFSnet war den Beteiligten klar, dass die herkömmliche manuelle Methode, die am Netz angeschlossenen Rechner mit ihren Adressen in einer einzigen Datei zu verzeichnen, nicht mehr zeitgemäß war. Vom Start des ARPAnet im Jahre 1969 wurde diese Datei täglich beim Network Information Center am Stanford Research Institute (SRI) aktualisiert, das auch die RFCs (Requests for Comments) verschickte. Mit dem RFC 882 und RFC 883 hatte eine Gruppe um Paul Mockapetris und Vint Cerf die Grundzüge eines verteilten Namenssystems erarbeitet, in dem so genannte Top Level Domains funktional unterschiedliche Einheiten des Netzes bezeichnen sollten, damit auf den ersten Blick klar ist, ob eine Firma, eine Universität oder die Regierung den entsprechenden Host-Computer betreibt.
Doch wie sollten die Namen aussehen? Jon Postel, der wichtigste Netzkoordinator, schlug .net und .gov als Top Level Domains vor, in Anlehnung an die damaligen Teilnetze wie CSNet, Bitnet und uucpnet. Doch diese Unterteilung war nicht fein genug. Schließlich war den Beteiligten klar, dass Firmen das Netz nutzen können und die Universitäten nicht unbedingt als Regierungseinheiten gesehen werden wollen. Das endgültige Schema prägte die Bibliothekarin Elizabeth "Jake" Feinler, die mit der täglichen Aktualisierung der Hosts-Datei beauftragt war. Neben den Vorschlägen von Postel legte sie .com für Commerce und .edu für Education fest. Weder Jon Postel noch Vint Cerf mochten ihre Vorschläge, doch hatten sie keine besseren Alternativen parat.
Der Erfolg des ersten TLD-Schemas lag in seiner Großzügigkeit. "My group ran the Arpanet/DDN Network Information Center located at SRI, and one of our duties was to be the naming registry for the network from 1970 - 1991. Everyone was clammering to get a TLD or to at least influence the selection, which was one reason we chose a very generic approach. The idea was that the name requestor would choose which generic TLD he or she thought matched best, then the community under that TLD would decide on the organization of its name space. In other words one size would not fit all. Military users would not want to structure their name space the same way academic users would, and so forth", erinnerte sich Elizabeth Feinler in einem Mailwechsel mit heise online.
Der erste Host, der gleich nach dem Start des DNS im neuen Schema adressierbar war, hieß Symbolics.com, danach folgten eine Vielzahl von Firmen, die es heute noch gibt. Siemens war die erste deutsche Firma, die sich im September 1986 als .com registrierte. Dies zu einer Zeit, als die internationalen Verzweigungen über zweistellíge Ländercodes (country code Top Level Domains, ccTLDs) bereits beim Umbau im Jahre 1985 mit 300 Endungen konzipiert waren. .us für die USA und .su für die Sowjetunion sollten die größten Einheiten werden, so die Annahmen vor 25 Jahren. Neben .de für Deutschland wurde seinerzeit .dd für die DDR vergeben.
Zur Feier des Jubiläums hat Verisign als Registry-Operator für .com und .net die Seite 25 Years of .com gestartet und eine Jury beauftragt, die 25 .com-Awards zu vergeben. Mit ihnen sollen die 25 Menschen und Unternehmungen geehrt werden, "die das Internet am meisten beeinflusst haben", wie Versign schreibt. Wer sich die Shortlist der 75 Kandidaten anschaut, wird Pioniere wie die Namensfinderin Elizabeth Feinler oder den Netzwerkmanager Ed Krol vermissen, der das DNS in den Anfangstagen betreute. Einzig Vint Cerf findet sich unter den Nominierten in der Liste, die mit dem "Internet-Erfinder" Al Gore beginnt und dem Schuhladen Zappos aufhört. Neben den Feierlichkeiten soll der US-amerikanische Ex-Präsident Bill Clinton morgen eine Rede über die politischen Bedeutung des Internet halten.
Das DNS-Jubiläum fällt in eine Zeit, in der das Internet wieder Gegenstand politischer Debatten geworden ist. Neben der Frage, wer die Oberaufsicht über das Internet-Namenssystem haben soll, wird wieder einmal besonders heftig ein Vorschlag an die ICANN diskutiert, eine so genannte Rotlicht-TLD einzuführen und .xxx als Kennung für Sex-Angebote zu nutzen. Dieser Vorschlag wird nicht nur von Betreibern abgelehnt, die sexuelle Inhalte hosten, sondern auch von Internet-Aktivisten. Sie befürchten, dass Regierungen mit einem Handstreich Zensur betreiben können, indem .xxx landesweit gesperrt wird.
Quelle : www.heise.de
-
Keiner kommt hier "billig vom Acker" – bei VIAG Interkom (heute O2) wusste man schon am ersten Tag der Versteigerung, dass die begehrte Lizenz für das UMTS-Mobilfunknetz nur für viel Geld zu haben ist. Am 31. Juli 2000 versammelten sich die Vertreter von sieben Telekommunikationsunternehmen zur Verteilung der verfügbaren Frequenzen bei der damaligen Regulierungsbehörde für Telekommunikation und Post (RegTP, heute Bundesnetzagentur) in einer alten Kaserne im Mainzer Stadtteil Gonsenheim. Erst zehn Jahre später zeichnet sich ein Durchbruch für das mobile Internet ab – Bitkom-Präsidiumsmitglied René Schuster, Vorstandschef von Telefonica O2 in Deutschland, spricht von einer "Erfolgsgeschichte mit Anlaufzeit".
Fast drei Wochen lang wurde damals gepokert, bis das Ergebnis am 18. August feststand: Sechs Unternehmen sicherten sich die begehrte Lizenz für die mit großen Hoffnungen verbundene Zukunftstechnik. Der Bundesfinanzminister freute sich über einen Geldsegen von umgerechnet rund 50 Milliarden Euro. Aber der Einstieg ins mobile Internet begann danach schleppend. Weitere zweistellige Milliardenbeträge waren für den Aufbau des neuen Mobilfunknetzes nötig. Die Anbieter gaben die hohen Kosten an die Verbraucher weiter. Und diese machen deswegen zum Teil bis heute einen weiten Bogen um die Datentarife.
Die UMTS-Versteigerung unter der Ägide der RegTP führte die Branche in einen tiefen Umbruch. Zwei der damaligen Mobilfunkanbieter (Mobilcom und Group 3G) mussten ihre Lizenzen später wieder aufgeben. Vier sind bis heute übrig geblieben: Die Deutsche Telekom, Vodafone, E-Plus und das aus VIAG Interkom hervorgegangene Unternehmen O2. Mobilcom, die gemeinsam mit France Telecom ursprünglich große Pläne für den Aufbau eines eigenen Mobilfunknetzes in Deutschland hatte, trennte sich im Streit von dem französischen Konzern – was Mobilcom fast in die Pleite trieb –, beschränkte sich auf Dienstleistungen als Mobilfunk-Serviceprovider und ging schließlich in der Freenet AG auf. Die Group 3G (ein Konsortium, an dem die spanische Telefonica und die finnische Sonera beteiligt waren) stellte ihren glücklosen Versuch, mit Quam eine neue Mobilfunkmarke in Deutschland zu etablieren und ein eigenes Netz aufzubauen, bald ganz ein. Seine UMTS-Lizenz wurde dem Unternehmen dann von der Regulierungsbehörde entzogen.
"Im Nachhinein hat sich gezeigt, dass der Preis für die Lizenz nicht so ganz passend war", sagt Guido Heitmann von E-Plus. "Das waren andere Zeiten damals." Immerhin bewegte man sich Mitte 2000 noch auf dem Höhepunkt der New Economy, die Internet-Blase platze aber schon wenige Monate später. Es sei nicht denkbar gewesen, sich von der UMTS-Versteigerung fernzuhalten, meint Heitmann. Nach dem Sommer 2010 dauerte es fast vier Jahre, bis die Basisstationen für das UMTS-Netz standen und die schnelle mobile Internetverbindung Wirklichkeit wurde – zuerst meist mit dem Mittel einer PC-Karte, die ins Notebook eingesteckt wurde. Bis Herbst 2004 kamen dann auch immer mehr UMTS-Handys heraus, die ersten noch ziemlich klobig und nicht besonders smart.
Erschwert wurden die ersten Jahre im mobilen Internet von der Suche nach einer "Killerapplikation": Welche Angebote können für die Verbraucher so verlockend sein, dass die Milliarden wieder hereingeholt werden? Als Kandidaten wurden schon vor zehn Jahren Anwendungen genannt, die auch heute noch eine Rolle spielen: Musik, Spiele, Filme und Community, also der Austausch mit Freunden. Doch lange Zeit steuerte die Branche im Blindflug ins mobile Internet: "Wir haben in einen Markt investiert, von dem wir nicht wussten, wie er aussehen wird", erinnert sich Heitmann.
"Um das Jahr 2005 kam dann die Trendwende", erklärt O2-Chef Schuster. Letztlich war es die Kombination von Software und Hardware, die dem mobilen Internet den entscheidenden Schwung gab. Wichtige Impulse lieferte ab 2002 RIMs Blackberry und ab 2007 das iPhone von Apple. Auf einmal schien es ganz einfach, mit einem Smartphone ins Internet zu gehen, Informationen abzurufen, E-Mails zu lesen und Anwendungen zu nutzen, die auf das Netz zugreifen. "Ohne UMTS hätte es den Datenmarkt nie gegeben", sagt E-Plus- Sprecher Heitmann. "Aber eigentlich kommt der Markt erst jetzt richtig in Schwung, zehn Jahre später. Der Durchbruch zum Massenmarkt im mobilen Datengeschäft ist in Sicht." Ohne die neuen Smartphones, die leistungsfähige Hardware, einfache Touchscreen-Bedienung und eine ausgeklügelte Software-Infrastruktur aus Betriebssystem, Apps und App-Stores wäre auch trotz UMTS-Netzen kein boomendes mobiles Internet gewachsen.
Die UMTS-Netze erreichen je nach Betreiber 59 bis 81 Prozent der Bevölkerung, in der Fläche gibt es eine Abdeckung von insgesamt etwa 70 Prozent. In den Netzen tummeln sich nach Angaben der Bundesnetzagentur rund 26 Millionen UMTS-Geräte, Ende 2009 nutzten 19 Millionen Teilnehmer regelmäßig UMTS, mehr als doppelt so viel wie zwei Jahre zuvor. Das "Universal Mobile Telecommunications System", wie die Abkürzung aufgelöst wird, ermöglichte zunächst eine Datenübertragung bis maximal 384 Kilobit in der Sekunde. Noch schneller wird es mit der UMTS-Beschleuniger Technik HSPA (High Speed Packet Access) – sie bietet Übertragungsraten bis 3,6 oder 7,2 Megabit pro Sekunde – und HSPA+ liefert bis zu 21 oder 42 MBit/s.
Inzwischen ist bereits der UMTS-Nachfolger in Reichweite: Der Standard "Long Term Evolution" (LTE) verspricht Geschwindigkeiten bis 300 Megabit pro Sekunde. Die Versteigerung von Lizenzen für Funkfrequenzen, die im Rahmen der "Digitalen Dividende" frei wurden, ging im Mai sehr viel stiller über die Runden. Die Frequenzen sollen aber nach dem Willen der Politik vor allem dazu genutzt werden, um Lücken in der Versorgung der Bevölkerung und der Wirtschaft mit Breitband-Internet-Anschlüssen vor allem in ländlichen Regionen zu schließen; sie werden nicht zwangsläufig für LTE genutzt. Die deutschen Netzbetreiber haben für die Lizenzen zusammen gerade mal 4,4 Milliarden Euro ausgegeben, noch nicht einmal ein Zehntel der Ausgaben für die UMTS-Lizenzen; Telefónica-O2 beispielsweise hatte direkt nach der Versteigerung den Aufbau eines LTE-Netzes mit den neuen Frequenzen angekündigt.
Damals wie heute gilt aus Sicht der Bundesnetzagentur: "Wenn die Nachfrage größer ist als das Angebot an verfügbaren Frequenzen, dann ist die Versteigerung das gesetzliche Regelverfahren." Auf diese Weise, so erklärt Behördensprecher Cord Lüdemann, "werden die leistungsfähigsten Anbieter ermittelt".Die ersten LTE-Netze sollen bis Ende des Jahres verfügbar sein, die Deutsche Telekom will voraussichtlich Anfang nächsten Jahres einen USB-Stick dafür anbieten. Aber UMTS wird parallel dazu noch lange Zeit Bestand haben.
Vodafone etwa erwartet, dass UMTS auch nach der geplanten Einführung des noch schnelleren Standards LTE weiter Bestand haben wird. Mit LTE werde das Internet für alle und in der Fläche Realität, erklärte der Deutschland-Chef von Vodafone, Fritz Joussen. Aber "UMTS und LTE ergänzen sich". "Die Bandbreiten werden steigen und unser Leben durchweg mobil in der Kommunikation", erklärte Joussen. "Dafür rüsten wir uns – mit neuen Frequenzen und der nächsten Hightech-Technologie."
"Frequenzen sind unser Rohstoff", antwortete Joussen auf die Frage, ob die Ersteigerung der UMTS-Frequenzen die Erwartungen erfüllt habe. "Mit UMTS wurde das Telefon zum Smartphone, das Internet mobil." Inzwischen lieferten die mobilen Datendienste einen Beitrag von mehr als einer Milliarde Euro zum Jahresumsatz von Vodafone in Deutschland, bei zweistelligen Wachstumsraten im Jahr.
Die Verbraucher dürfen hoffen, dass die Mobilfunkbetreiber aus den vergangenen zehn Jahren gelernt haben und günstige Tarife anbieten. Zwei von drei Handy-Besitzern (67,9 Prozent) verzichten auch heute noch wegen hoher Kosten auf die Internet-Nutzung mit dem Mobiltelefon – so das in dieser Woche veröffentlichte Ergebnis einer Umfrage der Marktforscher Fittkau & Maaß. Die Mehrheit der Bevölkerung aber steht dem mobilen Internet immer noch kritisch gegenüber.
Quelle : www.heise.de
-
Auf der Suche nach postpersönlichen Realitäten oder: Wie das Internet seine Zukunft als Medium der Nähe aufs Spiel setzt
Das Web ist längst erwachsen geworden, heißt es. Das Internet ist auch kein bloßer Informationskanal mehr, sondern ein Beziehungsmedium. Darin kann sich nicht nur jeder mit jedem vernetzen, seine Gedanken mit dem Rest der Zivilisation teilen, sondern auch gemeinsam mit anderen Usern an einer neuen Welt bauen - interaktiv im multimedialen Schwarm, in Echtzeit und ohne das eigene Zimmer verlassen zu müssen. Es ist schön im Netz zu sein, doch ist es das wirklich?
Freilich, das Internet ist gegenwärtig, immer aktiv und überall zugänglich. Und es verbindet die Welt, zweifellos. Was aber ist aus den Utopien der 1990er Jahre geworden, die uns von virtuellen Abenteuern und der Eroberung neuer Cyberwelten erzählt haben?
Das Web ist seinen Kinderschuhen entwachsen, heißt es. Bedeutet: Es ist ernster geworden, realistischer, pragmatischer, ein global etablierter Kommunikationsstandard eben. Das Netz kommt aber auch desillusioniert und visionsfrei daher. Waren die Webfirmen der ersten Stunde noch mit Pioniergeist und Enthusiasmus im digitalen Neuland unterwegs musste schon die erste Generation der virtuellen Siedler schnell lernen, dass das Internet kein klassischer Markt ist, auf dem klassische Geschäfte zu machen sind. Die Old Economy 1:1 in die New Economy zu übersetzen, war und ist kein Erfolgsrezept. Das Medium hat seine eigenen Gesetze.
Nur wenige Start-ups von einst haben überlebt; das Netz empfiehlt sich zwar durchaus als Refugium für neue Dienstleistungen, an deren virtuelle Stände sich allerdings nur Besucher locken lassen mit der Einladung "Eintritt frei". Das Bezahl-Web teilt das Schicksal des Bezahl-Fernsehens: Ein großes Direktzahler-Publikum gibt es (noch) nicht.
Gleiches erlebt die Finanzdienstleistung seit Jahrzehnten: Bis heute konnte sich eine vom Kunden direkt bezahlte Finanzberatung nicht durchsetzen. Doch der Kommerz ist wie Wasser, er findet immer seinen Weg in die Portemonnaies der Interessierten. Was in der Finanzbranche die Provision ist, sind im Web also die Werbeeinnahmen, Sponsoringmodelle und versteckten Nutzungsgebühren. Was geradezu langweilig wirkt, bedenkt man die eigentlichen Chancen des Mediums: Das Internet ist eine perfekte Mind-Maschine für die Gestaltung der Wirklichkeit - was wir im Web attraktiv finden, besitzt auch in der wirklichen Welt enorme Anziehungskraft. Ein Verstärkungsmechanismus, der sich mittlerweile empirisch belegen lässt: Virtuelle Sympathie und digitale Verbindungen steigern die realen Verkaufserfolge.
Hinzu kommt, dass die nun nachfolgenden Generationen bei der Alltagsbewältigung generell, in ihrem Einkaufsverhalten im Besonderen, zunehmend und irgendwann vollends auf simulierte Game-Erfahrungen zurückgreifen. Die Wirtschaft der Zukunft wird folglich nur als intelligente Spielform erfolgreich funktionieren. Eine Entwicklung, die dem heutigen Internet-Business klare Aufgaben stellt: Die Generierung von engen Web-Freundschaften und der Bau eines interaktiven Game-Kosmos, in dem den Usern die kommenden Marken gleich als komplette Interaktionswelten begegnen, zumindest in Gestalt raffiniert gestalteter Levels, sind angesagt. Cyber-Relations, Spielefantasien, Marketing und Vertrieb verschmelzen also miteinander zu einer Businesskompetenz, die sich darum bemüht, neue Realitäten zu designen. Denn der Kunde kauft in Zukunft keine Produkte mehr, sondern die Erfahrung mit neuen Wirklichkeiten.
Wann wird das Web soweit sein?
Bereits 1994/1995 meinte ich, diese Entwicklung stünde kurz bevor. Damals dachte ich auch, das Web würde zur globalen Kulturrevolution ausholen und sich unmittelbar zum Lab für neue Realitätserlebnisse manifestieren. Ich sprach auf Vorträgen von Visionen wie die Entstehung einer politischen Hyper-Kreativität im Sinne der Geburt eines weltweiten, gesellschaftsübergreifenden Meta-Bewusstseins. Fantasierte zudem von multimedialer Transzendenz, einer Art virtueller Metaphysik und Übersinnlichkeit, geschaffen durch simulierte Welten und eine medial erweiterte Wahrnehmung.
In diesem Zusammenhang beschrieb ich das Surfen durchs Netz als eine neue Meditationsform, spekulierte dabei, ob sich wohl Web-Schamanen etablieren werden als Mittler oder Intermediäre zwischen virtuellem und physikalischem Kosmos. Und nicht zuletzt hoffte ich auf die Entstehung von Cyber-Paradiesen, die als perfekte Vorbilder einer idealen Umwelt neue Ökobewegungen ins Leben rufen sollten, frei nach dem Motto: Computerfreaks retten den Planeten.
Aus dem Allem ist bis heute (noch) nichts geworden. Was für die einen der Weg zur Mediendemokratie darstellt, betrachten andere als Plattform für Selbstdarsteller, Senfdazugeber und Denunzianten. Und Geld im Web zu verdienen, ist nach wie vor ein ökonomisches Mysterium. Obwohl das Internet unser Leben bereits völlig verändert hat. Doch wo wird uns dessen Evolution tatsächlich hinführen?
Quelle : http://www.heise.de/tp/
-
Wie das Internet seine Zukunft als Medium der Nähe aufs Spiel setzt - Teil 2
Wenn es um interessante Beschreibungen des Zukunftsmediums Internet geht, greifen wir gerne ins futuristische Nähkästchen. Doch was nach Zukunft klingt, verbreitet oftmals schnell den Duft alter Science-Fiction-Konserven. Dass Mensch und Maschine irgendwann miteinander verschmelzen, ist bereits Thema bei den Abenteuern des Raumschiffs Enterprise, das Mitte des vergangenen Jahrhunderts in Galaxien vordrang, die der Mensch erst jetzt beginnt, zu entdecken.
Oder denken wir bei Überlegungen zur künstlichen Intelligenz an HAL 9000, den eigenbrötlerischen Computer des Sternenkreuzers Discovery in Stanley Kubricks 2001 – Odyssee im Weltraum. Kein Geringerer als Isaac Asimov formulierte 1942 drei Gesetze für die Verhaltensethik von clever gewordenen Robotern. Von der Erschaffung eines künstlichen Menschen träumte schon um 1818 Mary Shelley in ihrer Geschichte um Frankensteins Kreatur, Fritz Lang ließ 1927 in Metropolis den Erfinder Rotwang einen weiblichen Maschinenmenschen konstruieren und nicht zuletzt finden sich bei den ehrwürdigen Urgroßvätern der fantastischen Dichtkunst, Jules Verne und H.G. Wells, zahlreiche Anleihen für das heutige Repertoire zukunftsweisenden Wirklichkeitsdesigns.
Eines wird deutlich: Die Fantasten von Literatur und Film sind der realen Entwicklung immer weit voraus, zumindest war das bisher der Fall gewesen. Heute scheint es einen ausgesprochenen Mangel an einer solchen fantastischen, weil wunderbar überladenen Vorstellungskraft zu geben, erleben wir im Zukunftskontext doch immer wieder das Aufwärmen gut abgehangener Hightech-Utopien. Was sie allerdings nicht per se zu obsoleten Geschichten degradiert, vielmehr stellt sich die Frage: Gibt es keine Zukunftsfantasien mehr? Oder müssen wir uns umgekehrt fragen: Hängt unsere Wirklichkeit tatsächlich so weit hinter diesen, einst so unglaublich klingenden Visionen hinterher?
Die Zukünftigkeit der Menschheit liegt nicht in der Erfüllung von Hightech-Fiktionen
Viele Zukunftsträume haben sich verwirklicht: Der Mensch war auf dem Mond, die Welt ist multimedial vernetzt und Computer sind so klein, dass sie in jede Westentasche passen. Nanoroboter werden demnächst in unseren Blutbahnen auf medizinische Patrouille gehen, dabei Krankheiten und Krebszellen gleich vor Ort den Garaus machen, und genetisch optimierte Lebewesen durchlaufen im rasanten Tempo die Evolutionswünsche ihrer Schöpfer. Über alldem arbeitet die Medienwelt fieberhaft an der Schaffung künstlicher Intelligenz. Gelingt den Programmierern in Zukunft die Zeugung eines autonomen Cyberbewusstseins, wird es aufregend sein, die Elektronikgehirne als Erstes mit den großen Fragen des Lebens zu füttern, gespannt darauf, ob sie die Bestimmung des Seins zu deuten wissen und uns aufschlussreiche Hinweise für eine sinnerfüllte Existenz anzubieten haben. Was wird wohl dabei herauskommen?
Andererseits haben wir noch nie so viel Papier erzeugt wie in der digitalen Revolution. Daneben schreitet der Klimawandel im Katastrophentempo voran, der Abfall unserer virtuellen Informationsgesellschaft steht giftigem Industriemüll in Menge und Wirkung nicht nach. Sicherheitstechnologien liefern sich ein verzweifeltes Wettrennen mit raffinierten Hackern, die uns Labilität und Verletzlichkeit elektronischer Systeme immer wieder deutlich vor Augen führen.
Überdies führt die steigende Belastung durch Elektrosmog bei vielen Menschen schon jetzt zu Migräneattacken, ganz zu schweigen von den Folgen des Bewegungsmangels einer auf virtuelle Mobilität reduzierten Gesellschaft. Und da wir schon beim Stichwort Bewegung sind: Trotz unbegrenzter digitaler Räume und globaler Supervernetzung scharen sich um die Zapfsäulen der Welt nach wie vor hungrige Automobile, die in Zukunft mit allen möglichen Stoffen laufen werden, obwohl wir bereits heute in den ausufernden Ballungszentren des eigentlich globalen Dorfes aus Platzmangel gar nicht mehr vorankommen.
Jetzt werden Sie mich vielleicht in die Gruppe der Fortschrittskritiker einreihen, doch ich möchte mit meinen Betrachtungen eines zum Ausdruck bringen: Die Zukünftigkeit der Menschheit liegt nicht in der Erfüllung von Hightech-Fiktionen. Die Entwicklung des Cyberspace ist eine wunderbare Sache, wird aber, entgegen meinen früheren Annahmen, die Welt nicht retten. Die Ausgestaltung des virtuellen Kosmos wird auf Jahre hin noch an menschliche Vorstellungen gekoppelt sein, verlängert also eben jenes Denken, das für wirtschaftliche Ungleichheit, Kriege und Umweltkatastrophen verantwortlich ist.
Eine Magna Charta internationaler Vernunft und Nähe
Gelingt es tatsächlich, künstliche Intelligenz inklusive eines eigenständigen Cyberbewusstseins zu erschaffen, so ist dieser Fortschritt sicherlich ein Quantensprung für die Computertechnologie. Ob aber diese schlauen Maschinen in der Lage sind, als moralisches Korrektiv gegenüber ihren eigenen Schöpfern aufzutreten, wage ich derzeit zu bezweifeln. Nicht nur das: Ich gehe davon aus, dass diese Supercomputer recht naive Zeitgenossen darstellen, da sie in den Grenzen ihrer digitalen Algorithmen gefangen bleiben werden, zumindest in absehbarer Zukunft. Es wird ihnen damit kaum möglich sein, Menschlichkeit, ein Gewissen, Gefühle, Liebe, Sinn für Schönheit und Humor oder gar so etwas, was wir als Seele bezeichnen, entwickeln zu können. Doch diese Eigenschaften bilden die Voraussetzung, Entscheidungen treffen und eigenes Verhalten verändern zu können. Die Menschenmetapher ist nicht auf das Wesen von Maschinen anzuwenden. Wir sind nicht nur auf unser Gehirn und das Gehirn nicht nur auf pure Reizverarbeitung zu reduzieren.
Die Rettung der Welt muss also von den Menschen ausgehen. Dabei können uns Technologien auf fantastische Weise unterstützen, die, bleiben wir realistisch, Daten zwar schon heuristisch verarbeiten, aber momentan noch keine abstrakten Assoziationen zwischen Informationen herstellen können. Der Weg zur erträumten Zukunft ist nur im Wunsch ein kurzer Steg zur Erfüllung.
Heute geht es vielmehr darum, eine nachhaltige, sozial, ökologisch, ökonomisch und nicht zuletzt technologisch ausbalancierte Globalisierungskultur zu entwickeln. Eine Hyperwelt braucht ein Hyper-Bewusstsein, ein hyper-politisches Denken, eine Magna Charta internationaler Vernunft und Nähe, will die moderne Zivilisation die tatsächlichen Potenziale ihrer Hightech-Evolution zukunftsweisend nutzen.
Diese Einschätzung mag auf den ersten Blick pragmatisch und wenig fantasievoll aussehen, ist aber eine der wesentlichsten Visionen des 21. Jahrhunderts. Schon alleine das Abmildern der weltweit herrschenden Wirtschafts- und Sozialdisparitäten, ist eine globale Herkulesaufgabe, über die zwar auf vielen Gipfeln diskutiert wird, aber noch nicht angegangen wurde: Nach wie vor fordern wir hohe Renditen an den Finanzmärkten und Tiefstpreise beim Einkauf, ein Verhalten, das die bestehenden ökonomischen Ungleichheiten weiter verschärft. Sich von dieser Haltung zu distanzieren, fällt vor allem den wirtschaftlich hoch entwickelten Ländern schwer, basiert doch auf der Spanne zwischen Kosten und Rendite die Prosperität ihrer Industrialisierung. Für spürbare Veränderungen müssten sich global angelegte, hyper-balancierte Wachstumsideologien durchsetzen, bevor aus Visionen neue Wirklichkeiten entstehen können.
Kampf um die Aufmerksamkeit
Was das Web angeht: Freilich, das Medium verändert – oder besser: ergänzt beziehungsweise erweitert – unsere Realität: Das Internet ist zum öffentlich-privaten Gesellschaftspanoptikum geworden, in dem wir unsere Erlebnisse, Meinungen, Bilder und Videos ablegen, wie einst in der guten alten Schublade. Heute wollen wir allerdings unsere Geheimnisse nicht mehr für uns behalten, sondern bieten sie unter Preisgabe persönlicher Daten oder mittels Pseudonymen dem Rest der Welt als beachtenswerte Mitteilung an. Je mehr Erlebtes wir dem Web anvertrauen, desto größer wird die interaktive Erinnerungsdimension.
Wer aber glaubt, es entstünde dadurch eine Form unsterblichen Gedächtnisses, der irrt. Millionen von Internetseiten werden täglich neu angemeldet, genauso viele verschwinden oder veröden. Selbst professionelle Datensammler trauen der digitalen Welt keine besonders lange Haltbarkeit von Informationen zu. Um die Konservierung von Daten ist es schon jetzt schlecht bestellt, Speicherkapazitäten arbeiten an der Belastungsgrenze, immer kurz vor dem Systemkollaps, der Informationsschwund ist beträchtlich. Zudem ist der Ausstoß an Informationen weitaus größer als ihr Konsum. Damit verschärft sich der Kampf um Aufmerksamkeit, die sich ohnehin zwecks Überlastung immer mehr zurückzieht.
Die bloße Veröffentlichung der eigenen Meinung und das Ausstreuen von Blitzmeldungen über das momentane Befinden führen nicht zwingend zu einer eigenen, potenziellen Öffentlichkeit. Nur herausragende Informationen erzeugen – mit viel Glück – die gewünschte Form von Interesse. Aufgehalten kann dieser Prozess nicht: Informationsproduktion hat immer zugleich Informationszerstörung zur Folge. Deshalb erleben wir die angesprochene Zunahme des Bemerkbarkeitskampfes, der von den Medien in Casting-Shows ausgeschlachtet wird, aber an eine Weisheit des Showbiz erinnert: Von den Vielen hört man so wenig, von den Wenigen so viel.
Daten beziehungsweise gespeicherte Erinnerungen überleben nur, wenn sie als wertvolle Informationen erachtet, als solche weitergegeben werden und sich im kollektiven Gedächtnis von Communities, Gesellschaften, ja von ganzen Zivilisationen eingravieren. Hier muss das Web den gleichen Weg gehen, den unsere Vorfahren bereits beschritten hatten: Mit der Weitergabe von Geschichten und deren kollektive Speicherung inklusive ihrer laufenden Veränderung schufen sich Menschen nicht nur virtuelle, externe Gehirne, sondern eine soziale und identitätsstiftende Enzyklopädie. Mit metaphysischer Prägung: Aus den Geschichten entstanden Mythen, Legenden und Vermächtnisse.
Und heute kehrt, nach der Erfindung von Schrift, Buchdruck, Fotografie und Fernsehen, die Medienwelt zu diesen Anfängen zurück: Es geht im Web darum, Mythen, Legenden und Vermächtnisse zu initiieren, um ein neues kollektives und dynamisches Gedächtnis zu erschaffen. Das wirklich Kuriose am Web ist: Entgegen den passiven Medien birgt es die Option, selbst zu einem autonomen Wissensorganismus heranzureifen, der eine völlig neue Form von hyper-intelligenter Instanz in unser alltägliches Leben bringen könnte.
Vielleicht überschätzen wir die digitale Welt
Möglicherweise bleibt die virtuelle Kommunikation bloße Servicesphäre für den elektronischen Datenaustausch. Oder sie verdingt sich als dubiose Schattenwelt aus inszenierten Scheindialogen.
Indizien hierfür gibt es:
* Ist es nicht die Unüberschaubarkeit des virtuellen Kosmos selbst, der die Möglichkeit auf Entwicklung eines globalen Meta-Bewusstseins verhindert?
* Was passiert denn tatsächlich, wenn sich alle im cybersozialen Web der Mitmach-Generation 2.0plu zu Wort melden – erleben wir dann tatsächlich das Ideal einer hypermedialen Demokratie?
* Oder zerstört die Anarchie plakativer Meinungen unserer persönliche Souveränität?
* Werden wir letztlich doch nur Zeugen des weltweiten Burnouts der Informationsgesellschaft?
* Indizien hierfür gibt es: Waten wir nicht schon jetzt müde geworden im Hochwasser der Datensintflut?
* Und basteln hyperaktive User im Glauben an viele passive Leser letztlich nicht nur an ihrem egomanisch motivierten Blog- und Twitterkosmos?
* Entwickelt sich das Web womöglich doch zum Sammelbecken für Wirklichkeitsenttäuschte und Realitätsverweigerer?
* Oder schlimmer noch: Wird es zum Rückzugsort für egoistische Selbstproduzenten und subtile Denunzianten?
* Für solche, die ihre Bedeutsamkeit mittels inszenierter, virtueller Mehrheiten unter dem Deckmantel der Basisdemokratie legitimieren wollen?
* Verödet eine in Zukunft möglicherweise egozentrisch gewordene Medienwelt letzten Endes an fehlender Verständnisfähigkeit und in Folge an mangelnder Sozialisation?
Vielleicht unterschätzen wir die digitale Welt
Möglichweise entstehen doch neue Verständigungs- und Gemeinschaftskulturen und mit ihnen neue Werte-Instanzen, die uns ebenso neue, übergreifende Dialoge und neue, universale Verabredungen erlauben wie sie uns die Offenheit und Verbundenheit ermöglichen, die wir für einen produktiven Umgang mit einer komplexen und dynamischen Welt benötigen.
Eines ist sicher: Je mehr virtuelle Dominanz in unser Leben strömt, desto stärker müssen wir unsere mentalen Fähigkeiten entwickeln. Wollen wir mündige, unabhängige und kreative Mediennutzer sein, müssen wir dem wachsenden digitalen Einfluss wachsende psychologische und emotionale Stärken gegenüberstellen. Die alleinige technologische Verpackung des Globus wird nicht ausreichen, eine offene und sich zugleich vielfach verbindende Welt zu schaffen.
Wenn es gelingt, Wissen, Kreativität, Gefühl, Respekt und Gemeinschaft global zu koppeln und wenn diese Haltung die Möglichkeiten heutiger und kommender Technologien bestimmt, sind wir der Hyperwelt ein gutes Stück näher gekommen. Und das Web würde als Medium der kulturellen Verständigung in die Geschichte der Menschheit eingehen. Diese Vision würde auch den Fantasten gefallen. Da bin ich mir sicher.
Quelle : http://www.heise.de/tp/
-
Am 13. November 1990 schaltete der britische Physiker Tim Berners-Lee die Domain info.cern.ch am Europäischen Kernforschungszentrum CERN bei Genf frei.
Die Idee zum Informationsnetzwerk hat Berners-Lee bereits im März 1989 am Kernforschungsinstitut CERN formuliert. Auf der ersten CERN-Webseite wurde unter anderem erklärt, was das World Wide Web ist, welche Personen daran beteiligt sind und wie man einen Browser benutzt. Wie das Ganze aussah, kann man beim W3C betrachten (http://www.w3.org/History/19921103-hypertext/hypertext/WWW/TheProject.html).
Der endgültige Siegeszug des weltumspannenden Netzwerks begann allerdings erst 1993, als das CERN das Web offiziell für die Öffentlichkeit freigab und sich bereit erklärte, auf Lizenzzahlungen und eine Patentierung zu verzichten.
In Deutschland ist die Zahl der Webseiten seit Beginn des Internet-Booms 1999 stetig gestiegen. Hierzulande nutzen Privatleute wie Unternehmen zumeist Adressen der Top Level Domain ".de". Derzeit sind 13,8 Millionen Domains bei der Denic registriert. Die weltweit populäre Endung ".com" kommt auf etwa 90 Millionen Webadressen. Bei der seit vier Jahren existierenden Endung ".eu" seien es 3,2 Millionen Webseiten, so der Branchenverband BITKOM.
Quelle : www.tecchannel.de
-
Heute vor 30 Jahren startete die Deutsche Bundespost in Bonn einen Bildschirmtext-Feldversuch mit fünf angeschlossenen externen Rechnern. Neben den Versandhäusern Otto, Quelle und Neckermann und den Fliegern von TUI war die Verbraucherbank (heute Norisbank) ein Teilnehmer des Experimentalangebotes. 200 Kunden in der Testregion Neuss/Düsseldorf konnten das Angebot nutzen, unter *300# ihre Überweisungen online durchzuführen. Das BTX-Angebot war in der Folgezeit so erfolgreich, dass lange nach dem Aus für BTX die Banking-Schnittstelle erst 2005 in den Ruhestand geschickt wurde.
(http://www.heise.de/imgs/18/5/9/4/1/4/9/388deaa3aef43320.jpeg)
Werbung fürs Online-Banking
im Jahr 1980...
"Unsere Kunden praktizieren die Selbstbedienung schon seit Jahren", warb die Verbraucherbank selbstbewusst zum Start des Online-Bankings via BTX. Aus heutiger Sicht war die Bank der Zeit weit voraus. 1976 hatte dort der technische Leiter Alfred Richter das PIN/TAN-Verfahren erfunden und eingeführt, das ursprünglich bankintern Mitarbeiter schützen sollte, die ein Konto bei der eigenen Bank hatten. 1977 führte er das SB-Banking ein, mit Sachbearbeiter-Terminals, die nach Schalterschluss mit dem Hubwagen in den Vorraum der Filiale gerollt wurden. Im selben Jahr installierte die Verbaucherbank einen der weltweit ersten Geldautomaten, bei dem alle Kunden mit Kundenkarte und PIN Geld abheben konnten.
(http://www.heise.de/imgs/18/5/9/4/1/4/9/69f32dd815d616d6.jpeg)
...und Werbung fürs Online-Banking
ein Jahr später
1978 führte Richter Electronic Cash mit Kundenkarten des technischen Kaufhauses Brinkmann in Verbund mit einer Kundenkarte samt PIN ein. Auf Basis dieser Erfahrungen entstand das Online-Banking, lange vor entsprechenden Installationen in den USA. Mit dem Start des Systems warb man ein Jahr später mit dem Slogan "Meine BANK im Wohnzimmer". Zu diesem Zeitpunkt hatte die Verbraucherbank bereits 2000 Kunden, zum offiziellen Start von BTX im Jahre 1983 verdoppelte sich die Zahl. Der große Erfolg des Online-Bankings führte dazu, dass man völlig unrealistische Zahlen ausgab. 1984 wollte man 300.000 Teilnehmer im BTX-System haben, 1987 die Million erreichen. Tatsächlich verfügten Ende 1984 nur 38.894 Haushalte über ein BTX-System; die 300.000er-Grenze wurde erst 1991 übersprungen.
Technisch beruhte das erste Online-Banking auf einem Login mit Nutzernamen und Kennwort (mindestens 10 Stellen) sowie einer Liste mit "Geldtransaktionsnummern", die jeweils für eine Überweisung eingegeben wurden und danach ungültig waren. Das System wurde vor allem von Kleinbetrieben benutzt. Neben der Verbraucherbank richteten viele Banken und Sparkassen ein BTX-Angebot ein. Bis zum offiziellen Ende des Bildschirmtextes im Jahre 1999 blieb das Online-Banking die dominierende Anwendung. Tatsächlich lief BTX wegen zahlreicher wechselunwilliger Bankingkunden als "T-Online Classic" munter weiter und wurde erst am 10. Mai 2007 während einer feierlichen "Power Off"-Veranstaltung in Ulm abgeschaltet. Bis zum Schluss war das Online-Banking allen Unkenrufen zum Trotz ein sehr sicheres System, auch wenn frühzeitig durch eine Protestaktion ein anderer Eindruck entstand: Im November 1984 erleichterte der Chaos Computer Club mit einem Trick die Hamburger Sparkasse (Haspa) um 135.000 DM: Die Hacker ließen die Haspa für jeweils 9,97 Mark 14 Stunden lang den kostenpflichtigen Text "Es erfordert ein bemerkenswertes Team, den Gilb zurückzudrängen" abrufen. Mit Gilb war die deutsche Bundespost gemeint, der Betreiber des BTX-Systems, den Hacker wegen seiner restriktive Modem-Zulassungspraxis hassten. Die Protestaktion war alles andere als ein Einbruch in die Bank, sondern mehr eine Spaßaktion wie jene der bayerischen Hacker, die danach die aufgeregte Presse zur Vorführung eines Bankeinbruches einluden, bei der eine Schulbank unter dem Gewicht der Hacker brach.
Quelle : www.heise.de
-
Heute vor 20 Jahren ging mit http://info.cern.ch die erste Website online. Es ist einer von vielen Geburtstagen, die das Internet feiern kann. Dazu gehört die Freigabe von Sourcecode ebenso wie die Entscheidung der DARPA und dann der National Science Foundation, die Entwicklung eines Rechnernetzes zu finanzieren. Eingewoben in die Schaltungstechnik ist die erste Website ein Kapitel in der Geschichte des Hypertext, die mit Vannevar Bush begann.
Die erste Website wurde von Tim Berners-Lee aufgesetzt, der am europäischen Forschungszentrum CERN einen schwer vermittelbaren Vorschlag verfasst hatte, wie man das Hypertext-Projekt Xanadu von Ted Nelson umsetzen könnte. Berners-Lee vereinfachte das Link-Konzept von Nelson, der aktive Rücklinks von den jeweils referenzierten anderen Text-Systemen konzipiert hatte. In seinem Buch zur Entwicklung der Computertechnik macht Nelson den schädlichen Einfluss des Personal Computers dafür verantwortlich, dass das WWW mit seinen Webseiten so "eindimensional" geworden ist.
Der Geburtstag der ersten Website wird mit zünftigen Klickstrecken gefeiert, aber auch mit klugen Anmerkungen zu den vielen Geburtstagen des Internet. So kommt es, dass man bei einer Firma, die sich lange gegen das Internet stemmte, zum 20. Geburtstag 20 verrückte Dinge lesen kann.
Quelle : www.heise.de
-
Der zehnte Geburtstag der Wikipedia wurde in der vergangenen Woche ausgiebig gewürdigt; an die Organisation, die Dienste wie Wikipedia möglich gemacht hat, scheint hingegen fast niemand zu denken. Die Internet Engineering Task Force, die bis heute über 4500 grundlegende Protokolle auf der Basis des Internet Protokolls (TCP/IP) festlegte, vom Routingprotokoll BGP bis zum Mailstandard SMTP. Heute vor 25 Jahren diskutierten im kalifornischen San Diego die 21 Teilnehmer des vierten Treffens der Gateway Algorithms and Data Structure Task Force (GADS) die Satzung für die Internet Engineering Task Force (IETF). Den Entwicklern gilt dieses Treffen als Geburtsstunde der Standardisierungsorganisation.
Anders als bei der ISO oder der Internationalen Fernmeldeunion (ITU) gibt es bei den inzwischen drei jährlichen Treffen der IETF keine Abstimmungen über neue Standardentwürfe: "Wir erkennen keine Könige, Präsidenten oder Wahlen an – wir glauben an groben Konsens und funktionierenden Code", lautet das Credo der IETF, die sich mit ihren Verfahren deutlich von anderen Standardisierungsorganisationen abhebt.
Ursprünglich getrieben von Forschern aus dem Umfeld der US-amerikanischen Defense Advance Research Project Agency (DARPA) und über Jahrzehnte klar US-dominiert, treffen sich die Entwickler ausgerechnet im Geburtstagsjahr kein einziges Mal im "Mutterland" und folgen erstmals offiziell der neuen Regel, je eines von drei Treffen in Nordamerika, Europa und Asien zu veranstalten. Geburtstag gefeiert wird im März in Prag, fürs Nordamerika-Treffen geht man ins Einreise-freundlichere Kanada und zum Abschluss des Jahres trifft man sich in Taipeh, sozusagen zur Demonstration von Unabhängigkeit gegenüber dem letzten Gastgeber im vergangenen Jahr, der Volksrepublik China.
Nach wie vor schicken große US-Unternehmen wie Cisco mehrere Dutzend Entwickler zur IETF. US-Behörden wie das National Institute für Standards and Technology (NIST) bedienen sich des IETF-Prozesses häufiger als Kollegen aus anderen Ländern. Der aktuelle IETF-Vorsitzende und Ko-Autor des Zertifikatsstandards X.509 (RFC 5280), Russ Housley, wird unter anderem von VeriSign und der National Security Agency (NSA) gesponsort.
Housley dankte in einer E-Mail zum heutigen Geburtstag den Teilnehmern, die mit ihrer Arbeit in den vergangenen 25 Jahren zum Erfolg der Organisation beigetragen haben."IETF-Standards unterstützen alle Aspekte des kontinuierlichen Wachstums und der Weiterentwicklung des Internet", schrieb Housley. Er unterstrich die Bedeutung des offenen Verfahrens und die kostenlose Verfügbarkeit der als "Request for Comment" (RFC) bezeichneten Standards. Berichte aus 25 Jahren IETF sammele man in den kommenden Monaten übrigens auf einer eigenen Seite, so Housely – na dann, Happy Birthday, IETF!
Quelle : www.heise.de
-
Warum kommt das Internet aus den USA und nicht aus Europa? Dieser Frage geht Technology Review in seiner aktuellen Ausgabe 01/12 in einer Fallstudie nach. Denn rein technisch stand Europa in der Frühphase der Computernetze, 1967, noch recht gut da: Donald Davies vom National Physical Laboratory bei London erzählte damals dem CCITT-Gremium aus Fachleuten der staatlichen Post-, Telefon- und Telegrafengesellschaften in Genf, wie große Dateien in kleine Datenpakete zerstückelt werden können, die selbstständig und unabhängig voneinander durch ein Netzwerk reisen und erst beim Empfänger wieder zusammengesetzt werden – Packet Switching eben. Mit seinem Vortrag erreichte Davies, dass die CCITT eine Arbeitsgruppe für neue Datennetze ins Leben rief. Diese erwies sich jedoch als reine Alibiveranstaltung, um unbequeme Wissenschaftler wie ihn ruhigzustellen.
Über einige Umwege kam das europäische Datennetz dann doch wieder auf die Tagesordnung. 1969 tauchte das "European Informatics Network" (EIN) als Forschungsprojekt auf. Es sollte mit einem vergleichsweise bescheidenen Budget von auf heutige Kaufkraft umgerechnet 50 Millionen Euro das erste europäische Computernetzwerk entstehen, verbunden über die Leitungen der nationalen Post-, Telefon- und Telegrafengesellschaften. Die ersten fünf Knotenpunkte waren das Centre Rete Europea di Informatica (CREI) in Mailand, die ETH Zürich, das Institut National de Recherche en Informatique et en Automatique (INRIA) in der Nähe von Versailles, das European Communities Joint Research Centre im norditalienischen Ispra und das National Physical Laboratory nahe London.
Allerdings wollten sich unter anderem die Deutschen bis Mitte der 70er Jahre nicht auf paketvermittelte Technologien festlegen, was den Start verzögerte. Gegen die Monopole der staatlichen Fernmeldeorganisationen kam man damals eben nicht an, sagt heute Maurice Allègre, der unter anderem den französischen Präsidenten Valery Giscard d'Estaing in technologischen Fragen beraten hat. "Wenn die Nein sagten, dann war es eben nein. So einfach war das."
Und so blieb es letztlich den Amerikanern überlassen, ein weltumfassendes Datennetz zu entwickeln. Zwischen 1967 und 1969 – in einer Zeitspanne, in der die Europäer ausschließlich darüber diskutierten, welche Forschungsprojekte gefördert werden sollten – hatten die Wissenschaftler der vom US-Verteidigungsministerium finanzierten Forschungsagentur ARPA bereits die ersten vier Computer paketvermittelt zusammengeschaltet.
Mehr zum Thema in Technology Review online:
Wie Europa beinahe das Internet erfand (http://www.heise.de/tr/artikel/Wie-Europa-beinahe-das-Internet-erfand-1398231.html)
Quelle : www.heise.de
-
Der 1. Januar 1983 war in den USA ein "Flag Day", zumindest für die Systemadministratoren des Arpanets. An diesem Tag wurden die rund 200 Hostrechner vom alten NCP (Network Control Program) auf das moderne TCP/IP (Transmission Control Protocol/Internet Protocol) umgestellt. Mit TCP/IP wurden die Grundlagen für das Wachstum des weltweiten Internet gestellt, denn das Protokoll erlaubte die Nutzung höchst unterschiedlicher Netze.
Der Umstieg von NCP auf TCP/IP wurde mit dem RFC 801 von Jon Postel eingeleitet. Im Dokument erwähnt Postel Funknetzwerke und Satellitenverbindungen. Diese Netzwerke unterschieden sich stark von den Telefon- und Datennetzwerken, in denen das alte NCP arbeitete. Solch unterschiedliche Netze zu verknüpfen, war das Anliegen der Protokollsuite TCP und IP, die der technisch interessierten Öffentlichkeit 1974 von Vint Cerf und Bob Kahn vorgestellt wurde. In der Zeitschrift IEEE Transactions on Communication Technology erschien ihr Aufsatz A Protocol for Packet Network Intercommunication (PDF-Datei), in dem sie beschrieben, wie die Kommunikation in Datenpakete zerlegt werden kann (TCP) und die korrekte Übertragung der Datenpakete gesteuert werden kann (IP).
Der ganze Artikel (http://www.heise.de/netze/meldung/Vor-30-Jahren-Arpanet-stellte-auf-TCP-IP-um-1775269.html)
Quelle : www.heise.de
-
Das World Wide Web wurde am 30. April 1993 erstmals öffentlich zugänglich gemacht. Seitdem hat das Internet in zwei Jahrzehnten die Welt verändert, wie kaum eine andere Technologie.
Zur Geburtsstunde waren nur wenige aktiv mit dabei. Heute aber ist das World Wide Web für Millionen Menschen in aller Welt die zentrale Informations- und Kommunikationsplattform. Die Technik für den Zugang wurde am 30. April 1993 zur öffentlichen Nutzung freigegeben. Zwei Jahrzehnte später umfasst das Web mindestens 14 Milliarden Webseiten.
Die Technik zur Vernetzung von Dokumenten und für ihre Übertragung in Form von einzelnen Datenpaketen ist schon etwas älter. Beide Standards, HTML und HTTP, waren die Basis für die Geburt des Webs am Europäischen Kernforschungszentrum (CERN) bei Genf. Dem Forscher Tim Berners-Lee ging es damals darum, mehr Übersicht im Informationschaos des Zentrums zu schaffen. Am 13. März 1989 legte er sein Thesenpapier "Informationsmanagement: Ein Vorschlag" vor. Zum Weihnachtsfest 1990 legte der Brite mit info.cern.ch den ersten Webs-Server der Welt an.
Die Technologie aus Europa erreichte schnell die anderen Kontinente: Im September 1991 wurde der erste Web-Server in den USA eingerichtet, wieder bei einer Forschungseinrichtung für Kernphysik, am Teilchenbeschleuniger SLAC im kalifornischen Stanford. Dann entwickelte der Student Marc Andreessen 1993 die Software Mosaic, den ersten Browser für das World Wide Web und legte so die Grundlagen für die allgemeine Nutzung.
"Der Anfang war sehr zäh", erinnert sich der Netztechnik-Pionier Michael Rotert, der einen der ersten Internet-Provider in Deutschland mit gegründet hat, die Firma Xlink in Karlsruhe. "Wir hatten ein Henne-Ei-Problem", sagt Rotert im Gespräch mit der Nachrichtenagentur dpa. "Die Firmen haben gesagt: 'Warum sollen wir eine Webseite einrichten, wer soll das denn angucken?' Und die breite Masse hat gesagt: 'Was sollen wir im World Wide Web, da gibt es doch nichts.'"
Auch Xlink selbst machte da keine Ausnahme: "Wir hatten zwar schon früh unseren Web-Auftritt, aber das Business als solches hatten wir zunächst nicht erkannt." Dabei war Rotert einer der ersten in Deutschland, der die Kraft der Vernetzung erkannte - 1984 erhielt er die erste E-Mail, die in Deutschland einging. Heute aber wird unter dem Internet vielfach das Web verstanden - obwohl es viel mehr umfasst.
Nach dem zähen Beginn in Europa wurde die Web-Entwicklung dann vor allem in den USA weiter vorangetrieben. Tim Berners-Lee ging 1994 nach Boston, um am Massachusetts Institute of Technology (MIT) das World Wide Web Consortium (W3C) zu gründen. In diesem Gremium werden unter seiner Leitung bis heute die technischen Entwicklungen des Webs standardisiert.
Längst verknüpft das Web nicht nur statische Dokumente aus Texten und Bildern, zwischen denen man beschaulich hin und her "surfen" kann. Statt einzelner Dokumente sind es inzwischen zunehmend komplexe Anwendungen mit der Verbindung zu umfangreichen Datenbanken, die das Web vernetzt. "Jede Webseite kann ein kleiner Computer sein", sagte dazu Berners-Lee im vergangenen Jahr in Berlin. Mit dem aktuellen Web-Standard HTML5 überwindet das Web die engen Grenzen des Browsers und wird zur Plattform für mobile Apps, zum Betriebssystem. Das Mozilla-Projekt Firefox OS für besonders einfache Smartphones ist dafür nur ein erster Ansatz.
So selbstverständlich das Web auch geworden ist - seine Grundpfeiler Freiheit und Offenheit sind nicht ungefährdet. Gerade für viele jüngere Netz-Bewohner ist das Internet gleichbedeutend mit Facebook geworden. Im mobilen Internet geben der Android-Entwickler Google und Apple den Ton an und versuchen, die Nutzer in ihren eigenen Welten zu halten. Kritiker sprechen von geschlossenen Systemen, in denen die Nutzer gefangen gehalten werden. Berners-Lee ist zuversichtlich, dass sich der offene Ansatz letztlich als attraktiver erweisen werde: "Das Web ist jetzt wichtiger für die Meinungsfreiheit als jedes andere Medium."
Die Grundprinzipien aus der akademischen Anfangszeit des Netzes sollten nicht ohne Not aufgegeben werden, mahnt der deutsche Netzpionier Rotert, der seit 1999 auch Vorstandsvorsitzender beim Eco ist, dem Verband der deutschen Internetwirtschaft. Dies gelte vor allem für den Grundsatz der Netzneutralität, der gleichberechtigten Übermittlung aller Datenpakete im Netz, gleich welcher Herkunft und Anwendung: "Das muss so bleiben - sonst bekommen wir ein Zwei-Klassen-Internet, und das tut niemandem gut, weder dem Business noch den Benutzern."
Quelle : www.digitalfernsehen.de
-
Nicht nur das Internet hat viele Geburtstage, auch seine Komponenten können auf zahlreiche Anlässe zurückgreifen: Vor 40 Jahren verfasste der Werkstudent Robert Metcalfe am Xerox Research Center (PARC) im kalifornischen Palo Alto ein Memorandum, das nunmehr als Geburtsstunde des Ethernets auf dem
Ethernet Innovation Summit gefeiert wurde.
(http://www.heise.de/imgs/18/1/0/2/6/9/1/0/BobMetcalfe_ethernet_sketch-8cb2bab7ddc6ec20.jpeg)
In seinem Memorandum vom 22. Mai 1973 beschrieb Metcalfe, wie man nach den Prinzipien des Wide Area Network Alohanet ein lokales Netzwerk entwickeln kann, das die unterschiedlichsten Rechner des Forschungszentrums miteinander verbindet. Später benannte Metcalfe seinen Vorschlag "Ethernet" nach dem hypothetischen Äther, der in den Anfängen der Physik die Ausbreitung des Lichtes erklären sollte. Als Stoff, der bis zu 256 Rechner am PARC verbinden sollte, machte der Begriff schnell Karriere, in erbitterter Konkurrenz zu dem von IBM propagierten Token-Ring-Netzwerk. Die Kämpfe um die Grundlagen des "richtigen" Netzwerkes wurden in den Gremien der IEEE ausgefochten, als man sich 1980 daran machte, die Netzstandards zu definieren. Zum Geburtstag freut sich die IEEE über den erfolgreichen Standard, der mit 1,2 Milliarden ausgelieferter Netzwerk-Ports allein im Jahr 2012 den Kommunikationsäther der Neuzeit bestimmt.
Ethernet gewann rasch an Bedeutung, weil sich der Standard auf die beiden unteren Schichten nach dem OSI-Modell konzentrierte. Dies gestattete es Firmen, in den höheren Schichten ihre eigenen Vorstellungen vom richtigen Vernetzen zu installieren. So entwickelte Digital Equipment sein Omnibus-Netzwerk, das über 10.000 Rechner miteinander verband. Metcalfe selbst erkannte bei der Entwicklung des Ethernet und den Auseinandersetzungen in der IEEE die Rolle, die Ethernet-Adapter für unterschiedliche Kleincomputer spielen können und gründete die Firma 3Com. Die Teilnehmer in der Reddit-Fragestunde zum Geburtstag begrüßte Metcalfe mit dem Hinweis, dass sie wahrscheinlich dank seiner Erfindung zugeschaltet sind. Auf die Frage, wie man denn per Ethernet Daten in die Zukunft schicken könne, antwortete Metcalfe: "Lasst die Daten offen herumliegen und sie werden automatisch in der Zukunft auftauchen."
Quelle : www.heise.de
-
Das Internet hat eigentlich immer Geburtstag. Feiern wir darum die E-Mail, für die einen der Niedergang der Briefkultur, für die anderen die wichtigste Erfindung seit dem Faustkeil.
"Wilkomen in CSNET!", schrieb Laura Breeden am 2. August 1984 in der Betreff-Zeile der ersten Internet-Mail, die Deutschland am 3. August 1984 erreichte. Michael Rotert, der als Techniker im Rechenzentrum der Universität Karlsruhe diese Mail erhielt, schickte sie zum Konsolendrucker. So blieb die erste Internet-Mail erhalten, auf Papier, aufbewahrt im Karlsruher Stadtarchiv. Die Festplatte des Mail-Gateways, eine Fujitsu Supereagle mit 400 MB ist noch erhalten, aber nicht mehr lesbar.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Vor-30-Jahren-Erste-Internet-Mail-erreicht-Deutschland-2281756.html)
Quelle : www.heise.de
-
Im "Named Data Network"-Konsortium haben sich auf Initiative der US National Science Foundation Cisco, Verisign, Panasonic und eine Reihe von Universitäten zusammengeschlossen, um einen IP-Nachfolger zu kreieren.
Die Initiative ging von der US National Science Foundation aus, die 2010 ein Projekt startete, um einen Nachfolger für das in die Jahre gekommene Internet-Protokoll zu entwickeln. Nun haben sich im NDN-Konsortium (Named Data Networking) Cisco, Verisign und Panasonic sowie eine Reihe europäischer, amerikanischer und asiatischer Hochschulen zusammengeschlossen und in einem ersten Arbeitspapier die Ziele ihrer Arbeit dargelegt.
Ein großer Nachteil des derzeitigen Internet-Protokolls sei die, historisch bedingte, Fokussierung auf Kommunikation und damit verbunden auf die Endpunkte respektive die Lokalität der Teilnehmer. Heute müsse es aber um die übermittelten Daten für Benutzer und Anwendungen gehen. Darum soll Named Data Networking (NDN) eine neue Internet-Architektur begründen. Im Rahmen des Konsortiums soll erforscht werden, welche Folgen eine solche Änderung für Routing, Sicherheit und so fort hätte. Dazu will man Testszenarien aufbauem, Simulationen und die nötigen kommunikationstheoretischen Grundlagen entwickeln.
(http://[center]http://1.f.ix.de/imgs/18/1/3/2/3/2/9/0/hourglass-1024x512-9a7a7e29e7e88822.png[/center])
Zeit dazu ist erst einmal bis 2016, dann laufen die NSF-Mittel aus. Angesichts des finanziellen Potentials der Konsortiumsmitglieder sollte Geld aber das letzte sein, an dem das Vorhaben scheitert.
Quelle : www.heise.de
-
Im Oktober 1994 war einiges los. Nach der Gründung des World Wide Web Consortiums und dem ersten CSS-Vorschlag gab der Netscape Navigators sein Debüt. Für die ersten Netizens war er das Tor zum WWW.
Sucht man ein Datum, wann das World Wide Web (und mit ihm das gesamte Internet) zur Eroberung der Welt ansetzte, wäre der Oktober vor zwanzig Jahren ein guter Kandidat: Innerhalb von zwei Wochen gründete sich das W3C, entstand CSS und erschien am 13. Oktober 1994 die erste Version des Netscape Navigator – jener Software, mit der Mitte der 90er-Jahre Millionen von Nutzern zum ersten Mal eine Webseite anschauten.
(http://2.f.ix.de/imgs/18/1/3/5/9/7/0/0/aktu_netscape9_dwo-b5c7e2129c11536f.jpeg)
1993 veröffentlichte das National Center for Supercomputing Applications (NCSA) im US-Bundesstaat Illinois einen Web-Browser namens Mosaic, der schnell sehr populär wurde. Maßgeblich an der Entwicklung beteiligt war ein junger Student namens Marc Andreessen. Nach seinem Studienabschluss traf Andreessen in Kalifornien auf Jim Clark, den bestens vernetzten Gründer von Silicon Graphics (SGI). Die beiden gründeten ein Unternehmen, um den Browser weiterzuentwickeln und zu vermarkten – die Mosaic Communications Corporation, später umbenannt in Netscape.
Der Browser, der am 13. Oktober 1994 erschien, hieß noch "Mosaic Netscape 0.9b", soll aber mit NCSA Mosaic keinen gemeinsamen Code gehabt haben. Diese erste öffentliche Version für Windows, Mac OS 7 und Unix (aber nicht Linux) galt als Beta; Netscape Navigator 1.0 ließ noch zwei Monate auf sich warten.
Umstrittene Neuerungen
Gegenüber Mosaic versprach der Herausforderer unter anderem kürzere Ladezeiten durch parallele Downloads und Unterstützung von JPEG-Grafiken. Bald sollten noch umstrittene Neuerungen wie Cookies, Frames und JavaScript hinzukommen. Wie viele heute aktuelle Web-Software-Produkte sollte der Navigator kostenlos für Privatanwender sein. Mit dem Erscheinen von Navigator 1.0 verlangte das Unternehmen für den Browser jedoch 39 US-Dollar, von dem nur akademische oder gemeinnützige Nutzer ausgeschlossen waren.
Netscape erlebte einen kometenhaften Aufstieg und ging als erstes Internet-Unternehmen 1995 an die Börse. Zur Jahreswende 1995/96 erreichte der Browser einen Marktanteil von fast 80 Prozent. Doch der Höhenflug währte nicht lange. Microsoft drängelte das Startup mit immer besseren Versionen von Internet Explorer vom Markt, die bereits in Windows enthalten und somit ohne weitere Kosten nutzbar waren. Zwischen 1998 und 2000 navigierte Netscape in Richtung Bedeutungslosigkeit, das Unternehmen ging in AOL auf. Die lange geplante Version 5 sollte nie erscheinen.
Wiedergeburt
Überraschenderweise schaffte Netscape eine Wiedergeburt als Open-Source-Projekt. Als das gemeinnützige Unternehmen Mozilla (benannt nach dem alten Netscape-Maskottchen und eine Vermengung von "Mosaic" und "Godzilla") im Frühjahr 2008 seinen 10. Geburtstag feierte, war der Navigator-Nachfolger Firefox gerade dabei, den Internet Explorer wieder vom Thron zu schubsen. Zur gleichen Zeit beschloss AOL, seine sieche Marke Netscape einzustellen.
Quelle : www.heise.de
-
Die HTTP-Fehlermeldung "404 - Seite nicht gefunden" kennt jeder. Jetzt gibt es einen neuen Statuscode für zensierte Inhalte. Seine Zahlenfolge ist keineswegs zufällig gewählt.
Der HTTP-Statuscode 404 hat es weit gebracht. So ziemlich jeder dürfte die Fehlermeldung kennen, sie bedeutet: Ihr Browser hat zwar den gewünschten Server erreicht, aber der Server findet die von Ihnen angefragte Seite nicht. Es gibt Seiten, auf denen die kreativsten 404-Versionen, die sich Serverbetreiber ausgedacht haben, gesammelt werden. Und die Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) hat sogar einen 404-Feiertag erfunden, den 4. April.
Die EFF wollte damit auf Zensur in öffentlichen Bibliotheken und Schulen hinweisen. Zu weit gehende Jugendschutzfilter in deren Netzwerken würden verhindern, dass Besucher und Schüler wichtige Informationen etwa über Gesundheitsthemen abrufen können.
Nun gibt es einen neuen Statuscode, der dafür besser geeignet wäre: 451 - "diese Seite ist aus rechtlichen Gründen nicht erreichbar".
Der ganze Artikel (http://www.golem.de/news/neuer-http-fehlercode-451-diese-seite-wird-zensiert-1512-118132.html)
Quelle : www.golem.de
-
Fahrenheit 451
https://de.wikipedia.org/wiki/Fahrenheit_451
-
So isses ...
-
Mit dem von Jon Postel und Robert Hinden herausgegebenen RFC 1897 begann man nach langen Jahren der Vorarbeit mit den ersten Umsetzungen des neuen IPv6-Protokolls im Netz der Netze, das vieles anders macht als IPv4 und manches weit besser.
Als das Internet kommerzialisiert wurde, zeichnete sich schnell ab, dass die mit IPv4 verfügbaren IP-Adressen schon gemessen an der Weltbevölkerung zu knapp bemessen sind – und damals schwebte noch niemandem ein Internet of Things vor, das den Adressbedarf leicht noch um ein Mehrfaches erhöht. IPv4 nutzt 32-Bit-Adressen. Damit stehen maximal 2hoch32 IPv4-Adressen zur Verfügung, also rund 4,3 Milliarden (oder genau 4.294.967.296).
Bereits Anfang der 90er Jahre startete die Internet Engineering Task Force mit ihrer RFC-Spezifikation 1550 den Prozess, mit einem neuen Internet-Protokoll einen größeren Adressraum zu schaffen. 1994 waren die Überlegungen zum IPnG (Internet Protocol next Generation) weitgehend abgeschlossen und führten zum RFC 1752. Das im Januar 1996 aufgelegte RFC 1897 kann man dann als Startschuss für die Umsetzung der IPv6-Spezifikation sehen.
IPv6 nutzt zur Adressierung 128 Bit und stellt daher maximal 2hoch128 IPv6-Adressen zur Verfügung (rund 340 Sextillionen). Das klingt nach sehr, sehr viel – aber manche Teilnehmer von sozialen und weniger sozialen Netzen sind solche Größenordnungen längst gewohnt, wenn man sich den schier unerschöpflichen Vorrat an Ausrufezeichen zum Vergleich vor Augen führt ;-)
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Vor-20-Jahren-IPv6-lernt-das-Laufen-3064346.html)
Quelle : www.heise.de