Autor Thema: Internet-Geschichte ...  (Gelesen 12122 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Internet-Geschichte ...
« am: 28 April, 2006, 10:33 »
Das deutsche Internet kennt viele Geburtstage. Da wäre der 5. November 1986 zu nennen, als .de entstand. Oder der 1. September 1984, als die erste Internet-Mail beim ersten CSNet-Knoten, in Karlsruhe eintraf. Auf den 27. April 1986 wäre wohl niemand gekommen: Das ist der Tag, an dem das Bonner Haus der Geschichte 20 Jahre später einen Termin frei hatte und einen würdigen Rahmen für die Feier abgab, die unter dem Titel "Wie das Netz nach Deutschland kam" begangen wurde. Fünf deutsche Internet-Pioniere und der Vater des deutschen Bildschirmtext-Systems trugen gut gelaunt vor etwa 100 Veteranen (so bezeichneten sie jedenfalls die Veranstalter) ihre Erinnerungen vor: an die protokolltechnisch wilden 80er vor, als das Internet nach Deutschland sickerte; an die verrückten 90er, als sich sogar das deutsche Parlament mit der Frage beschäftigte, ob das deutsche Volk durch den OSI-Standard geschädigt wurde oder ob es mit dem amerikanischen TCP/IP Schaden erleiden wird; an die wilden 2000er, als das Netz kommerziell explodierte (T-Online ging an die Börse) und implodierte (KPNQwest meldete Insolvenz an). Gerade weil das Internet eine einzigartige Lektion über "unerwartete Konsequenzen einfacher technischer Entscheidungen"(Vint Cerf) ist, störte sich niemand am schrägen Datum.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 20 Jahren: Urmel geht ins Netz
« Antwort #1 am: 23 Juni, 2007, 12:58 »
Mit einer aufwendigen Fangschaltung wurde vor 20 Jahren der Hacker Markus Hess ermittelt, der unter dem Decknamen "Urmel" vor allem in amerikanische Rechner-Systeme eingebrochen war. Die dabei entwendeten Dateien zum Aufbau des neuen amerikanischen Raketenabwehrsystems SDI hatte Hess mit einer Gruppe von Hackern an den russischen Geheimdienst KGB zu verkaufen versucht, weshalb in deutschen Annalen vom KGB-Hack die Rede ist.

Auslöser der nach Presseberichten nicht genehmigten Fangschaltung war ein Differenzbetrag von 75 Cents in einer Abrechnung über die Computernutzung, den Clifford Stoll, ein Systemadministrator am Lawrence Berkeley Laboratory, aufklären sollte. Stoll konnte die 75 Cents für die Rechenzeit einem Account zuordnen, der sich mit 1200 Baud über das paketorientierte Vermittlungsnetz Tymnet in einen Vax-Rechner des Labors einloggte. Der gelernte Astronom startete eine Unteruchung, die er später im Hacker-Roman "Kuckucksei" literarisch verarbeitete. (Eine filmische Umsetzung liefert "23 – Nichts ist so, wie es scheint" mit der tragischen Geschichte einer Nebenfigur des KGB-Hacks.)

Stoll gelang es schließlich, die Spur des Hackers Urmel bis zu einem deutschen Vax-Rechner zu verfolgen, der vom Fachbereich Informatik der Universität Bremen betrieben wurde. In diesen Rechner loggte sich jemand per Akustikkoppler über das Telefonnetz ein. Um seine Identität zu lüften, musste eine Fangschaltung gelegt werden. Beim damaligen Stand der Technik benötigten die Mitarbeiter der deutschen Post eine Stunde, um einen Anschluss zu ermitteln.

Also kreierte Stoll eine Monsterdatei mit gefälschten Informationen, die er SDINET nannte. Am 16. Januar 1987 versuchte sich der Hacker erstmals am Download dieser Datei. Die Fangschaltung funktionierte, führte aber zu einer öffentlichen Telefonzelle in Hannover. Stoll musste die Datei sperren. Erst beim dritten Versuch am 23. Juni 1987 klappte es: Urmel wählte sich von einem Festanschluss aus ein, der Markus Hess zugeordnet werden konnte. Um 18.30 MEZ durchsuchten Kriminalbeamte die Wohnung und den Arbeitsplatz von Hess und beschlagnahmten Magnetbänder und 250 Disketten.

Laut der englischen Wikipedia arbeitet Markus Hess heute als Programmierer. Clifford Stoll ist angeblich Hausmann und verkauft selbst gefertigte Klein Flaschen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
IT-Legenden: Wie Tim Berners- Lee das Web erfand
« Antwort #2 am: 01 März, 2009, 18:21 »
Es sollte ein Notbehelf werden, eine pragmatische Lösung für das Informationschaos im Kernforschungszentrum Cern: Ein junger Physiker entwarf 1989 ein digitales Informationsnetz. Nun wird das World Wide Web 20 Jahre alt.

Anfang 1989 setzt sich ein junger Informatiker in Genf an seinen Mac und tippt in Word einen Aufsatz, der in knapp 30.000 Zeichen das Web beschreibt, wie wir es heute kennen. Tim Berners-Lee wählt einen bescheidenen Titel: "Informationsmanagement: Ein Vorschlag".

Berners-Lees sucht in seinem im März 1989 veröffentlichten Aufsatz eine Lösung für dieses alltägliche Problem am Forschungszentrum Cern: "Die technischen Details vergangener Projekte gehen bisweilen für immer verloren." Warum das so ist, analysiert der junge Berners-Lee im ersten Teil seines Aufsatzes. Die Hauptgründe:

    * "Die tatsächlich zu beobachtende Organisation des Cern sieht so aus: Ein vielfach verknüpftes Web, dessen Verbindungen sich mit der Zeit entwickeln."
    * "Das Problem ist die hohe Personalfluktuation. Da zwei Jahre die übliche Länge eines Forschungsaufenthalts sind, geht Information ständig verloren."
    * "Wissen über die Einrichtungen (…) verbreitet sich per Flurfunk und gelegentliche Newsletter."
    * "Wenn Cern-Experimente statische, einmalige Entwicklungen wären, könnte das Wissen in einem großen Buch festgehalten werden. Aber derzeit verändert sich das Cern ständig, da neue Ideen entstehen und neue Technik verfügbar wird."

Kurz zusammengefasst: Berners-Lee sucht ein System, das persönliche, wenig formelle, an ein bestimmtes Publikum gerichtete Kommunikation (Ideen, Notizen, Einladungen, Debatten, Kommentare, Anmerkungen) archiviert, aber auch allgemeine, an ein unbestimmtes Publikum gerichtete Artikel, Anleitungen oder Aufsätze. Ein System, das dieses Wissen nicht nur archiviert, sondern auch für Neulinge auffindbar macht.

Rückblickend verblüfft Berners-Lees Prognose, in "einigen Jahren werde der Rest der Welt dieselben Probleme haben, mit denen das Cern kämpft". Es werde in "zehn Jahren sicher eine kommerzielle Lösung geben". Aber, so Berners-Lees Argumentation 1989, das Cern müsse sich selbst helfen und das Problem der Informationsschwemme für sich lösen, bevor die Wirtschaft Jahre später ein Produkt hat.

Ironie der Geschichte: Aus Tim Berners-Lees Vorschlägen wurde das World Wide Web, der Teil des Internets also, den die meisten Unternehmen und viele Privatleute heute täglich nutzen. Und wahrscheinlich war die Idee so erfolgreich, weil Berners-Lee eben kein Unternehmer war, kein Produkt entwickelte, sondern eine offene Infrastruktur, die jeder kostenlos nutzen und erweitern konnte.

Berners-Lee hat die Grundlage für den Reichtum all der Internet-Milliardäre und -Millionäre geschaffen, indem er selbst nicht zum Millionär wurde. Der 53-jährige Physiker ist heute Sir, Vorsitzender des World Wide Web Consortiums und Professor am Massachusetts Institute of Technology - schwerreich ist er aber nicht.

Offen, erweiterbar, standardisiert, kostenlos

Die wesentlichen Punkte seiner genialen Idee hat Berners-Lee schon in dem kurzen Aufsatz 1989 formuliert. In den folgenden Jahren arbeitete er lediglich an der Umsetzung des Konzepts "World Wide Web" und entwickelte HTML, die "Hypertext Markup Language". Der Erfolg des WWW ist sicher dieser Entscheidung zu verdanken: Statt sein Wissensnetz auf Basis eines geschlossenen Datenbank-Standards für bestimmte Betriebssysteme zu entwickeln, entschied er sich für eine Auszeichnungssprache.

Jedes Dokument in Berners-Lees Wissensnetz sollte mit einem bestimmten Satz an Standardbefehlen angeben, wie es dargestellt werden soll. Die Darstellung an sich kann auf jedem Computersystem ein anders Programm übernehmen, das HTML interpretiert. Außerdem sollte über eine einheitliche Adressierung jedes Dokument im Web von jedem Zugangspunkt aus abrufbar sein und dank eines Übertragungsstandards auch problemlos dort ankommen.

Denn, wie Berners-Lee in seinen Thesen 1989 formuliert: Größtmögliche Kompatibilität ist das wichtigste, aufwendig umzusetzende Funktionen nebensächlich. Berners-Lee formuliert diese Kernthesen:

    * "Wir sollten ein universelles, verbundenes Informationssystem anstreben, in dem Allgemeingültigkeit und Portabilität wichtiger sind als aufwendige Grafiktechnik oder komplexe Extras."
    * "Die Lösung: Hypertext. (…) Von Menschen lesbare Informationen, die ohne Einschränkungen verknüpft werden können."
    * "Die Informationen speichernde Software muss von der Darstellungs-Software getrennt werden, die Schnittstelle muss klar definiert sein."

Heute klingen diese Ideen lapidar. Hyperlinks? Web-Seiten, die man mit jedem Computer und Betriebssystem aufrufen kann? Ein Wissensnetz, das benutzbar ist, obwohl die Inhalte auf Hunderttausenden Servern weltweit verstreut sind? Zwei Jahrzehnte später ist das Alltag. Als Berners-Lee diese Gedanken auf seinem Mac in ein Word-Dokument tippte, waren sie revolutionär.

Schon 1965 hatte der US-Soziologe Ted Nelson ein Hypertext-System vorgeschlagen, an dessen praktischer Umsetzung seither aber mehrere Informatiker-Generationen gescheitert sind. Die Versuche, Nelsons Xanadu umzusetzen, missachteten Berners-Lees Grundsatz, Datenbank und Darstellung strikt zu trennen, auf aufwendige Features zugunsten der Portabilität zu verzichten.

Riesenerfolg, keine Millionen

Warum Berners-Lees Hypertext-Konzept mehr Erfolg hatte, lässt sich mit diesen Attributen erklären: offen, erweiterbar, standardisiert, kostenlos. Berners-Lee definierte am Cern den HTML-Standard und programmierte den ersten Browser - das große Geld verdienten aber andere.

An der Universität von Illinois programmierte der Informatik-Student Marc Andreessen Anfang der neunziger Jahre einen Internet-Browser für Berners-Lees Wissensnetz. Der Mosaic Browser lief auf Unix-, Windows- und Mac-Rechnern, war kostenlos verfügbar und wurde so schnell zum Quasi-Standard, um die Seiten des frühen World Wide Web anzuzeigen. Andreessen gründete mit dem Unternehmer James H. Clark ein Software-Haus, brachte es 1995 als Netscape an die Börse und wurde Multimillionär.

Ob das Berners-Lee wurmt? Auf seiner Web-Seite antwortet der Informatiker so:

    "Wäre die Technik proprietär und unter meiner Kontrolle gewesen, wäre sie wahrscheinlich nicht so erfolgreich geworden. Die Entscheidung, das Web zum offenen System zu machen, war notwendig, um es universell zu machen."

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
WWW-Erfinder besorgt über steigende Überwachung
« Antwort #3 am: 16 März, 2009, 18:29 »
Tim Berners-Lee, der Erfinder des World Wide Web, hat sich besorgt über die Zukunft des Datenschutzes im Internet geäußert. Die Erstellung von Persönlichkeitsprofilen und die Überwachung nähmen weiter zu, sagte er.

Er wies darauf hin, dass relativ neue Technologien in der Lage seien, sehr genaue Nutzerprofile anhand der Spuren zu erstellen, die bei der Nutzung des Netzes hinterlassen werden. "Diese Art von Bespitzelung muss unbedingt verhindert werden", so Berners-Lee.

Indirekt sprach der Direktor des World Wirde Ceb Consortiums (W3C) Unternehmen wie Google an. Der Suchmaschinenbetreiber hatte erst kürzlich eine weitere Stufe seiner Zielgruppenoptimierung für Werbeeinblendungen gestartet, bei der anhand der Klicks in der Suchmaschine und der angesehen YouTube-Videos auf die Interessen geschlossen und entsprechende Reklame eingeblendet wird.

Neben Google werden aber auch andere Firmen zunehmend auf diese Weise aktiv, was durch die Verlagerung von immer mehr Anwendungen vom PC ins Internet begünstigt wird. Laut Berners-Lee seien hier aber nicht nur die Nutzungsprofile ein Problem, sondern auch das Risiko für die Datensicherheit wegen eventueller Lecks und Sicherheitslücken.

Als weiteren wichtigen Punkt sprach Berners-Lee die zunehmende Überwachung der Anwender durch die Regierungen an. Auch dadurch entstehen zunehmend umfassende zentrale Datenbanken über eine Vielzahl von Bürgern, die immer das Risiko eines Missbrauchs bergen.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 25 Jahren: Internet und E-Mail kommen nach Deutschland
« Antwort #4 am: 02 August, 2009, 01:09 »
Das Internet kennt viele Geburtstage. Zu diesen Geburtstagen gehören die Feierlichkeiten, wann jeweils verschiedene Länder an das Internet angeschlossen wurden. In Deutschland waren es studentische Aktivisten an den Universitäten Karlsruhe und Dortmund, die die Vernetzung vorantrieben. Dabei war Karlsruhe die erste Universität, die einen eigenen Mailserver installierte und sich mit dem CSNET verband. Darum lässt sich Karlsruhe ab heute als "Internethauptstadt" feiern.

"Michael, this is your official welcome to CSNET. We are glad to have you aboard", lauteten die ersten Worte der ersten E-Mail, die auf dem Karlsruher Server einging. Michael Rotert, der Empfänger der historischen Mail, erhielt sie am 3. August 1984 um 10:14. Sein damaliger Chef, der emeritierte Informatiker Werner Zorn, hält den 2. August 1984 für richtiger, weil die Administratorin Laura Breeden die Nachricht am 2. August in den USA auf den Weg schickte. So oder so, die Feierlichkeiten erreichen nach der Feier des 20. Geburtstages einen weiteren Höhepunkt: Die erste Mail wird als "Orginalausdruck" dem Karlsruher Stadtarchiv übergeben.

Der Ausdruck gilt schon heute als bedeutendes Dokument der Stadtgeschichte – auch wenn es bereits vor August 1984 etliche Systeme gab, elektronische Nachrichten zu übertragen. Erinnert sei an Compuserve, das seit 1981 in Deutschland über Datex-P erreichbar war, an das etwas elitärere ARPAnet und an das mehr die Basis vernetzende Fidonet, das Anfang 1984 startete.

Sicher ist jedenfalls, dass diese Form des Informationsaustausches nicht mehr aus dem Alltag wegzudenken ist. Nach Angaben des IT-Branchenverbandes Bitkom gibt es 43 Millionen Bundesbürger über 14 Jahren, die E-Mails verschicken, wobei die Hälfte von ihnen mindestens einmal am Tag in das elektronische Postfach schaut. Unter Jüngeren haben Chat und die Instant Messenger eine größere Bedeutung als E-Mail, beides noch ältere Technologien, die in den 60er Jahren am US-amerikanischen CTSS entwickelt wurden.

Unter den Pionieren, die damals das Internet benutzten und die E-Mail entwickelten, ist die Erfindung umstritten. Bekannt ist der Ausspruch des heute bei Google arbeitenden Netzpioniers Vint Cerf: "We never thought that something could happen like spam." Tatsächlich ist seit der ersten Werbemail des Computerhändlers Gary Thuerk der Werbemüll in der E-Mail die Rattenplage der Neuzeit geworden.

In dieser Hinsicht ist die Haltung von Donald Knuth bemerkenswert, der am 1. Januar 1990 die Nutzung von E-Mail einstellte: "I have been a happy man ever since January 1, 1990, when I no longer had an email address. I'd used email since about 1975, and it seems to me that 15 years of email is plenty for one lifetime."

Weil das Internet viele Väter hat, stehen dieses Jahr selbstredend eine Reihe weiterer Geburtstage an: am 30. August 1969 wurde der erste ARPAnet-Host an der Universität von Kalifornien in Betrieb genommen, am 1. Oktober 1969 folgte Host Nummer 2 am Stanford Research Institute. Die erste Kommunikation zwischen beiden war "LO", das Kürzel für Logon.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Internet-Pionier entschuldigt sich für // in URLs
« Antwort #5 am: 17 Oktober, 2009, 16:45 »
Zurückblickend hat der Internet-Pionier Tim Berners-Lee sein Bedauern darüber geäußert, dass er seinerzeit entschieden habe, in URLs die beiden Forward-Slashes hinzuzufügen.

Der doppelte Schrägstich "/" (im englischen Forward Slash) ist Bestandteil jeder URL. Verantwortlich dafür ist Internet-Pionier Tim Berners-Lee. Der britische Informatiker ist der der Erfinder des HTML und gründete das World Wide Web. Dort stellte Berners-Lee auch die erste Internet-Seite online: http://info.cern.ch.

Das in jeder URL ein doppelter Schrägstrich, also //, enthalten sein muss, bereut Berners-Lee mittlerweile. In einem Interview mit der New York Times bezeichnete der Brite die damalige Entscheidung, // zum Bestandteil einer URL zu machen, als "unnötig".

"Es schien zu der Zeit damals eine gute Idee zu sein", sagte Berners-Lee. Vor 30 Jahren habe er sich aber nicht vorstellen können, dass die beiden Schrägstriche für so viel Ärger sorgen würden. Im Nachhinein entschuldigt sich Berners-Lee für die damalige Entscheidung, weil das Hinzufügen von // zu jeder URL viel Zeit, Druckzeit und Papier vergeudet habe.

Quelle : www.tecchannel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor vierzig Jahren begann alles: Lo!
« Antwort #6 am: 29 Oktober, 2009, 09:40 »
Das Internet hat viele Väter. Deswegen hat das Internet nicht erst seit heute viele Geburtstage zu feiern, weil viele "Kinder" eben das ergeben, was das heutige Internet ausmacht. Heute ist so ein Geburtstag: Vor 40 Jahren wurde die erste Nachricht zwischen zwei entfernten Host-Computern ausgetauscht.

Am 29. Oktober 1969 lief die erste Nachricht über das ARPANET, dem Vorläufer des Internets. Leonard Kleinrock und sein Programmierer Charlie Kline, versuchten, sich über ihren Computer an der Universität von Californien (UCLA) in einen Computer am Stanford Research Institute (SRI) einzuloggen. Die wichtigste Komponente war der sogenannte IMP, der Interface Message Prozessor, ein Kommuinikationscomputer, der den Datenaustausch im paketorientierten ARPANET regelte.

Erst im Januar 1969 hatte die Firma Bolt Beranek and Newman (BBN) den Auftrag von der Militärforschungsbehörde ARPA den Auftrag erhalten, 16 IMPs zu produzieren. Die Idee, dass ein digitales paketbasierendes Kommunikationsnetz so aufgebaut werden kann, dass "Informationsblöcke" variabel umgeleitet werden können, wenn das Netz gestört ist, hatte Paul Baran 1964 in einer elfbändigen Studie (PDF-Datei des wichtigen Band Nr. 9) für die ARPA entwickelt und theoretisch durchgerechnet.

Doch alle Theorie muss die Puddingprobe der Praxis bestehen. In seinen Memoiren beschrieb Leonard Kleinrock das Geschehen. Am 2. September hatte BBN den ersten IMP  ausgeliefert, den Honeywell nach den Spezifikationen von BBN gebaut hatte. Er wurde an der UCLA von Steve Crocker und John Postel erfolgreich an einen Rechner von Scientific Data Systems angeschlossen. Im Oktober folgte IMP Nr. 2, der in Stanford installiert wurd. Am 29. Oktober startete dann das Verbindungsexperiment, an das sich Kleinrock im Jahre 2006 so erinnerte:

The procedure was to type "log" and the system at SRI was set up to be clever enough to fill out the rest of the command, namely to add "in", thus creating the word "login". A telephone headset was available to the programmers at both ends so they could communicate by voice as the message was transmitted. At the UCLA end, we typed in the "l" and Charlie asked SRI if they received it; "got the l" came the voice reply. UCLA typed in the "o", asked if they got it; back came the reply "got the o". UCLA then typed in the "g" and the darned system CRASHED! It was not the IMPs that crashed, it was not the long-haul line that crashed, it was not our UCLA Host that crashed; it was the SRI Host. Quite a beginning. And so the very first message ever sent over the Internet was "Lo!" as in "Lo and behold!" Quite a prophetic message indeed.

Was wie ein Fehlstart aussehen mag, war 1969 ein einmalig erfolgreicher Testlauf: Noch am selben Tag kam eine stabile Verbindung zustande, die nach dem Testbericht Nr. 1928 geschlagene 27 Stunden funktionierte und bei jeweils 20.000 gesendeten und empfangenen Datenpaketen ein fehlerhaft übertragenes Paket produzierte. Mit rechnerisch 50 kBit/s im Maximum bei 19 gleichzeitig genutzten Telefonleitungen war das IMP-gesteuerte Netz überdies das schnellste Netzwerk seiner Zeit – der von der ARPA festgesetzte Datendurchsatz von 700.000 Bits pro Sekunde wurde erreicht.

Es war ein kleiner Schritt in der Verbindung von Rechnern, doch ein großer Schritt hin zu dem, was heute als Digitalisierung des Alltags Wirklichkeit geworden ist. Auch wenn sich die Pioniere der Technik heute nach alter Väter Sitte streiten, wer denn nun der eigentliche Vater des Internet ist oder wer die Idee mit den Paketen hatte, so kann man heute mit Fug und Recht ein Gläschen Sekt heben. Wer keine Maschine feiern mag, sollte in Andenken an Jon Postel feiern. Er war der einer von denen, die den Titel "Vater des Internet" ablehnten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 25 Jahren: Als .com, .edu und die anderen entstanden
« Antwort #7 am: 15 März, 2010, 09:42 »
Am 15.3.1985 wurde im entstehenden Internet das Domain Name System eingeführt. Fortan sollten merkbare Hostnamen die Verwaltung des Netzwerkes erleichtern, das längst nicht mehr nur aus einem Dutzend Rechner bestand.  An diesem Tag wurden sechs Namen für die sogenannten Top Level Domains (TLDs) festgelegt: .com für kommerzielle Organisationen,  .edu für Universitäten und Schulen, .gov für die Regierung, .mil für das Militär, .org für andere Organisationen und .net für sonstige Netzwerkressourcen bildeten den Grundstock des Systems. Zum 25. Geburtstag des Systems stehen einschneidende Änderungen bevor, wie die Debatte um neue Top-Level-Domains zeigt.

Mit den Arbeiten zum Übergang vom usprünglichen ARPAnet zum NFSnet war den Beteiligten klar, dass die herkömmliche manuelle Methode, die am Netz angeschlossenen Rechner mit ihren Adressen in einer einzigen Datei zu verzeichnen, nicht mehr zeitgemäß war. Vom Start des ARPAnet im Jahre 1969 wurde diese Datei täglich beim Network Information Center am Stanford Research Institute (SRI) aktualisiert, das auch die RFCs (Requests for Comments) verschickte. Mit dem RFC 882 und RFC 883 hatte eine Gruppe um Paul Mockapetris und Vint Cerf die Grundzüge eines verteilten Namenssystems erarbeitet, in dem so genannte Top Level Domains funktional unterschiedliche Einheiten des Netzes bezeichnen sollten, damit auf den ersten Blick klar ist, ob eine Firma, eine Universität oder die Regierung den entsprechenden Host-Computer betreibt.

Doch wie sollten die Namen aussehen? Jon Postel, der wichtigste Netzkoordinator, schlug .net und .gov als Top Level Domains vor,  in Anlehnung an die damaligen Teilnetze wie CSNet, Bitnet und uucpnet. Doch diese Unterteilung war nicht fein genug. Schließlich war den Beteiligten klar, dass Firmen das Netz nutzen können und die Universitäten nicht unbedingt als Regierungseinheiten gesehen werden wollen. Das endgültige Schema prägte die Bibliothekarin  Elizabeth "Jake" Feinler, die mit der täglichen Aktualisierung der Hosts-Datei beauftragt war. Neben den Vorschlägen von Postel legte sie .com für Commerce und .edu für Education fest. Weder Jon Postel noch Vint Cerf mochten ihre Vorschläge, doch hatten sie keine besseren Alternativen parat.

Der Erfolg des ersten TLD-Schemas lag in seiner Großzügigkeit. "My group ran the Arpanet/DDN Network Information Center located at SRI, and one of our duties was to be the naming registry for the network from 1970 - 1991. Everyone was clammering to get a TLD or to at least influence the selection, which was one reason we chose a very generic approach.  The idea was that the name requestor would choose which generic TLD he or she thought matched best, then the community under that TLD would decide on the organization of its name space.  In other words one size would not fit all.  Military users would not want to structure their name space the same way academic users would, and so forth", erinnerte sich Elizabeth Feinler in einem Mailwechsel mit heise online.

Der erste Host, der gleich nach dem Start des DNS im neuen Schema adressierbar war, hieß Symbolics.com, danach folgten eine Vielzahl von Firmen, die es heute noch gibt. Siemens war die erste deutsche Firma, die sich im September 1986 als .com registrierte. Dies zu einer Zeit, als die internationalen Verzweigungen über zweistellíge Ländercodes (country code Top Level Domains, ccTLDs) bereits beim Umbau im Jahre 1985 mit 300 Endungen konzipiert waren. .us für die USA und .su für die Sowjetunion sollten die größten Einheiten werden, so die Annahmen vor 25 Jahren. Neben .de für Deutschland wurde seinerzeit .dd für die DDR vergeben.

Zur Feier des Jubiläums hat Verisign als Registry-Operator für .com und .net die Seite 25 Years of .com gestartet und eine Jury beauftragt, die 25 .com-Awards zu vergeben. Mit ihnen sollen die 25 Menschen und Unternehmungen geehrt werden, "die das Internet am meisten beeinflusst haben", wie Versign schreibt. Wer sich die Shortlist der 75 Kandidaten anschaut, wird Pioniere wie die Namensfinderin Elizabeth Feinler oder den Netzwerkmanager Ed Krol vermissen, der das DNS in den Anfangstagen betreute. Einzig Vint Cerf  findet sich unter den Nominierten in der Liste, die mit dem "Internet-Erfinder" Al Gore beginnt und dem Schuhladen Zappos aufhört. Neben den Feierlichkeiten soll der US-amerikanische Ex-Präsident Bill Clinton morgen eine Rede über die politischen Bedeutung des Internet halten.

Das DNS-Jubiläum fällt in eine Zeit, in der das Internet wieder Gegenstand politischer Debatten geworden ist. Neben der Frage, wer die Oberaufsicht über das Internet-Namenssystem haben soll, wird wieder einmal besonders heftig ein Vorschlag an die ICANN diskutiert, eine so genannte Rotlicht-TLD einzuführen und .xxx als Kennung für Sex-Angebote zu nutzen. Dieser Vorschlag wird nicht nur von Betreibern abgelehnt, die sexuelle Inhalte hosten, sondern auch von Internet-Aktivisten. Sie befürchten, dass Regierungen mit einem Handstreich Zensur betreiben können, indem .xxx landesweit gesperrt wird.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nach zehn Jahren wird das mobile Internet flügge
« Antwort #8 am: 31 Juli, 2010, 10:23 »
Keiner kommt hier "billig vom Acker" – bei VIAG Interkom (heute O2) wusste man schon am ersten Tag der Versteigerung, dass die begehrte Lizenz für das UMTS-Mobilfunknetz nur für viel Geld zu haben ist. Am 31. Juli 2000 versammelten sich die Vertreter von sieben Telekommunikationsunternehmen  zur Verteilung der verfügbaren Frequenzen bei der damaligen Regulierungsbehörde für Telekommunikation und Post (RegTP, heute Bundesnetzagentur) in einer alten Kaserne im Mainzer Stadtteil Gonsenheim. Erst zehn Jahre später zeichnet sich ein Durchbruch für das mobile Internet ab – Bitkom-Präsidiumsmitglied René Schuster, Vorstandschef von Telefonica O2 in Deutschland, spricht von einer "Erfolgsgeschichte mit Anlaufzeit".

Fast drei Wochen lang wurde damals gepokert, bis das Ergebnis am 18. August feststand: Sechs Unternehmen sicherten sich die begehrte Lizenz für die mit großen Hoffnungen verbundene Zukunftstechnik. Der Bundesfinanzminister freute sich über einen Geldsegen von umgerechnet rund 50 Milliarden Euro. Aber der Einstieg ins mobile Internet begann danach schleppend. Weitere zweistellige Milliardenbeträge waren für den Aufbau des neuen Mobilfunknetzes nötig. Die Anbieter gaben die hohen Kosten an die Verbraucher weiter. Und diese machen deswegen zum Teil bis heute einen weiten Bogen um die Datentarife.

Die UMTS-Versteigerung unter der Ägide der RegTP führte die Branche in einen tiefen Umbruch. Zwei der damaligen Mobilfunkanbieter (Mobilcom und Group 3G) mussten ihre Lizenzen später wieder aufgeben. Vier sind bis heute übrig geblieben: Die Deutsche Telekom, Vodafone, E-Plus und das aus VIAG Interkom hervorgegangene Unternehmen O2. Mobilcom, die gemeinsam mit France Telecom ursprünglich große Pläne für den Aufbau eines eigenen Mobilfunknetzes in Deutschland hatte, trennte sich im Streit von dem französischen Konzern – was Mobilcom fast in die Pleite trieb –, beschränkte sich auf Dienstleistungen als Mobilfunk-Serviceprovider und ging schließlich in der Freenet AG auf. Die Group 3G (ein Konsortium, an dem die spanische Telefonica und die finnische Sonera beteiligt waren) stellte ihren glücklosen Versuch, mit Quam eine neue Mobilfunkmarke in Deutschland zu etablieren und ein eigenes Netz aufzubauen, bald ganz ein. Seine UMTS-Lizenz wurde dem Unternehmen dann von der Regulierungsbehörde entzogen.

"Im Nachhinein hat sich gezeigt, dass der Preis für die Lizenz nicht so ganz passend war", sagt Guido Heitmann von E-Plus. "Das waren andere Zeiten damals." Immerhin bewegte man sich Mitte 2000 noch auf dem Höhepunkt der New Economy, die Internet-Blase platze aber schon wenige Monate später. Es sei nicht denkbar gewesen, sich von der UMTS-Versteigerung fernzuhalten, meint Heitmann. Nach dem Sommer 2010 dauerte es fast vier Jahre, bis die Basisstationen für das UMTS-Netz standen und die schnelle mobile Internetverbindung Wirklichkeit wurde – zuerst meist mit dem Mittel einer PC-Karte, die ins Notebook eingesteckt wurde. Bis Herbst 2004 kamen dann auch immer mehr UMTS-Handys heraus, die ersten noch ziemlich klobig und nicht besonders smart.

Erschwert wurden die ersten Jahre im mobilen Internet von der Suche nach einer "Killerapplikation": Welche Angebote können für die Verbraucher so verlockend sein, dass die Milliarden wieder hereingeholt werden? Als Kandidaten wurden schon vor zehn Jahren Anwendungen genannt, die auch heute noch eine Rolle spielen: Musik, Spiele, Filme und Community, also der Austausch mit Freunden. Doch lange Zeit steuerte die Branche im Blindflug ins mobile Internet: "Wir haben in einen Markt investiert, von dem wir nicht wussten, wie er aussehen wird", erinnert sich Heitmann.

"Um das Jahr 2005 kam dann die Trendwende", erklärt O2-Chef Schuster. Letztlich war es die Kombination von Software und Hardware, die dem mobilen Internet den entscheidenden Schwung gab. Wichtige Impulse lieferte ab 2002 RIMs Blackberry und ab 2007 das iPhone von Apple. Auf einmal schien es ganz einfach, mit einem Smartphone ins Internet zu gehen, Informationen abzurufen, E-Mails zu lesen und Anwendungen zu nutzen, die auf das Netz zugreifen. "Ohne UMTS hätte es den Datenmarkt nie gegeben", sagt E-Plus- Sprecher Heitmann. "Aber eigentlich kommt der Markt erst jetzt richtig in Schwung, zehn Jahre später. Der Durchbruch zum Massenmarkt im mobilen Datengeschäft ist in Sicht." Ohne die neuen Smartphones, die leistungsfähige Hardware, einfache Touchscreen-Bedienung und eine ausgeklügelte Software-Infrastruktur aus Betriebssystem, Apps und App-Stores wäre auch trotz UMTS-Netzen kein boomendes mobiles Internet gewachsen.

Die UMTS-Netze erreichen je nach Betreiber 59 bis 81 Prozent der Bevölkerung, in der Fläche gibt es eine Abdeckung von insgesamt etwa 70 Prozent. In den Netzen tummeln sich nach Angaben der Bundesnetzagentur rund 26 Millionen UMTS-Geräte, Ende 2009 nutzten 19 Millionen Teilnehmer regelmäßig UMTS, mehr als doppelt so viel wie zwei Jahre zuvor. Das "Universal Mobile Telecommunications System", wie die Abkürzung aufgelöst wird, ermöglichte zunächst eine Datenübertragung bis maximal 384 Kilobit in der Sekunde. Noch schneller wird es mit der UMTS-Beschleuniger Technik HSPA (High Speed Packet Access) – sie bietet Übertragungsraten bis 3,6 oder 7,2 Megabit pro Sekunde – und HSPA+ liefert bis zu 21 oder 42 MBit/s.

Inzwischen ist bereits der UMTS-Nachfolger in Reichweite: Der Standard "Long Term Evolution" (LTE) verspricht Geschwindigkeiten bis 300 Megabit pro Sekunde. Die Versteigerung von Lizenzen für Funkfrequenzen, die im Rahmen der "Digitalen Dividende" frei wurden, ging im Mai sehr viel stiller über die Runden. Die Frequenzen sollen aber nach dem Willen der Politik vor allem dazu genutzt werden, um Lücken in der Versorgung der Bevölkerung und der Wirtschaft mit Breitband-Internet-Anschlüssen vor allem in ländlichen Regionen zu schließen; sie werden nicht zwangsläufig für LTE genutzt. Die deutschen Netzbetreiber haben für die Lizenzen zusammen gerade mal 4,4 Milliarden Euro ausgegeben, noch nicht einmal ein Zehntel der Ausgaben für die UMTS-Lizenzen; Telefónica-O2 beispielsweise hatte direkt nach der Versteigerung den Aufbau eines LTE-Netzes mit den neuen Frequenzen angekündigt.

Damals wie heute gilt aus Sicht der Bundesnetzagentur: "Wenn die Nachfrage größer ist als das Angebot an verfügbaren Frequenzen, dann ist die Versteigerung das gesetzliche Regelverfahren." Auf diese Weise, so erklärt Behördensprecher Cord Lüdemann, "werden die leistungsfähigsten Anbieter ermittelt".Die ersten LTE-Netze sollen bis Ende des Jahres verfügbar sein, die Deutsche Telekom will voraussichtlich Anfang nächsten Jahres einen USB-Stick dafür anbieten. Aber UMTS wird parallel dazu noch lange Zeit Bestand haben.

Vodafone etwa erwartet, dass UMTS auch nach der geplanten Einführung des noch schnelleren Standards LTE weiter Bestand haben wird. Mit LTE werde das Internet für alle und in der Fläche Realität, erklärte der Deutschland-Chef von Vodafone, Fritz Joussen. Aber "UMTS und LTE ergänzen sich". "Die Bandbreiten werden steigen und unser Leben durchweg mobil in der Kommunikation", erklärte Joussen. "Dafür rüsten wir uns – mit neuen Frequenzen und der nächsten Hightech-Technologie."

"Frequenzen sind unser Rohstoff", antwortete Joussen auf die Frage, ob die Ersteigerung der UMTS-Frequenzen die Erwartungen erfüllt habe. "Mit UMTS wurde das Telefon zum Smartphone, das Internet mobil." Inzwischen lieferten die mobilen Datendienste einen Beitrag von mehr als einer Milliarde Euro zum Jahresumsatz von Vodafone in Deutschland, bei zweistelligen Wachstumsraten im Jahr.

Die Verbraucher dürfen hoffen, dass die Mobilfunkbetreiber aus den vergangenen zehn Jahren gelernt haben und günstige Tarife anbieten. Zwei von drei Handy-Besitzern (67,9 Prozent) verzichten auch heute noch wegen hoher Kosten auf die Internet-Nutzung mit dem Mobiltelefon – so das in dieser Woche veröffentlichte Ergebnis einer Umfrage der Marktforscher Fittkau & Maaß. Die Mehrheit der Bevölkerung aber steht dem mobilen Internet immer noch kritisch gegenüber.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der Fluss der Kommerzialisierung
« Antwort #9 am: 12 August, 2010, 19:59 »
Auf der Suche nach postpersönlichen Realitäten oder: Wie das Internet seine Zukunft als Medium der Nähe aufs Spiel setzt

Das Web ist längst erwachsen geworden, heißt es. Das Internet ist auch kein bloßer Informationskanal mehr, sondern ein Beziehungsmedium. Darin kann sich nicht nur jeder mit jedem vernetzen, seine Gedanken mit dem Rest der Zivilisation teilen, sondern auch gemeinsam mit anderen Usern an einer neuen Welt bauen - interaktiv im multimedialen Schwarm, in Echtzeit und ohne das eigene Zimmer verlassen zu müssen. Es ist schön im Netz zu sein, doch ist es das wirklich?

Freilich, das Internet ist gegenwärtig, immer aktiv und überall zugänglich. Und es verbindet die Welt, zweifellos. Was aber ist aus den Utopien der 1990er Jahre geworden, die uns von virtuellen Abenteuern und der Eroberung neuer Cyberwelten erzählt haben?

Das Web ist seinen Kinderschuhen entwachsen, heißt es. Bedeutet: Es ist ernster geworden, realistischer, pragmatischer, ein global etablierter Kommunikationsstandard eben. Das Netz kommt aber auch desillusioniert und visionsfrei daher. Waren die Webfirmen der ersten Stunde noch mit Pioniergeist und Enthusiasmus im digitalen Neuland unterwegs musste schon die erste Generation der virtuellen Siedler schnell lernen, dass das Internet kein klassischer Markt ist, auf dem klassische Geschäfte zu machen sind. Die Old Economy 1:1 in die New Economy zu übersetzen, war und ist kein Erfolgsrezept. Das Medium hat seine eigenen Gesetze.

Nur wenige Start-ups von einst haben überlebt; das Netz empfiehlt sich zwar durchaus als Refugium für neue Dienstleistungen, an deren virtuelle Stände sich allerdings nur Besucher locken lassen mit der Einladung "Eintritt frei". Das Bezahl-Web teilt das Schicksal des Bezahl-Fernsehens: Ein großes Direktzahler-Publikum gibt es (noch) nicht.

Gleiches erlebt die Finanzdienstleistung seit Jahrzehnten: Bis heute konnte sich eine vom Kunden direkt bezahlte Finanzberatung nicht durchsetzen. Doch der Kommerz ist wie Wasser, er findet immer seinen Weg in die Portemonnaies der Interessierten. Was in der Finanzbranche die Provision ist, sind im Web also die Werbeeinnahmen, Sponsoringmodelle und versteckten Nutzungsgebühren. Was geradezu langweilig wirkt, bedenkt man die eigentlichen Chancen des Mediums: Das Internet ist eine perfekte Mind-Maschine für die Gestaltung der Wirklichkeit - was wir im Web attraktiv finden, besitzt auch in der wirklichen Welt enorme Anziehungskraft. Ein Verstärkungsmechanismus, der sich mittlerweile empirisch belegen lässt: Virtuelle Sympathie und digitale Verbindungen steigern die realen Verkaufserfolge.

Hinzu kommt, dass die nun nachfolgenden Generationen bei der Alltagsbewältigung generell, in ihrem Einkaufsverhalten im Besonderen, zunehmend und irgendwann vollends auf simulierte Game-Erfahrungen zurückgreifen. Die Wirtschaft der Zukunft wird folglich nur als intelligente Spielform erfolgreich funktionieren. Eine Entwicklung, die dem heutigen Internet-Business klare Aufgaben stellt: Die Generierung von engen Web-Freundschaften und der Bau eines interaktiven Game-Kosmos, in dem den Usern die kommenden Marken gleich als komplette Interaktionswelten begegnen, zumindest in Gestalt raffiniert gestalteter Levels, sind angesagt. Cyber-Relations, Spielefantasien, Marketing und Vertrieb verschmelzen also miteinander zu einer Businesskompetenz, die sich darum bemüht, neue Realitäten zu designen. Denn der Kunde kauft in Zukunft keine Produkte mehr, sondern die Erfahrung mit neuen Wirklichkeiten.

Wann wird das Web soweit sein?

Bereits 1994/1995 meinte ich, diese Entwicklung stünde kurz bevor. Damals dachte ich auch, das Web würde zur globalen Kulturrevolution ausholen und sich unmittelbar zum Lab für neue Realitätserlebnisse manifestieren. Ich sprach auf Vorträgen von Visionen wie die Entstehung einer politischen Hyper-Kreativität im Sinne der Geburt eines weltweiten, gesellschaftsübergreifenden Meta-Bewusstseins. Fantasierte zudem von multimedialer Transzendenz, einer Art virtueller Metaphysik und Übersinnlichkeit, geschaffen durch simulierte Welten und eine medial erweiterte Wahrnehmung.

In diesem Zusammenhang beschrieb ich das Surfen durchs Netz als eine neue Meditationsform, spekulierte dabei, ob sich wohl Web-Schamanen etablieren werden als Mittler oder Intermediäre zwischen virtuellem und physikalischem Kosmos. Und nicht zuletzt hoffte ich auf die Entstehung von Cyber-Paradiesen, die als perfekte Vorbilder einer idealen Umwelt neue Ökobewegungen ins Leben rufen sollten, frei nach dem Motto: Computerfreaks retten den Planeten.   

Aus dem Allem ist bis heute (noch) nichts geworden. Was für die einen der Weg zur Mediendemokratie darstellt, betrachten andere als Plattform für Selbstdarsteller, Senfdazugeber und Denunzianten. Und Geld im Web zu verdienen, ist nach wie vor ein ökonomisches Mysterium. Obwohl das Internet unser Leben bereits völlig verändert hat. Doch wo wird uns dessen Evolution tatsächlich hinführen?

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der geöffnete Kosmos
« Antwort #10 am: 22 August, 2010, 09:01 »
Wie das Internet seine Zukunft als Medium der Nähe aufs Spiel setzt - Teil 2

Wenn es um interessante Beschreibungen des Zukunftsmediums Internet geht, greifen wir gerne ins futuristische Nähkästchen. Doch was nach Zukunft klingt, verbreitet oftmals schnell den Duft alter Science-Fiction-Konserven. Dass Mensch und Maschine irgendwann miteinander verschmelzen, ist bereits Thema bei den Abenteuern des Raumschiffs Enterprise, das Mitte des vergangenen Jahrhunderts in Galaxien vordrang, die der Mensch erst jetzt beginnt, zu entdecken.

 Oder denken wir bei Überlegungen zur künstlichen Intelligenz an HAL 9000, den eigenbrötlerischen Computer des Sternenkreuzers Discovery in Stanley Kubricks 2001 – Odyssee im Weltraum. Kein Geringerer als Isaac Asimov formulierte 1942 drei Gesetze für die Verhaltensethik von clever gewordenen Robotern. Von der Erschaffung eines künstlichen Menschen träumte schon um 1818 Mary Shelley in ihrer Geschichte um Frankensteins Kreatur, Fritz Lang ließ 1927 in Metropolis den Erfinder Rotwang einen weiblichen Maschinenmenschen konstruieren und nicht zuletzt finden sich bei den ehrwürdigen Urgroßvätern der fantastischen Dichtkunst, Jules Verne und H.G. Wells, zahlreiche Anleihen für das heutige Repertoire zukunftsweisenden Wirklichkeitsdesigns.

Eines wird deutlich: Die Fantasten von Literatur und Film sind der realen Entwicklung immer weit voraus, zumindest war das bisher der Fall gewesen. Heute scheint es einen ausgesprochenen Mangel an einer solchen fantastischen, weil wunderbar überladenen Vorstellungskraft zu geben, erleben wir im Zukunftskontext doch immer wieder das Aufwärmen gut abgehangener Hightech-Utopien. Was sie allerdings nicht per se zu obsoleten Geschichten degradiert, vielmehr stellt sich die Frage: Gibt es keine Zukunftsfantasien mehr? Oder müssen wir uns umgekehrt fragen: Hängt unsere Wirklichkeit tatsächlich so weit hinter diesen, einst so unglaublich klingenden Visionen hinterher?

Die Zukünftigkeit der Menschheit liegt nicht in der Erfüllung von Hightech-Fiktionen

Viele Zukunftsträume haben sich verwirklicht: Der Mensch war auf dem Mond, die Welt ist multimedial vernetzt und Computer sind so klein, dass sie in jede Westentasche passen. Nanoroboter werden demnächst in unseren Blutbahnen auf medizinische Patrouille gehen, dabei Krankheiten und Krebszellen gleich vor Ort den Garaus machen, und genetisch optimierte Lebewesen durchlaufen im rasanten Tempo die Evolutionswünsche ihrer Schöpfer. Über alldem arbeitet die Medienwelt fieberhaft an der Schaffung künstlicher Intelligenz. Gelingt den Programmierern in Zukunft die Zeugung eines autonomen Cyberbewusstseins, wird es aufregend sein, die Elektronikgehirne als Erstes mit den großen Fragen des Lebens zu füttern, gespannt darauf, ob sie die Bestimmung des Seins zu deuten wissen und uns aufschlussreiche Hinweise für eine sinnerfüllte Existenz anzubieten haben. Was wird wohl dabei herauskommen?

Andererseits haben wir noch nie so viel Papier erzeugt wie in der digitalen Revolution. Daneben schreitet der Klimawandel im Katastrophentempo voran, der Abfall unserer virtuellen Informationsgesellschaft steht giftigem Industriemüll in Menge und Wirkung nicht nach. Sicherheitstechnologien liefern sich ein verzweifeltes Wettrennen mit raffinierten Hackern, die uns Labilität und Verletzlichkeit elektronischer Systeme immer wieder deutlich vor Augen führen.

Überdies führt die steigende Belastung durch Elektrosmog bei vielen Menschen schon jetzt zu Migräneattacken, ganz zu schweigen von den Folgen des Bewegungsmangels einer auf virtuelle Mobilität reduzierten Gesellschaft. Und da wir schon beim Stichwort Bewegung sind: Trotz unbegrenzter digitaler Räume und globaler Supervernetzung scharen sich um die Zapfsäulen der Welt nach wie vor hungrige Automobile, die in Zukunft mit allen möglichen Stoffen laufen werden, obwohl wir bereits heute in den ausufernden Ballungszentren des eigentlich globalen Dorfes aus Platzmangel gar nicht mehr vorankommen.

Jetzt werden Sie mich vielleicht in die Gruppe der Fortschrittskritiker einreihen, doch ich möchte mit meinen Betrachtungen eines zum Ausdruck bringen: Die Zukünftigkeit der Menschheit liegt nicht in der Erfüllung von Hightech-Fiktionen. Die Entwicklung des Cyberspace ist eine wunderbare Sache, wird aber, entgegen meinen früheren Annahmen, die Welt nicht retten. Die Ausgestaltung des virtuellen Kosmos wird auf Jahre hin noch an menschliche Vorstellungen gekoppelt sein, verlängert also eben jenes Denken, das für wirtschaftliche Ungleichheit, Kriege und Umweltkatastrophen verantwortlich ist.

Eine Magna Charta internationaler Vernunft und Nähe

Gelingt es tatsächlich, künstliche Intelligenz inklusive eines eigenständigen Cyberbewusstseins zu erschaffen, so ist dieser Fortschritt sicherlich ein Quantensprung für die Computertechnologie. Ob aber diese schlauen Maschinen in der Lage sind, als moralisches Korrektiv gegenüber ihren eigenen Schöpfern aufzutreten, wage ich derzeit zu bezweifeln. Nicht nur das: Ich gehe davon aus, dass diese Supercomputer recht naive Zeitgenossen darstellen, da sie in den Grenzen ihrer digitalen Algorithmen gefangen bleiben werden, zumindest in absehbarer Zukunft. Es wird ihnen damit kaum möglich sein, Menschlichkeit, ein Gewissen, Gefühle, Liebe, Sinn für Schönheit und Humor oder gar so etwas, was wir als Seele bezeichnen, entwickeln zu können. Doch diese Eigenschaften bilden die Voraussetzung, Entscheidungen treffen und eigenes Verhalten verändern zu können. Die Menschenmetapher ist nicht auf das Wesen von Maschinen anzuwenden. Wir sind nicht nur auf unser Gehirn und das Gehirn nicht nur auf pure Reizverarbeitung zu reduzieren.

Die Rettung der Welt muss also von den Menschen ausgehen. Dabei können uns Technologien auf fantastische Weise unterstützen, die, bleiben wir realistisch, Daten zwar schon heuristisch verarbeiten, aber momentan noch keine abstrakten Assoziationen zwischen Informationen herstellen können. Der Weg zur erträumten Zukunft ist nur im Wunsch ein kurzer Steg zur Erfüllung.

Heute geht es vielmehr darum, eine nachhaltige, sozial, ökologisch, ökonomisch und nicht zuletzt technologisch ausbalancierte Globalisierungskultur zu entwickeln. Eine Hyperwelt braucht ein Hyper-Bewusstsein, ein hyper-politisches Denken, eine Magna Charta internationaler Vernunft und Nähe, will die moderne Zivilisation die tatsächlichen Potenziale ihrer Hightech-Evolution zukunftsweisend nutzen.

Diese Einschätzung mag auf den ersten Blick pragmatisch und wenig fantasievoll aussehen, ist aber eine der wesentlichsten Visionen des 21. Jahrhunderts. Schon alleine das Abmildern der weltweit herrschenden Wirtschafts- und Sozialdisparitäten, ist eine globale Herkulesaufgabe, über die zwar auf vielen Gipfeln diskutiert wird, aber noch nicht angegangen wurde: Nach wie vor fordern wir hohe Renditen an den Finanzmärkten und Tiefstpreise beim Einkauf, ein Verhalten, das die bestehenden ökonomischen Ungleichheiten weiter verschärft. Sich von dieser Haltung zu distanzieren, fällt vor allem den wirtschaftlich hoch entwickelten Ländern schwer, basiert doch auf der Spanne zwischen Kosten und Rendite die Prosperität ihrer Industrialisierung. Für spürbare Veränderungen müssten sich global angelegte, hyper-balancierte Wachstumsideologien durchsetzen, bevor aus Visionen neue Wirklichkeiten entstehen können.

Kampf um die Aufmerksamkeit

Was das Web angeht: Freilich, das Medium verändert – oder besser: ergänzt beziehungsweise erweitert – unsere Realität: Das Internet ist zum öffentlich-privaten Gesellschaftspanoptikum geworden, in dem wir unsere Erlebnisse, Meinungen, Bilder und Videos ablegen, wie einst in der guten alten Schublade. Heute wollen wir allerdings unsere Geheimnisse nicht mehr für uns behalten, sondern bieten sie unter Preisgabe persönlicher Daten oder mittels Pseudonymen dem Rest der Welt als beachtenswerte Mitteilung an. Je mehr Erlebtes wir dem Web anvertrauen, desto größer wird die interaktive Erinnerungsdimension.

Wer aber glaubt, es entstünde dadurch eine Form unsterblichen Gedächtnisses, der irrt. Millionen von Internetseiten werden täglich neu angemeldet, genauso viele verschwinden oder veröden. Selbst professionelle Datensammler trauen der digitalen Welt keine besonders lange Haltbarkeit von Informationen zu. Um die Konservierung von Daten ist es schon jetzt schlecht bestellt, Speicherkapazitäten arbeiten an der Belastungsgrenze, immer kurz vor dem Systemkollaps, der Informationsschwund ist beträchtlich. Zudem ist der Ausstoß an Informationen weitaus größer als ihr Konsum. Damit verschärft sich der Kampf um Aufmerksamkeit, die sich ohnehin zwecks Überlastung immer mehr zurückzieht.

Die bloße Veröffentlichung der eigenen Meinung und das Ausstreuen von Blitzmeldungen über das momentane Befinden führen nicht zwingend zu einer eigenen, potenziellen Öffentlichkeit. Nur herausragende Informationen erzeugen – mit viel Glück – die gewünschte Form von Interesse. Aufgehalten kann dieser Prozess nicht: Informationsproduktion hat immer zugleich Informationszerstörung zur Folge. Deshalb erleben wir die angesprochene Zunahme des Bemerkbarkeitskampfes, der von den Medien in Casting-Shows ausgeschlachtet wird, aber an eine Weisheit des Showbiz erinnert: Von den Vielen hört man so wenig, von den Wenigen so viel.

Daten beziehungsweise gespeicherte Erinnerungen überleben nur, wenn sie als wertvolle Informationen erachtet, als solche weitergegeben werden und sich im kollektiven Gedächtnis von Communities, Gesellschaften, ja von ganzen Zivilisationen eingravieren. Hier muss das Web den gleichen Weg gehen, den unsere Vorfahren bereits beschritten hatten: Mit der Weitergabe von Geschichten und deren kollektive Speicherung inklusive ihrer laufenden Veränderung schufen sich Menschen nicht nur virtuelle, externe Gehirne, sondern eine soziale und identitätsstiftende Enzyklopädie. Mit metaphysischer Prägung: Aus den Geschichten entstanden Mythen, Legenden und Vermächtnisse.

Und heute kehrt, nach der Erfindung von Schrift, Buchdruck, Fotografie und Fernsehen, die Medienwelt zu diesen Anfängen zurück: Es geht im Web darum, Mythen, Legenden und Vermächtnisse zu initiieren, um ein neues kollektives und dynamisches Gedächtnis zu erschaffen. Das wirklich Kuriose am Web ist: Entgegen den passiven Medien birgt es die Option, selbst zu einem autonomen Wissensorganismus heranzureifen, der eine völlig neue Form von hyper-intelligenter Instanz in unser alltägliches Leben bringen könnte.

Vielleicht überschätzen wir die digitale Welt

Möglicherweise bleibt die virtuelle Kommunikation bloße Servicesphäre für den elektronischen Datenaustausch. Oder sie verdingt sich als dubiose Schattenwelt aus inszenierten Scheindialogen.

Indizien hierfür gibt es:

*    Ist es nicht die Unüberschaubarkeit des virtuellen Kosmos selbst, der die Möglichkeit auf Entwicklung eines globalen Meta-Bewusstseins verhindert?
*    Was passiert denn tatsächlich, wenn sich alle im cybersozialen Web der Mitmach-Generation 2.0plu zu Wort melden – erleben wir dann tatsächlich das Ideal einer hypermedialen Demokratie?
*    Oder zerstört die Anarchie plakativer Meinungen unserer persönliche Souveränität?
*    Werden wir letztlich doch nur Zeugen des weltweiten Burnouts der Informationsgesellschaft?
*    Indizien hierfür gibt es: Waten wir nicht schon jetzt müde geworden im Hochwasser der Datensintflut?
*    Und basteln hyperaktive User im Glauben an viele passive Leser letztlich nicht nur an ihrem egomanisch motivierten Blog- und Twitterkosmos?
*    Entwickelt sich das Web womöglich doch zum Sammelbecken für Wirklichkeitsenttäuschte und Realitätsverweigerer?
*    Oder schlimmer noch: Wird es zum Rückzugsort für egoistische Selbstproduzenten und subtile Denunzianten?
*    Für solche, die ihre Bedeutsamkeit mittels inszenierter, virtueller Mehrheiten unter dem Deckmantel der Basisdemokratie legitimieren wollen?
*    Verödet eine in Zukunft möglicherweise egozentrisch gewordene Medienwelt letzten Endes an fehlender Verständnisfähigkeit und in Folge an mangelnder Sozialisation?

Vielleicht unterschätzen wir die digitale Welt

Möglichweise entstehen doch neue Verständigungs- und Gemeinschaftskulturen und mit ihnen neue Werte-Instanzen, die uns ebenso neue, übergreifende Dialoge und neue, universale Verabredungen erlauben wie sie uns die Offenheit und Verbundenheit ermöglichen, die wir für einen produktiven Umgang mit einer komplexen und dynamischen Welt benötigen.

Eines ist sicher: Je mehr virtuelle Dominanz in unser Leben strömt, desto stärker müssen wir unsere mentalen Fähigkeiten entwickeln. Wollen wir mündige, unabhängige und kreative Mediennutzer sein, müssen wir dem wachsenden digitalen Einfluss wachsende psychologische und emotionale Stärken gegenüberstellen. Die alleinige technologische Verpackung des Globus wird nicht ausreichen, eine offene und sich zugleich vielfach verbindende Welt zu schaffen.

Wenn es gelingt, Wissen, Kreativität, Gefühl, Respekt und Gemeinschaft global zu koppeln und wenn diese Haltung die Möglichkeiten heutiger und kommender Technologien bestimmt, sind wir der Hyperwelt ein gutes Stück näher gekommen. Und das Web würde als Medium der kulturellen Verständigung in die Geschichte der Menschheit eingehen. Diese Vision würde auch den Fantasten gefallen. Da bin ich mir sicher.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 20 Jahren - die erste Webseite
« Antwort #11 am: 05 November, 2010, 12:34 »
Am 13. November 1990 schaltete der britische Physiker Tim Berners-Lee die Domain info.cern.ch am Europäischen Kernforschungszentrum CERN bei Genf frei.

Die Idee zum Informationsnetzwerk hat Berners-Lee bereits im März 1989 am Kernforschungsinstitut CERN formuliert. Auf der ersten CERN-Webseite wurde unter anderem erklärt, was das World Wide Web ist, welche Personen daran beteiligt sind und wie man einen Browser benutzt. Wie das Ganze aussah, kann man beim W3C betrachten.

Der endgültige Siegeszug des weltumspannenden Netzwerks begann allerdings erst 1993, als das CERN das Web offiziell für die Öffentlichkeit freigab und sich bereit erklärte, auf Lizenzzahlungen und eine Patentierung zu verzichten.

In Deutschland ist die Zahl der Webseiten seit Beginn des Internet-Booms 1999 stetig gestiegen. Hierzulande nutzen Privatleute wie Unternehmen zumeist Adressen der Top Level Domain ".de". Derzeit sind 13,8 Millionen Domains bei der Denic registriert. Die weltweit populäre Endung ".com" kommt auf etwa 90 Millionen Webadressen. Bei der seit vier Jahren existierenden Endung ".eu" seien es 3,2 Millionen Webseiten, so der Branchenverband BITKOM.

Quelle : www.tecchannel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 30 Jahren: Online-Banking startet in Deutschland
« Antwort #12 am: 12 November, 2010, 09:30 »
Heute vor 30 Jahren startete die Deutsche Bundespost in Bonn einen Bildschirmtext-Feldversuch mit fünf angeschlossenen externen Rechnern. Neben den Versandhäusern Otto, Quelle und Neckermann und den Fliegern von TUI war die Verbraucherbank (heute Norisbank) ein Teilnehmer des Experimentalangebotes. 200 Kunden in der Testregion Neuss/Düsseldorf konnten das Angebot nutzen, unter *300# ihre Überweisungen online durchzuführen. Das BTX-Angebot war in der Folgezeit so erfolgreich, dass lange nach dem Aus für BTX die Banking-Schnittstelle erst 2005 in den Ruhestand geschickt wurde.


Werbung fürs Online-Banking
im Jahr 1980...
"Unsere Kunden praktizieren die Selbstbedienung schon seit Jahren", warb die Verbraucherbank selbstbewusst zum Start des Online-Bankings via BTX. Aus heutiger Sicht war die Bank der Zeit weit voraus. 1976 hatte dort der technische Leiter Alfred Richter das PIN/TAN-Verfahren erfunden und eingeführt, das ursprünglich bankintern Mitarbeiter schützen sollte, die ein Konto bei der eigenen Bank hatten. 1977 führte er das SB-Banking ein, mit Sachbearbeiter-Terminals, die nach Schalterschluss mit dem Hubwagen in den Vorraum der Filiale gerollt wurden. Im selben Jahr installierte die Verbaucherbank einen der weltweit ersten Geldautomaten, bei dem alle Kunden mit Kundenkarte und PIN Geld abheben konnten.


...und Werbung fürs Online-Banking
 ein Jahr später
1978 führte Richter Electronic Cash mit Kundenkarten des technischen Kaufhauses Brinkmann in Verbund mit einer Kundenkarte samt PIN ein. Auf Basis dieser Erfahrungen entstand das Online-Banking, lange vor entsprechenden Installationen in den USA. Mit dem Start des Systems warb man ein Jahr später mit dem Slogan "Meine BANK im Wohnzimmer". Zu diesem Zeitpunkt hatte die Verbraucherbank bereits 2000 Kunden, zum offiziellen Start von BTX im Jahre 1983 verdoppelte sich die Zahl. Der große Erfolg des Online-Bankings führte dazu, dass man völlig unrealistische Zahlen ausgab. 1984 wollte man 300.000 Teilnehmer im BTX-System haben, 1987 die Million erreichen. Tatsächlich verfügten Ende 1984 nur 38.894 Haushalte über ein BTX-System; die 300.000er-Grenze wurde erst 1991 übersprungen.

Technisch beruhte das erste Online-Banking auf einem Login mit Nutzernamen und Kennwort (mindestens 10 Stellen) sowie einer Liste mit "Geldtransaktionsnummern", die jeweils für eine Überweisung eingegeben wurden und danach ungültig waren. Das System wurde vor allem von Kleinbetrieben benutzt. Neben der Verbraucherbank richteten viele Banken und Sparkassen ein BTX-Angebot ein. Bis zum offiziellen Ende des Bildschirmtextes im Jahre 1999 blieb das Online-Banking die dominierende Anwendung. Tatsächlich lief BTX wegen zahlreicher wechselunwilliger Bankingkunden als "T-Online Classic" munter weiter und wurde erst am 10. Mai 2007 während einer feierlichen "Power Off"-Veranstaltung in Ulm abgeschaltet. Bis zum Schluss war das Online-Banking allen Unkenrufen zum Trotz ein sehr sicheres System, auch wenn frühzeitig durch eine Protestaktion ein anderer Eindruck entstand: Im November 1984 erleichterte der Chaos Computer Club mit einem Trick die Hamburger Sparkasse (Haspa) um 135.000 DM: Die Hacker ließen die Haspa für jeweils 9,97 Mark 14 Stunden lang den kostenpflichtigen Text "Es erfordert ein bemerkenswertes Team, den Gilb zurückzudrängen" abrufen. Mit Gilb war die deutsche Bundespost gemeint, der Betreiber des BTX-Systems, den Hacker wegen seiner restriktive Modem-Zulassungspraxis hassten. Die Protestaktion war alles andere als ein Einbruch in die Bank, sondern mehr eine Spaßaktion wie jene der bayerischen Hacker, die danach die aufgeregte Presse zur Vorführung eines Bankeinbruches einluden, bei der eine Schulbank unter dem Gewicht der Hacker brach.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vor 20 Jahren: Das WWW, ein weiteres Kapitel Hypertext
« Antwort #13 am: 13 November, 2010, 17:50 »
Heute vor 20 Jahren ging mit http://info.cern.ch die erste Website online. Es ist einer von vielen Geburtstagen, die das Internet feiern kann. Dazu gehört die Freigabe von Sourcecode ebenso wie die Entscheidung der DARPA und dann der National Science Foundation, die Entwicklung eines Rechnernetzes zu finanzieren. Eingewoben in die Schaltungstechnik ist die erste Website ein Kapitel in der Geschichte des Hypertext, die mit Vannevar Bush begann.

Die erste Website wurde von Tim Berners-Lee aufgesetzt, der am europäischen Forschungszentrum CERN einen schwer vermittelbaren Vorschlag verfasst hatte, wie man das Hypertext-Projekt Xanadu von Ted Nelson umsetzen könnte. Berners-Lee vereinfachte das Link-Konzept von Nelson, der aktive Rücklinks von den jeweils referenzierten anderen Text-Systemen konzipiert hatte. In seinem Buch zur Entwicklung der Computertechnik macht Nelson den schädlichen Einfluss des Personal Computers dafür verantwortlich, dass das WWW mit seinen Webseiten so "eindimensional" geworden ist.

Der Geburtstag der ersten Website wird mit zünftigen Klickstrecken gefeiert, aber auch mit klugen Anmerkungen zu den vielen Geburtstagen des Internet. So kommt es, dass man bei einer Firma, die sich lange gegen das Internet stemmte, zum 20. Geburtstag 20 verrückte Dinge lesen kann.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Internet Engineering Task Force wird 25
« Antwort #14 am: 16 Januar, 2011, 16:51 »
Der zehnte Geburtstag der Wikipedia wurde in der vergangenen Woche ausgiebig gewürdigt; an die Organisation, die Dienste wie Wikipedia möglich gemacht hat, scheint hingegen fast niemand zu denken. Die Internet Engineering Task Force, die bis heute über 4500 grundlegende Protokolle auf der Basis des Internet Protokolls (TCP/IP) festlegte, vom Routingprotokoll BGP bis zum Mailstandard SMTP. Heute vor 25 Jahren diskutierten im kalifornischen San Diego die 21 Teilnehmer des vierten Treffens der Gateway Algorithms and Data Structure Task Force (GADS) die Satzung für die Internet Engineering Task Force (IETF). Den Entwicklern gilt dieses Treffen als Geburtsstunde der Standardisierungsorganisation.

Anders als bei der ISO oder der Internationalen Fernmeldeunion (ITU) gibt es bei den inzwischen drei jährlichen Treffen der IETF keine Abstimmungen über neue Standardentwürfe: "Wir erkennen keine Könige, Präsidenten oder Wahlen an – wir glauben an groben Konsens und funktionierenden Code", lautet das Credo der IETF, die sich mit ihren Verfahren deutlich von anderen Standardisierungsorganisationen abhebt.

Ursprünglich getrieben von Forschern aus dem Umfeld der US-amerikanischen Defense Advance Research Project Agency (DARPA) und über Jahrzehnte klar US-dominiert, treffen sich die Entwickler ausgerechnet im Geburtstagsjahr kein einziges Mal im "Mutterland" und folgen erstmals offiziell der neuen Regel, je eines von drei Treffen in Nordamerika, Europa und Asien zu veranstalten. Geburtstag gefeiert wird im März in Prag, fürs Nordamerika-Treffen geht man ins Einreise-freundlichere Kanada und zum Abschluss des Jahres trifft man sich in Taipeh, sozusagen zur Demonstration von Unabhängigkeit gegenüber dem letzten Gastgeber im vergangenen Jahr, der Volksrepublik China.

Nach wie vor schicken große US-Unternehmen wie Cisco mehrere Dutzend Entwickler zur IETF. US-Behörden wie das National Institute für Standards and Technology (NIST) bedienen sich des IETF-Prozesses häufiger als Kollegen aus anderen Ländern. Der aktuelle IETF-Vorsitzende und Ko-Autor des Zertifikatsstandards X.509 (RFC 5280), Russ Housley, wird unter anderem von VeriSign und der National Security Agency (NSA) gesponsort.

Housley dankte in einer E-Mail zum heutigen Geburtstag den Teilnehmern, die mit ihrer Arbeit in den vergangenen 25 Jahren zum Erfolg der Organisation beigetragen haben."IETF-Standards unterstützen alle Aspekte des kontinuierlichen Wachstums und der Weiterentwicklung des Internet", schrieb Housley. Er unterstrich die Bedeutung des offenen Verfahrens und die kostenlose Verfügbarkeit der als "Request for Comment" (RFC) bezeichneten Standards. Berichte aus 25 Jahren IETF sammele man in den kommenden Monaten übrigens auf einer eigenen Seite, so Housely – na dann, Happy Birthday, IETF!

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )